მთავარი წაღებები
- Amazon-ის Alexa-ს ხმოვან ასისტენტს შეუძლია ხმის კოპირება სულ რაღაც ერთი წუთის აუდიოს საშუალებით.
- შეგიძლიათ სთხოვოთ Alexa-ს წაიკითხოს ამბავი გარდაცვლილი მშობლის ხმით.
- ეს იგივე იდეაა, რაც ღრმა ყალბი, გამოიყენება მხოლოდ სიკეთის ძალებისთვის.
Amazon Alexa-ს უახლესი ხრიკი არის ისწავლოს გარდაცვლილი საყვარელი ადამიანის ხმის მიბაძვა, რათა მათ შეძლონ თქვენთან საუბარი საფლავის მიღმა.
Alexa-ს სჭირდება მხოლოდ ერთი წუთი სალაპარაკო აუდიო, რათა დამაჯერებლად მიბაძოს ხმა. Amazon ასახელებს მას, როგორც დამამშვიდებელ მახასიათებელს, რომელსაც შეუძლია დაგიკავშირდეთ საყვარელ ადამიანებთან, მაგრამ ეს ასევე შეიძლება იყოს საკმაოდ საშინელი გამოცდილება. და ეს გვიჩვენებს, თუ რამდენად ადვილია ღრმა ყალბი აუდიოს გაკეთება, რომელიც საკმარისად კარგია ჩვენს მოსატყუებლად, მაშინაც კი, როცა ხმა ისეთია, რომელიც ჩვენ ძალიან კარგად ვიცით.
"ამაზონი ნამდვილად შევიდა საკმაოდ უნიკალურ და უცნაურ მხარეში თავისი განცხადებით, რომ Alexa მალე შეძლებს ისწავლოს და შემდეგ გამოიყენოს გარდაცვლილი ნათესავების ხმა", - განუცხადა ბილ მანმა, კონფიდენციალურობის ექსპერტმა Restore Privacy-ში. Lifewire ელექტრონული ფოსტით. "ზოგიერთი ადამიანისთვის ეს სულაც არ არის საშინელება. სინამდვილეში, ეს შეიძლება საკმაოდ შემაშფოთებელი იყოს."
მოჩვენება მანქანაში
როგორც ყოველწლიური re:MARS კონფერენციის ნაწილი, Amazon აჩვენებს ამ ფუნქციას მოკლე ვიდეოში. მასში, ბავშვი ეკითხება ალექსას, შეუძლია თუ არა ბებიას წაიკითხოს მისთვის "ოზის ჯადოქარი", ყველა ბავშვის საყვარელი საკვანძო ნამუშევარი საჯარო დომენში. და ეს საკმაოდ შემაშფოთებელი მომენტია. ძნელია არ განიცადო ადამიანური ემოციები, როცა ბებია კითხვას იწყებს.
"ადამიანები ებრძვიან სიკვდილიანობას, განსაკუთრებით დასავლურ კულტურაში. საუკუნეების განმავლობაში ჩვენ ვცდილობდით გვეპოვა მიცვალებულთა ხსოვნისადმი მიძღვნილი გზები, დაწყებული სიკვდილის ნიღბებით, თმის ღერებით, ძველი ფოტოებით დამთავრებული, ძველი ფილმების ყურებამდე, " ენდრიუ სელეპაკი ფლორიდის უნივერსიტეტის სოციალური მედიის პროფესორმა განუცხადა Lifewire-ს ელექტრონული ფოსტით. "Deepfakes იყენებს უახლეს ტექნოლოგიას გარდაცვლილი საყვარელი ადამიანის სიკვდილის ახალი ნიღბის შესაქმნელად. მაგრამ, ადამიანის პერსპექტივიდან გამომდინარე, არის თუ არა ეს საშინელება თუ საყვარელი ადამიანის მემორიალიზაციის გზა და დაჭერა მისი სიკვდილის შემდეგ?"
მაგრამ Memento mori შეიძლება იყოს როგორც დამამშვიდებელი, ასევე საშინელი. ოჯახის წევრის მეგობარი გარდაიცვალა, მაგრამ მაინც გესმის მათი საუბარი. არ შველის, რომ Alexa-ს აქვს უცნაური და ზოგჯერ შემზარავი ქცევის ისტორია. 2018 წელს, როდესაც NYT-ის მიმომხილველი ფარჰად მანჯუ საწოლში იწვა, მისმა Amazon Echo-მ „დაიწყო ტირილი, როგორც ბავშვი ყვიროდა საშინელებათა ფილმში სიზმარში“.
მალევე ამაზონმა აღიარა, რომ Alexa ზოგჯერ ხმამაღლა იცინოდა, რაც მოზარდებთან და სარდაფებთან ერთად არის საშინელებათა ფილმი 101.
შეიძლება გაინტერესებდეს, როგორ გრძნობ თავს, თუ ალექსამ იგივე ხრიკები გამოიყენა ბებიას ხმაში.
ღრმა ყალბი
აშკარა სიმარტივე, რომლითაც Alexa სწავლობს ხმის მიბაძვას, მიგვიყვანს ხმის კლონირების უფრო ბოროტ გამოყენებამდე: ღრმა ყალბი.
"Deepfake აუდიო არ არის ახალი, მაშინაც კი, თუ ის ნაკლებად გასაგები და ნაკლებად ცნობილი. ტექნოლოგია უკვე წლებია ხელმისაწვდომია ინდივიდუალური ხმის ხელახლა შესაქმნელად ხელოვნური ინტელექტისა და ღრმა სწავლის გამოყენებით, შედარებით მცირე რეალური აუდიოს გამოყენებით, " ამბობს სელეპაკი. "ასეთი ტექნოლოგია ასევე შეიძლება იყოს საშიში და დესტრუქციული. შეწუხებულმა ინდივიდმა შეიძლება ხელახლა შექმნას გარდაცვლილი ყოფილი მეგობრის ან შეყვარებულის ხმა და გამოიყენოს ახალი აუდიო სიძულვილის და მავნებელი სიტყვების სათქმელად."
ეს მხოლოდ Alexa-ს კონტექსტშია. ღრმა ყალბი აუდიო შეიძლება ბევრად აღემატებოდეს ამას და დაარწმუნოს ხალხი, რომ გამოჩენილ პოლიტიკოსებს სჯერათ ის, რაც არ სჯერათ, მაგალითად.მაგრამ მეორეს მხრივ, რაც უფრო მეტად შევეჩვევით ამ ღრმა ყალბებს - შესაძლოა ამ Alexa ხმების სახით - მით უფრო სკეპტიკურად ვიქნებით უფრო ბოროტი ყალბების მიმართ. კიდევ ერთხელ, იმის გათვალისწინებით, თუ რამდენად ადვილია ტყუილების გავრცელება Facebook-ზე, ალბათ არა.
Amazon-ს არ უთქვამს, მოდის ეს ფუნქცია Alexa-ზე თუ ეს მხოლოდ ტექნოლოგიის დემო ვერსიაა. იმედი მაქვს, რომ ასე იქნება. ტექნიკური საუკეთესოა, როდესაც ის გამოიყენება ჰუმანისტური გზით, და მიუხედავად იმისა, რომ მარტივი რეაქციაა მას საშინელება ვუწოდოთ, როგორც Selepak ამბობს, ის ნამდვილად არ განსხვავდება ძველი ვიდეოების ყურებისგან ან შენახული ხმოვანი ფოსტის მოსმენისგან. როგორც ზარმაცი სცენარით დაწერილი სატელევიზიო შოუს პერსონაჟი.
და თუ ღრმა ყალბების ტექნოლოგია ხელმისაწვდომია, რატომ არ გამოვიყენოთ ის საკუთარი თავის დასამშვიდებლად?