არ ენდოთ იმას, რასაც ხედავთ ინტერნეტში, ამბობენ ექსპერტები

Სარჩევი:

არ ენდოთ იმას, რასაც ხედავთ ინტერნეტში, ამბობენ ექსპერტები
არ ენდოთ იმას, რასაც ხედავთ ინტერნეტში, ამბობენ ექსპერტები
Anonim

მთავარი წაღებები

  • ახალი კვლევა ცხადყოფს, რომ ადამიანებს არ შეუძლიათ ხელოვნური ინტელექტის გამომუშავებული სურათების გამოყოფა რეალურისაგან.
  • მონაწილეებმა შეაფასეს ხელოვნური ინტელექტის მიერ გენერირებული სურათები, როგორც უფრო სანდო.
  • ექსპერტები თვლიან, რომ ადამიანებმა უნდა შეწყვიტონ ენდობოდნენ ყველაფერს, რასაც ხედავენ ინტერნეტში.
Image
Image

გამონათქვამი "დანახვა არის დაჯერება" აღარ არის აქტუალური, როდესაც საქმე ინტერნეტს ეხება და ექსპერტები ამბობენ, რომ ის მალე არ გაუმჯობესდება.

ბოლოდროინდელმა კვლევამ აჩვენა, რომ ხელოვნური ინტელექტის (AI) მიერ გენერირებული სახეების გამოსახულებები იყო არა მხოლოდ უაღრესად რეალისტური, არამედ უფრო სათნო, ვიდრე რეალური სახეები.

"AI-ს მიერ სინთეზირებული სახეების ფოტორეალიზმის ჩვენი შეფასება მიუთითებს იმაზე, რომ სინთეზურმა ძრავებმა გაიარეს უცნაური ხეობა და შეუძლიათ შექმნან სახეები, რომლებიც განურჩეველი და უფრო სანდოა, ვიდრე რეალური სახეები", - შენიშნეს მკვლევარები.

ეს ადამიანი არ არსებობს

მკვლევარებმა, დოქტორმა სოფი ნაითინგეილმა ლანკასტერის უნივერსიტეტიდან და პროფესორმა ჰანი ფარიდმა კალიფორნიის უნივერსიტეტიდან, ბერკლი, ჩაატარეს ექსპერიმენტები ღრმა ყალბების კარგად ცნობილი საფრთხეების აღიარების შემდეგ, დაწყებული ყველა სახის ონლაინ თაღლითობიდან გამაძლიერებლამდე. დეზინფორმაციული კამპანიები.

"ალბათ ყველაზე დამღუპველი შედეგია ის, რომ ციფრულ სამყაროში, სადაც ნებისმიერი სურათი ან ვიდეო შეიძლება გაყალბდეს, ნებისმიერი არასასიამოვნო ან არასასურველი ჩანაწერის ავთენტურობა შეიძლება ეჭვქვეშ დადგეს", - ამტკიცებენ მკვლევარები..

ისინი ამტკიცებდნენ, რომ მიუხედავად იმისა, რომ მიღწეულია პროგრესი ავტომატური ტექნიკის შემუშავებაში ღრმა ყალბი შინაარსის აღმოსაჩენად, მიმდინარე ტექნიკა არ არის საკმარისად ეფექტური და ზუსტი, რომ არ დარჩეს ახალი კონტენტის მუდმივი ნაკადი, რომელიც ატვირთულია ონლაინ რეჟიმში.ეს ნიშნავს, რომ ონლაინ კონტენტის მომხმარებლებზეა დამოკიდებული, გაარჩიონ რეალური და ყალბი, გვთავაზობს დუეტი.

Jelle Wieringa, KnowBe4-ის უსაფრთხოების ცნობიერების დამცველი, დაეთანხმა. მან განუცხადა Lifewire-ს ელექტრონული ფოსტით, რომ ფაქტობრივი ღრმა ყალბების წინააღმდეგ ბრძოლა ძალიან რთულია სპეციალიზებული ტექნოლოგიის გარეშე. „[შემარბილებელი ტექნოლოგიები] შეიძლება იყოს ძვირი და ძნელი დასანერგად რეალურ დროში პროცესებში, ხშირად ღრმა სიყალბის აღმოჩენა მხოლოდ ფაქტის შემდეგ.“

ამ ვარაუდით, მკვლევარებმა ჩაატარეს ექსპერიმენტების სერია, რათა დაედგინათ, შეუძლიათ თუ არა ადამიანის მონაწილეებს განასხვავონ თანამედროვე სინთეზირებული სახეები რეალური სახეებისგან. მათ ტესტებში მათ დაადგინეს, რომ მიუხედავად იმისა, რომ ვარჯიში იყო ყალბების ამოცნობაში, სიზუსტის მაჩვენებელი მხოლოდ 59%-მდე გაუმჯობესდა, 48%-დან ვარჯიშის გარეშე.

ამან აიძულა მკვლევარები შეემოწმებინათ, შეუძლია თუ არა სანდოობის აღქმა დაეხმაროს ადამიანებს ხელოვნური სურათების ამოცნობაში. მესამე კვლევაში მათ სთხოვეს მონაწილეებს შეეფასებინათ სახეების სანდოობა, მხოლოდ იმის გამოვლენით, რომ სინთეზური სახეების საშუალო შეფასება იყო 7.7%-ით უფრო სანდო, ვიდრე რეალური სახეების საშუალო რეიტინგი. რიცხვი შეიძლება არც ისე ბევრი იყოს, მაგრამ მკვლევარები ამტკიცებენ, რომ ეს სტატისტიკურად მნიშვნელოვანია.

ღრმა ყალბი

ღრმა ყალბი უკვე მთავარი საზრუნავი იყო და ახლა წყლები კიდევ უფრო დაბინძურდა ამ კვლევის შედეგად, რაც ვარაუდობს, რომ ასეთი მაღალი ხარისხის ყალბი გამოსახულებები შეიძლება სრულიად ახალი განზომილების შეტანას ონლაინ თაღლითებს, მაგალითად, მეტის შექმნას დამაჯერებელი ონლაინ ყალბი პროფილები.

"ერთადერთი, რაც განაპირობებს კიბერუსაფრთხოებას, არის ხალხის ნდობა ტექნოლოგიების, პროცესების და ადამიანების მიმართ, რომლებიც ცდილობენ დაიცვან ისინი", - თქვა ვირინგამ. "ღრმა ყალბი, განსაკუთრებით მაშინ, როდესაც ისინი გახდებიან ფოტორეალისტური, ძირს უთხრის ამ ნდობას და, შესაბამისად, კიბერუსაფრთხოების მიღებას და მიღებას. ამან შეიძლება გამოიწვიოს ადამიანების უნდობლობა ყველაფრის მიმართ, რასაც აღიქვამენ."

Image
Image

კრის ჰაუკი, მომხმარებელთა კონფიდენციალურობის ჩემპიონი Pixel Privacy-ში, დათანხმდა. ელფოსტის მოკლე გაცვლაში მან განუცხადა Lifewire-ს, რომ ფოტორეალისტურმა ღრმა ყალბმა შეიძლება გამოიწვიოს ინტერნეტში „ქაოსი“, განსაკუთრებით ამ დღეებში, როდესაც ყველა სახის ანგარიშზე წვდომა შესაძლებელია ფოტო ID ტექნოლოგიის გამოყენებით.

მაკორექტირებელი ქმედება

საბედნიეროდ, გრეგ კუნი, IoT, Prosegur Security-ის დირექტორი, ამბობს, რომ არის პროცესები, რომლებსაც შეუძლიათ თავიდან აიცილონ ასეთი თაღლითური ავთენტიფიკაცია. მან ელფოსტით განუცხადა Lifewire-ს, რომ AI-ზე დაფუძნებული რწმუნებათა სისტემებს ემთხვევა ვერიფიცირებული ინდივიდი სიის წინააღმდეგ, მაგრამ ბევრს აქვს ჩაშენებული გარანტიები „სიცოცხლის“შესამოწმებლად.

"ამ ტიპის სისტემებმა შეიძლება მოითხოვონ და უხელმძღვანელონ მომხმარებელს გარკვეული ამოცანების შესრულებაში, როგორიცაა ღიმილი ან თავი მარცხნივ, შემდეგ მარჯვნივ. ეს არის ის, რასაც სტატიკურად წარმოქმნილი სახეები ვერ შეასრულებენ", - გააზიარა კუნი.

მკვლევარებმა შემოგვთავაზეს გაიდლაინები მათი შექმნისა და გავრცელების რეგულირებისთვის, რათა დაიცვან საზოგადოება სინთეტიკური სურათებისგან. დასაწყისისთვის, ისინი გვთავაზობენ ღრმად ჩაძირული ჭვირნიშნების ჩართვას თავად გამოსახულების და ვიდეო სინთეზის ქსელებში, რათა უზრუნველყონ ყველა სინთეზური მედიის საიმედოდ იდენტიფიცირება.

მანამდე, პოლ ბიშოფი, კონფიდენციალურობის დამცველი და infosec კვლევის რედაქტორი Comparitech-ში, ამბობს, რომ ადამიანები საკუთარ თავზე არიან.„ხალხს მოუწევს ისწავლოს არ ენდოს სახეებს ონლაინ, ისევე როგორც ჩვენ ყველამ (იმედია) ვისწავლეთ, რომ არ ვენდოთ ჩვენს ელ.

გირჩევთ: