ფეისბუქის Deepfake ტექნოლოგია არ გადაგვარჩენს, ამბობენ ექსპერტები

Სარჩევი:

ფეისბუქის Deepfake ტექნოლოგია არ გადაგვარჩენს, ამბობენ ექსპერტები
ფეისბუქის Deepfake ტექნოლოგია არ გადაგვარჩენს, ამბობენ ექსპერტები
Anonim

მთავარი წაღებები

  • როგორც ღრმა ფეიქი უფრო ადვილი ხდება, მათი აღმოჩენის ახალი და გაუმჯობესებული გზები გახდა პრიორიტეტი.
  • ფეისბუქის ღრმაყალბობის დაფიქსირების ტექნოლოგია იყენებს საპირისპირო მანქანურ სწავლებას, რათა აღმოაჩინოს ვიდეო ღრმა ყალბია თუ არა.
  • ექსპერტები ამბობენ, რომ ბლოკჩეინის ტექნოლოგიის გამოყენება საუკეთესო გზა იქნება ვიდეოს რეალურია თუ არა, რადგან მეთოდი ეყრდნობა კონტექსტურ მონაცემებს.
Image
Image

ფეისბუქი დარწმუნებულია მანქანური სწავლების მოდელში ღრმა ფეიქებთან საბრძოლველად, მაგრამ ექსპერტები ამბობენ, რომ მანქანური სწავლება თავისთავად არ გადაგვარჩენს ღრმა ფეიქების მოტყუებისგან.

კომპანიები, როგორიცაა Facebook, Microsoft და Google, ყველა მუშაობენ ვებსა და სოციალურ ქსელებში გავრცელების ღრმა ფეიქების წინააღმდეგ. მიუხედავად იმისა, რომ მეთოდები განსხვავდება, არსებობს ერთი პოტენციური სისულელე მეთოდი ამ ყალბი ვიდეოების დასანახად: ბლოკჩეინები.

„[ბლოკჩეინები] უბრალოდ გაძლევენ უამრავ პოტენციალს, რომ დაადასტუროთ ღრმა ფეიქი ისე, რომ ეს არის დადასტურების საუკეთესო ფორმა, რაც მე შემიძლია ვნახო“, - სტივენ ვოლფრამი, Wolfram Research-ის დამფუძნებელი და აღმასრულებელი დირექტორი და ავტორი ახალი სახის. Science-მა განუცხადა Lifewire-ს ტელეფონით.

ფეისბუქის Deepfake-Spotting Tech

Deepfake ტექნოლოგია სწრაფად გაიზარდა ბოლო რამდენიმე წლის განმავლობაში. შეცდომაში შემყვანი ვიდეოები იყენებს მანქანური სწავლის მეთოდებს ისეთი მოქმედებების გასაკეთებლად, როგორიცაა სხვისი სახის სხვა ადამიანის სხეულზე გადატანა, ფონის პირობების შეცვლა, ყალბი ტუჩის სინქრონიზაცია და სხვა. ისინი მერყეობს უწყინარი პაროდიებიდან დაწყებული, ცნობილი ადამიანების ან საზოგადო მოღვაწეების თქმის ან იმის გაკეთებამდე, რაც არ გაუკეთებიათ.

ექსპერტები ამბობენ, რომ ტექნოლოგია სწრაფად მიიწევს წინ, და რომ ღრმა ფეიქი გახდება უფრო დამაჯერებელი (და უფრო ადვილია შექმნა), რადგან ტექნოლოგია უფრო ფართოდ ხელმისაწვდომი და ინოვაციური გახდება.

Image
Image

Facebook-მა ცოტა ხნის წინ უფრო მეტი ინფორმაცია მისცა ღრმა სიყალბის აღმოჩენის ტექნოლოგიაში მიჩიგანის სახელმწიფო უნივერსიტეტთან პარტნიორობით. სოციალური ქსელი ამბობს, რომ ის ეყრდნობა უკუ ინჟინერიას ერთი ხელოვნური ინტელექტის მიერ გენერირებული სურათიდან მის წარმოებისთვის გამოყენებულ გენერაციულ მოდელამდე.

მკვლევარმა მეცნიერებმა, რომლებიც მუშაობდნენ Facebook-თან, განაცხადეს, რომ მეთოდი ეყრდნობა AI მოდელის უნიკალური ნიმუშების აღმოჩენას, რომელიც გამოიყენება ღრმა ყალბის შესაქმნელად.

„გამოსახულების ატრიბუტის განზოგადებით ღია ნაკრების ამოცნობაზე, ჩვენ შეგვიძლია დავასკვნათ მეტი ინფორმაცია გენერაციული მოდელის შესახებ, რომელიც გამოიყენება ღრმა ფეიკის შესაქმნელად, რომელიც სცილდება იმის აღიარებას, რომ ის აქამდე არ ყოფილა. და ღრმა ფეიქების კოლექციის ნიმუშებს შორის მსგავსების გამოკვლევით, ჩვენ ასევე შეგვეძლო გვეთქვა, არის თუ არა სურათების სერია ერთი წყაროდან წარმოშობილი“, - წერენ მკვლევარებმა სი იინი და ტან ჰასნერი Facebook-ის ბლოგ პოსტში მისი ღრმა ყალბი ლაქების მეთოდის შესახებ.

Image
Image

ვოლფრამი ამბობს, რომ ლოგიკურია, რომ გამოიყენებდი მანქანურ სწავლებას მოწინავე ხელოვნური ინტელექტის მოდელის დასანახად (deepfake). თუმცა, ყოველთვის არის ადგილი ტექნოლოგიის მოსატყუებლად.

„სულაც არ მიკვირს, რომ არსებობს მანქანური სწავლების წესიერი ხერხი [deepfakes-ის გამოსავლენად]“, თქვა ვოლფრამმა. „ერთადერთი კითხვაა, თუ საკმარის ძალისხმევას დახარჯავ, შეგიძლია მოატყუო? დარწმუნებული ვარ, რომ შეგიძლია.”

Deepfakes-თან ბრძოლა სხვა გზით

სანაცვლოდ, ვოლფრამმა თქვა, რომ მას სჯერა, რომ ბლოკჩეინის გამოყენება საუკეთესო ვარიანტი იქნება გარკვეული ტიპის ღრმა ფეიკების ზუსტად გამოსავლენად. მისი მოსაზრება ბლოკჩეინის გამოყენებასთან დაკავშირებით 2019 წელს ბრუნდება და მან თქვა, რომ საბოლოო ჯამში, ბლოკჩეინის მიდგომას შეუძლია უფრო ზუსტი გადაწყვეტა უზრუნველყოს ჩვენი ღრმა ყალბი პრობლემის შესახებ.

„მოველით, რომ სურათებისა და ვიდეოების მაყურებელს შეუძლია რეგულარულად შეამოწმოს ბლოკჩეინები (და „მონაცემთა სამკუთხედის გამოთვლები“) ისე, როგორც ვებ ბრაუზერები ახლა ამოწმებენ უსაფრთხოების სერთიფიკატებს“, - წერს ვოლფრამი Scientific American-ში გამოქვეყნებულ სტატიაში.

ვინაიდან ბლოკჩეინები ინახავს მონაცემებს ბლოკებში, რომლებიც შემდეგ ერთმანეთთან არის დაკავშირებული ქრონოლოგიური თანმიმდევრობით, და ვინაიდან დეცენტრალიზებული ბლოკჩეინები უცვლელია, შეყვანილი მონაცემები შეუქცევადია.

ერთადერთი კითხვაა, თუ საკმარის ძალისხმევას გამოიყენებთ, შეგიძლიათ მოატყუოთ იგი? დარწმუნებული ვარ, რომ შეგიძლია.

ვოლფრამმა განმარტა, რომ ვიდეოს ბლოკჩეინში განთავსებით, თქვენ შეძლებთ ნახოთ მისი გადაღების დრო, მდებარეობა და სხვა კონტექსტური ინფორმაცია, რომელიც საშუალებას მოგცემთ გაიგოთ, შეცვლილია თუ არა იგი რაიმე ფორმით.

"ზოგადად, რაც უფრო მეტი მეტამონაცემები გაქვთ, რაც სურათს ან ვიდეოს კონტექსტუალიზაციას უკეთებს, მით უფრო მეტია იმის ალბათობა, რომ შეგეძლოთ ამის თქმა", - თქვა მან.”თქვენ არ შეგიძლიათ დროის გაყალბება ბლოკჩეინზე.”

თუმცა, ვოლფრამმა თქვა, რომ გამოყენებული მეთოდი - იქნება ეს მანქანური სწავლება თუ ბლოკჩეინის გამოყენება - დამოკიდებულია ღრმა ფეიკის ტიპზე, რომლისგანაც ცდილობთ დაიცვათ (მაგ. ვიდეო, სადაც კიმ კარდაშიანი რაღაც სისულელეს ამბობს ან ვიდეოს შესახებ. პოლიტიკოსი აკეთებს განცხადებას ან წინადადებას).

„ბლოკჩეინის მიდგომა იცავს გარკვეული სახის ღრმა გაყალბებისგან, ისევე როგორც მანქანური სწავლების გამოსახულების დამუშავება იცავს გარკვეული სახის ღრმა გაყალბებისგან“, - თქვა მან.

ძირითადი ხაზი, როგორც ჩანს, არის სიფხიზლე ყველა ჩვენგანისთვის, როდესაც საქმე ეხება მომავალ ღრმა ფეიკ წარღვნასთან ბრძოლას.

გირჩევთ: