ვიდეოების გაყალბება მარტივია, ღრმა ნოსტალგიის ჩვენება

Სარჩევი:

ვიდეოების გაყალბება მარტივია, ღრმა ნოსტალგიის ჩვენება
ვიდეოების გაყალბება მარტივია, ღრმა ნოსტალგიის ჩვენება
Anonim

მთავარი წაღებები

  • Deep Nostalgia არის ახალი პროგრამა, რომელიც გაძლევთ საშუალებას ძველი ფოტოების ანიმაცია.
  • ტექნოლოგია გვიჩვენებს, თუ რამდენად ადვილია ადამიანების ვიდეოების შექმნა, რომლებიც აკეთებენ იმას, რაც რეალურად არ გაუკეთებიათ რეალურ ცხოვრებაში.
  • ღრმა ყალბი ტექნოლოგია უკვე იმდენად დახვეწილია, რომ ძნელია იმის დადგენა, ვიდეო რეალურია თუ კომპიუტერული გენერირებული, ამბობს ერთი ექსპერტი.
Image
Image

ფრთხილად იყავით ახალ პროგრამულ უზრუნველყოფასთან, რომელსაც შეუძლია შექმნას ეგრეთ წოდებული "ღრმა ყალბი", რომელშიც რეალური ადამიანების ვიდეოების სიმულაცია შესაძლებელია, გვაფრთხილებენ ექსპერტები.

Deep Nostalgia, რომელიც გამოუშვა კომპანია MyHeritage-ის მიერ, ტენდენციურია სოციალურ მედიაში, მომხმარებლები აცოცხლებენ ყველას, ცნობილი კომპოზიტორებიდან გარდაცვლილ ნათესავებამდე. პროგრამული უზრუნველყოფა იწვევს არაერთგვაროვან რეაქციას, ზოგი ადამიანი აღფრთოვანებულია შემოქმედებით, ზოგი კი მათ საშინლად მიიჩნევს. ტექნოლოგია გვიჩვენებს, თუ რამდენად ადვილია ადამიანების ვიდეოების შექმნა, რომლებიც აკეთებენ იმას, რაც რეალურად არ გაუკეთებიათ რეალურ ცხოვრებაში.

"Deepfake ტექნოლოგია უფრო დახვეწილი და სახიფათო ხდება", - თქვა აარონ ლოუსონმა, SRI International-ის მეტყველების ტექნოლოგიებისა და კვლევის ლაბორატორიის (STAR) დირექტორის ასისტენტმა ელექტრონული ფოსტით ინტერვიუში. "ეს ნაწილობრივ ხელოვნური ინტელექტის ბუნებით არის განპირობებული. იქ, სადაც "ტრადიციული" ტექნოლოგია საჭიროებს ადამიანის დროსა და ენერგიას გასაუმჯობესებლად, AI-ს შეუძლია ისწავლოს საკუთარი თავისგან.

"მაგრამ ხელოვნური ინტელექტის უნარი, განვითარდეს საკუთარი თავი, ორმაგილესიანი ხმალია", - განაგრძო ლოუსონმა. "თუ ხელოვნური ინტელექტი შექმნილია რაიმე კეთილგანწყობის გასაკეთებლად, შესანიშნავი. მაგრამ როდესაც AI შექმნილია რაიმე მავნე მიზნისთვის, როგორიცაა ღრმა ყალბი, საფრთხე უპრეცედენტოა."

პროგრამული უზრუნველყოფა აცოცხლებს ფოტოებს

Genealogy ვებსაიტმა MyHeritage წარადგინა ანიმაციური ძრავა გასულ თვეში. ტექნოლოგია, რომელიც ცნობილია როგორც ღრმა ნოსტალგია, საშუალებას აძლევს მომხმარებლებს ფოტოების ანიმაცია MyHeritage ვებსაიტის მეშვეობით. კომპანიამ სახელად D-ID შეიმუშავა ალგორითმები MyHeritage-სთვის, რომლებიც ციფრულად აღადგენს ადამიანის სახეების მოძრაობას. MyHeritage ვებსაიტის მიხედვით, პროგრამა იყენებს მოძრაობებს ფოტოებზე და ცვლის სახის გამონათქვამებს ისე, რომ მოძრაობს, როგორც ამას ჩვეულებრივ აკეთებს ადამიანის სახეები.

ღრმა ნოსტალგია აჩვენებს, რომ ღრმად ყალბი ტექნოლოგია უფრო ხელმისაწვდომი ხდება, თქვა ლიორ შამირმა, კანზას სახელმწიფო უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორმა, ელექტრონული ფოსტის ინტერვიუში. ის სწრაფად პროგრესირებს და აღმოფხვრის თუნდაც დახვეწილ განსხვავებებს ყალბ და რეალურ ვიდეოსა და აუდიოს შორის.

"იყო ასევე მნიშვნელოვანი პროგრესი რეალურ დროში ღრმა ყალბის მიმართ, რაც იმას ნიშნავს, რომ დამაჯერებელი ღრმა ყალბი ვიდეოები იქმნება ვიდეო კომუნიკაციის დროს", - თქვა შამირმა."მაგალითად, შეიძლება გქონდეთ Zoom-ის შეხვედრა კონკრეტულ ადამიანთან, მაშინ როცა ხედავთ და გესმით სრულიად განსხვავებული ადამიანის ხმა."

ასევე იზრდება ენებზე დაფუძნებული ღრმა ყალბების რაოდენობა, თქვა ჯეისონ კორსომ, სტივენსის ტექნოლოგიის ინსტიტუტის სტივენსის ხელოვნური ინტელექტის ინსტიტუტის დირექტორმა ელექტრონული ფოსტის ინტერვიუში.”ღრმა ყალბი ტექსტის მთელი აბზაცების გენერირება კონკრეტული დღის წესრიგისთვის საკმაოდ რთულია, მაგრამ თანამედროვე მიღწევები ღრმა ბუნებრივი ენის დამუშავებაში შესაძლებელს ხდის,” დასძინა მან.

როგორ ამოვიცნოთ ღრმა ყალბი

მიუხედავად იმისა, რომ ღრმა ყალბი აღმოჩენის ტექნოლოგია ჯერ კიდევ ახალ ეტაპზეა, არსებობს რამდენიმე გზა, რომლითაც შეგიძლიათ ამოიცნოთ ერთი, თქვა კორსომ, დაწყებული პირით.

"პირის ღრუს გარეგნობის ცვალებადობა, როდესაც ვინმე საუბრობს, ძალიან მაღალია, რაც ართულებს დამაჯერებლად ანიმაციას", - განმარტა კორსო. „ეს შეიძლება გაკეთდეს, მაგრამ უფრო რთულია, ვიდრე დანარჩენი თავი.ყურადღება მიაქციეთ, როგორ არ აჩვენებს ღრმა ნოსტალგიის ვიდეოებს ფოტოს უნარი, თქვას „მიყვარხარ“ან რაიმე სხვა ფრაზა ღრმა ყალბი შექმნის დროს. ამისათვის საჭიროა პირის გახსნა და დახურვა, რაც ძალიან რთულია ღრმა ყალბი თაობისთვის."

Ghosting კიდევ ერთი საჩუქარია, დაამატა კორსომ. თუ ხედავთ დაბინდვას თავის კიდეების ირგვლივ, ეს გამოწვეულია "სწრაფი მოძრაობის ან შეზღუდული პიქსელების, რომლებიც ხელმისაწვდომია წყაროს სურათზე. ყური შეიძლება ნაწილობრივ გაქრეს მომენტალურად, ან თმა შეიძლება გახდეს ბუნდოვანი იქ, სადაც ამას არ მოელით", თქვა.

შეგიძლიათ თვალყური ადევნოთ ფერთა ცვალებადობას, როდესაც ცდილობთ ღრმად ყალბი ვიდეოს აღმოჩენას, როგორიცაა მკვეთრი ხაზი სახეზე, მუქი ფერებით ერთ მხარეს, ხოლო ღია ფერის მეორე მხარეს.

"კომპიუტერულ ალგორითმებს ხშირად შეუძლიათ აღმოაჩინონ დამახინჯების ეს შაბლონები", - თქვა შამირმა. "მაგრამ ღრმა ყალბი ალგორითმები სწრაფად მიიწევს წინ. გარდაუვალია, რომ მკაცრი კანონები იქნება საჭირო ღრმა ყალბისაგან და ზიანისგან, რომელიც მათ ადვილად გამოიწვევენ."

გირჩევთ: