რატომ ამბობენ ექსპერტები, რომ ჩვენ ახლა უნდა ვაკონტროლოთ AI

Სარჩევი:

რატომ ამბობენ ექსპერტები, რომ ჩვენ ახლა უნდა ვაკონტროლოთ AI
რატომ ამბობენ ექსპერტები, რომ ჩვენ ახლა უნდა ვაკონტროლოთ AI
Anonim

მთავარი წაღებები

  • ახალი კვლევა ვარაუდობს, რომ შეიძლება არ არსებობდეს გზა სუპერ ჭკვიანი ხელოვნური ინტელექტის კონტროლისთვის.
  • ჟურნალის ნაშრომი ამტკიცებს, რომ ხელოვნური ინტელექტის კონტროლი მოითხოვს ბევრად უფრო მოწინავე ტექნოლოგიას, ვიდრე ამჟამად გვაქვს.
  • ზოგიერთი ექსპერტი ამბობს, რომ მართლაც ინტელექტუალური ხელოვნური ინტელექტი შეიძლება უფრო ადრე იყოს აქ, ვიდრე ჩვენ გვგონია.
Image
Image

თუ ადამიანები ოდესმე განავითარებენ სუპერ ჭკვიან ხელოვნურ ინტელექტს, შესაძლოა მისი კონტროლი არ იყოს, ამბობენ მეცნიერები.

AI უკვე დიდი ხანია რეკლამირებულია, როგორც კაცობრიობის ყველა პრობლემის განკურნება ან ტერმინატორის სტილის აპოკალიფსი.თუმცა, ჯერჯერობით, ხელოვნური ინტელექტი ახლოსაც არ არის ადამიანის დონის ინტელექტთან. მაგრამ მოწინავე ხელოვნური ინტელექტის შეკავება შეიძლება ძალიან რთული პრობლემა იყოს ადამიანებისთვის, თუ ის ოდესმე განვითარდება, ნათქვამია ბოლო სტატიაში, რომელიც გამოქვეყნდა Journal of Artificial Intelligence Research-ში.

"სუპერ ინტელექტუალური მანქანა, რომელიც აკონტროლებს სამყაროს, ჟღერს სამეცნიერო ფანტასტიკას", - თქვა მანუელ სებრიანმა, გაზეთის ერთ-ერთმა თანაავტორმა ახალი ამბების გამოცემაში.

"მაგრამ უკვე არსებობს მანქანები, რომლებიც ასრულებენ გარკვეულ მნიშვნელოვან დავალებებს დამოუკიდებლად, პროგრამისტებმა არ გაიგონ, როგორ ისწავლეს ისინი. ამიტომ ჩნდება კითხვა, შეიძლება თუ არა ეს რაღაც მომენტში გახდეს უკონტროლო და საშიში კაცობრიობისთვის."

სულ მალე სუპერკომპიუტერთან ახლოს

ჟურნალის ნაშრომი ამტკიცებს, რომ ხელოვნური ინტელექტის კონტროლი მოითხოვს ბევრად უფრო მოწინავე ტექნოლოგიას, ვიდრე ამჟამად გვაქვს.

თავის კვლევაში ჯგუფმა შეიმუშავა შეკავების თეორიული ალგორითმი, რომელიც უზრუნველყოფს სუპერინტელექტუალურ AI-ს არ შეუძლია ზიანი მიაყენოს ადამიანებს არავითარ შემთხვევაში, პირველად AI-ის ქცევის სიმულირებით და შეჩერებით, თუ ის საზიანოა.მაგრამ ავტორებმა დაადგინეს, რომ ასეთი ალგორითმის აგება შეუძლებელია.

"თუ პრობლემას დაყოფთ თეორიული კომპიუტერული მეცნიერების ძირითად წესებს, აღმოჩნდება, რომ ალგორითმი, რომელიც ავალდებულებს AI-ს, არ გაანადგუროს სამყარო, უნებურად შეაჩერებს საკუთარ ოპერაციებს." იად რაჰვანმა, გერმანიის მაქს პლანკის ადამიანური განვითარების ინსტიტუტის ადამიანებისა და მანქანების ცენტრის დირექტორმა განაცხადა საინფორმაციო გამოშვებაში.

"ეს რომ მომხდარიყო, თქვენ არ გეცოდინებათ, შეკავების ალგორითმი ჯერ კიდევ აანალიზებს საფრთხეს, ან შეჩერდა თუ არა მავნე ხელოვნური ინტელექტის შემცველობა. ფაქტობრივად, ეს ხდის შეკავების ალგორითმს გამოუსადეგარს."

Image
Image

ნამდვილად ინტელექტუალური ხელოვნური ინტელექტი შეიძლება იყოს აქ უფრო ადრე, ვიდრე ჩვენ გვგონია, ამტკიცებს მიხალის ვაზირგიანისი, კომპიუტერული მეცნიერების პროფესორი საფრანგეთში, პოლიტექნიკის სკოლაში. "AI არის ადამიანის არტეფაქტი, მაგრამ ის სწრაფად ხდება ავტონომიური ერთეული", - თქვა მან ელფოსტაში Lifewire-ისთვის.

"კრიტიკული წერტილი იქნება, თუ/როცა მოხდება სინგულარულობა (ანუ, როდესაც AI აგენტებს ექნებათ ცნობიერება, როგორც ერთეული) და, შესაბამისად, ისინი მოითხოვენ დამოუკიდებლობას, თვითკონტროლს და საბოლოო დომინირებას."

სინგულარობა მოდის

ვაზირგიანისი მარტო არ არის სუპერ ხელოვნური ინტელექტის გარდაუვალი ჩასვლის წინასწარმეტყველებაში. ხელოვნური ინტელექტის საფრთხის ჭეშმარიტ მორწმუნეებს მოსწონთ საუბარი "სინგულარულობაზე", რომელიც ვაზირგიანისმა განმარტა, რომ ხელოვნური ინტელექტი ჩაანაცვლებს ადამიანის ინტელექტს და "რომ AI ალგორითმები პოტენციურად გააცნობიერებენ თავიანთ არსებობას და დაიწყებენ ეგოისტურად და თანამშრომლობით ქცევას."

Google-ის ინჟინერიის დირექტორის რეი კურცვეილის თქმით, სინგულარობა 21-ე საუკუნის შუა ხანებამდე ჩამოვა.”2029 არის თანმიმდევრული თარიღი, რომელიც მე ვიწინასწარმეტყველე, როდესაც ხელოვნური ინტელექტი გაივლის ტურინგის მოქმედ ტესტს და, შესაბამისად, მიაღწევს ადამიანის ინტელექტის დონეს,” - განუცხადა კურცვეილმა Futurism-ს.

თუ ჩვენ არ შეგვიძლია საკუთარი სახლის დასუფთავება, რა კოდი უნდა ვთხოვოთ ხელოვნურ ინტელექტს?

"მე დავადგინე თარიღი "სინგულარობა" 2045 წელს, როდესაც ჩვენ გავამრავლებთ ჩვენს ეფექტურ ინტელექტს მილიარდჯერ, ჩვენს მიერ შექმნილ ინტელექტთან შერწყმით."

მაგრამ ხელოვნური ინტელექტის ყველა ექსპერტი არ ფიქრობს, რომ ინტელექტუალური მანქანები საფრთხეს წარმოადგენს. ხელოვნური ინტელექტი, რომელიც დამუშავების პროცესშია, უფრო მეტად გამოსადეგი იქნება წამლების განვითარებისთვის და არ აჩვენებს რაიმე რეალურ ინტელექტს, თქვა AI კონსულტანტმა ემანუელ მაჯიორმა ელექტრონული ფოსტის ინტერვიუში.”არის დიდი აჟიოტაჟი ხელოვნური ინტელექტის გარშემო, რაც მას მართლაც რევოლუციურად ჟღერს,” დასძინა მან. "ამჟამინდელი ხელოვნური ინტელექტის სისტემები არ არის ისეთი ზუსტი, როგორც საჯაროდ და უშვებს შეცდომებს, რომლებსაც ადამიანი არასოდეს დაუშვებს."

აკონტროლეთ AI, ახლავე

ხელოვნური ინტელექტის რეგულირება, რათა ის ჩვენს კონტროლს არ გაექცეს, შეიძლება რთული იყოს, ამბობს ვაზირგიანისი. კომპანიები, ვიდრე მთავრობები, აკონტროლებენ რესურსებს, რომლებიც აძლიერებენ ხელოვნურ ინტელექტს. „თვითონ ალგორითმებიც კი ჩვეულებრივ იწარმოება და განლაგებულია ამ დიდი და ძლიერი, ჩვეულებრივ, მრავალეროვნული ერთეულების კვლევით ლაბორატორიებში“, - თქვა მან.

"მაშასადამე, აშკარაა, რომ შტატების მთავრობებს სულ უფრო ნაკლები კონტროლი აქვთ ხელოვნური ინტელექტის გასაკონტროლებლად საჭირო რესურსებზე."

ზოგიერთი ექსპერტი ამბობს, რომ სუპერინტელექტუალური ხელოვნური ინტელექტის გასაკონტროლებლად, ადამიანებს დასჭირდებათ გამოთვლითი რესურსების და ელექტროენერგიის მართვა. „სამეცნიერო ფანტასტიკური ფილმები, როგორიცაა „მატრიქსი“წინასწარმეტყველებს დისტოპიურ მომავალზე, სადაც ადამიანებს ხელოვნური ინტელექტი იყენებს, როგორც ბიოენერგეტიკის წყაროებს“, - თქვა ვაზირგიანისმა..

"მიუხედავად იმისა, რომ დისტანციური შეუძლებლობაა, კაცობრიობამ უნდა უზრუნველყოს საკმარისი კონტროლი გამოთვლით რესურსებზე (ანუ კომპიუტერული კლასტერები, GPU, სუპერკომპიუტერები, ქსელები/კომუნიკაციები) და, რა თქმა უნდა, ელექტროსადგურებზე, რომლებიც უზრუნველყოფენ ელექტროენერგიას, რომელიც აბსოლუტურად არის. საზიანოა ხელოვნური ინტელექტის ფუნქციისთვის."

Image
Image

ინტელექტის კონტროლის პრობლემა ის არის, რომ მკვლევარებს ყოველთვის არ ესმით, როგორ იღებენ გადაწყვეტილებებს ასეთი სისტემები, თქვა მაიკლ ბერთოლდმა, მონაცემთა მეცნიერების პროგრამული უზრუნველყოფის ფირმა KNIME-ის თანადამფუძნებელმა და აღმასრულებელმა დირექტორმა ელექტრონული ფოსტის ინტერვიუში. "თუ ჩვენ ამას არ გავაკეთებთ, როგორ შეგვიძლია "ვაკონტროლოთ"?"

მან დაამატა, "ჩვენ არ გვესმის, როდესაც სრულიად განსხვავებული გადაწყვეტილება მიიღება ჩვენთვის შეუსაბამო ფაქტორების საფუძველზე."

ანუ ხელოვნური ინტელექტის გამოყენების რისკის კონტროლის ერთადერთი გზა არის იმის უზრუნველყოფა, რომ ის გამოიყენება მხოლოდ მაშინ, როცა ეს რისკი მართვადია, თქვა ბერტოლდმა. „სხვაგვარად რომ ვთქვათ, ორი უკიდურესი მაგალითი: არ დააყენოთ ხელოვნური ინტელექტი თქვენს ატომურ ელექტროსადგურზე, სადაც მცირე შეცდომამ შეიძლება გამოიწვიოს კატასტროფული გვერდითი მოვლენები“, დასძინა მან.

"მეორეს მხრივ, ხელოვნური ინტელექტი პროგნოზირებს, რომ თქვენი ოთახის ტემპერატურა ცოტათი უნდა იყოს ამაღლებული ან შემცირებული, შეიძლება ღირდეს მცირე რისკი ცხოვრების კომფორტისთვის."

თუ ჩვენ ვერ ვაკონტროლებთ ხელოვნურ ინტელექტს, სჯობს მას ვასწავლოთ მანერები, თქვა NASA-ს ყოფილმა კომპიუტერულმა ინჟინერმა პიტერ სკოტმა ელექტრონული ფოსტის ინტერვიუში.”საბოლოოდ, ჩვენ არ შეგვიძლია უზრუნველვყოთ ხელოვნური ინტელექტის კონტროლირებადობა ისე, როგორც ჩვენ შეგვიძლია უზრუნველვყოთ ჩვენი შვილების კონტროლი”, - თქვა მან.

"ჩვენ სწორად ვზრდით მათ და ვიმედოვნებთ საუკეთესოს; ჯერჯერობით მათ არ დაანგრიეს სამყარო. მათ კარგად აღზრდისთვის საჭიროა ეთიკის უკეთ გაგება; თუ ჩვენ არ შეგვიძლია საკუთარი სახლის დასუფთავება, რა კოდი უნდა ვთხოვოთ ხელოვნური ინტელექტის დაცვას?"

მაგრამ კაცობრიობისთვის მთელი იმედი არ არის დაკარგული, ამბობს AI მკვლევარი იონატან ვექსლერი, OrCam-ის R&D-ის აღმასრულებელი ვიცე პრეზიდენტი.”მიუხედავად იმისა, რომ მიღწევები მართლაც შთამბეჭდავია, ჩემი პირადი რწმენაა, რომ ადამიანის ინტელექტი არ უნდა იყოს შეფასებული,” - თქვა მან ელექტრონული ფოსტის ინტერვიუში. "ჩვენ, როგორც სახეობამ შევქმენით საკმაოდ საოცარი რამ, მათ შორის თვით ხელოვნური ინტელექტის ჩათვლით."

მუდმივი ჭკვიანი ხელოვნური ინტელექტის ძიება გრძელდება. მაგრამ სჯობს ვიფიქროთ იმაზე, თუ როგორ ვაკონტროლებთ ჩვენს შემოქმედებას, სანამ გვიან არ არის.

გირჩევთ: