როგორ შეუძლია ხელოვნური ინტელექტის მონიტორინგს მისი საშიში შთამომავლობა

Სარჩევი:

როგორ შეუძლია ხელოვნური ინტელექტის მონიტორინგს მისი საშიში შთამომავლობა
როგორ შეუძლია ხელოვნური ინტელექტის მონიტორინგს მისი საშიში შთამომავლობა
Anonim

მთავარი წაღებები

  • ახალი ნაშრომი ირწმუნება, რომ ხელოვნურ ინტელექტს შეუძლია განსაზღვროს, რომელ კვლევით პროექტებს შეიძლება მეტი რეგულაცია დასჭირდეს, ვიდრე სხვებს.
  • ეს არის მზარდი ძალისხმევის ნაწილი, რათა აღმოვაჩინოთ, თუ რა სახის AI შეიძლება იყოს საშიში.
  • ერთი ექსპერტი ამბობს, რომ ხელოვნური ინტელექტის რეალური საშიშროება არის ის, რომ მას შეუძლია ადამიანების დუმდა.

Image
Image

ხელოვნური ინტელექტი (AI) გთავაზობთ ბევრ სარგებელს, მაგრამ ასევე ზოგიერთ პოტენციურ საფრთხეს. ახლა კი მკვლევარებმა შემოგვთავაზეს მეთოდი, რათა თვალი ადევნონ მათ კომპიუტერიზებულ შემოქმედებას.

საერთაშორისო გუნდი ამბობს ახალ ნაშრომში, რომ AI-ს შეუძლია განსაზღვროს რომელი ტიპის კვლევით პროექტებს შეიძლება მეტი რეგულაცია დასჭირდეს, ვიდრე სხვებს. მეცნიერებმა გამოიყენეს მოდელი, რომელიც აერთიანებს ცნებებს ბიოლოგიიდან და მათემატიკიდან და არის მზარდი ძალისხმევის ნაწილი, რათა აღმოაჩინონ, თუ რა სახის ხელოვნური ინტელექტი შეიძლება იყოს საშიში.

"რა თქმა უნდა, მიუხედავად იმისა, რომ ხელოვნური ინტელექტის "სამეცნიერო ფანტასტიკური" სახიფათო გამოყენება შეიძლება წარმოიშვას, თუ ასე გადავწყვიტეთ […], რაც AI-ს სახიფათო ხდის არა თავად AI, არამედ [როგორ ვიყენებთ მას]", ტიერი რეინა საფრანგეთის პოლიტექნიკური სკოლის ტექნოლოგიის თავმჯდომარემ, განუცხადა Lifewire-ს ელექტრონული ფოსტის ინტერვიუში. ხელოვნური ინტელექტის დანერგვა შეიძლება იყოს კომპეტენციის გაძლიერება (მაგალითად, ეს აძლიერებს ადამიანის/მუშაკის უნარებისა და ცოდნის შესაბამისობას) ან კომპეტენციის განადგურებას, ანუ ხელოვნური ინტელექტი არსებულ უნარებსა და ცოდნას ნაკლებად სასარგებლო ან მოძველებულს ხდის.”

ჩანართების შენახვა

ბოლო სტატიის ავტორებმა დაწერეს პოსტში, რომ მათ შექმნეს მოდელი ჰიპოთეტური AI კონკურსების სიმულაციისთვის. მათ ასობითჯერ ჩაატარეს სიმულაცია, რათა ეწინასწარმეტყველებინათ, თუ როგორ გამოიმუშავებდა რეალურ სამყაროში ხელოვნური ინტელექტის რბოლები.

"ცვლადი, რომელიც ჩვენ აღმოვაჩინეთ, რომ განსაკუთრებით მნიშვნელოვანი იყო, იყო რბოლის "სიგრძე" - დრო, რომელიც დასჭირდა ჩვენს იმიტირებულ რბოლას მიზნის მისაღწევად (ფუნქციური AI პროდუქტი), - წერენ მეცნიერები. "როდესაც ხელოვნური ინტელექტის რბოლები სწრაფად მიაღწიეს თავის მიზანს, აღმოვაჩინეთ, რომ კონკურენტები, რომლებსაც ჩვენ დავაკოდირეთ, რომ ყოველთვის უგულებელვყოთ უსაფრთხოების ზომები, ყოველთვის იმარჯვებდნენ."

ამის საპირისპიროდ, მკვლევარებმა დაადგინეს, რომ გრძელვადიანი AI პროექტები არ იყო ისეთი საშიში, რადგან გამარჯვებულები ყოველთვის არ იყვნენ ისინი, ვინც უგულებელყოფდა უსაფრთხოებას. „ამ დასკვნების გათვალისწინებით, მნიშვნელოვანი იქნება მარეგულირებელებისთვის იმის დადგენა, თუ რამდენ ხანს შეიძლება გაგრძელდეს ხელოვნური ინტელექტის სხვადასხვა რბოლა, გამოიყენონ სხვადასხვა რეგულაციები მათი მოსალოდნელი ვადების მიხედვით“, - წერენ ისინი. "ჩვენი დასკვნები ვარაუდობს, რომ ერთი წესი ხელოვნური ინტელექტის ყველა რბოლისთვის - სპრინტიდან მარათონამდე - გამოიწვევს ზოგიერთ შედეგს, რომელიც შორს არის იდეალურისგან."

დავით ჟაო, Coda Strategy-ის მმართველმა დირექტორმა, კომპანია, რომელიც კონსულტაციებს ახორციელებს ხელოვნურ ინტელექტის შესახებ, თქვა Lifewire-თან ელექტრონული ფოსტით მიცემულ ინტერვიუში, რომ საშიში ხელოვნური ინტელექტის იდენტიფიცირება შეიძლება რთული იყოს. გამოწვევები მდგომარეობს იმაში, რომ ხელოვნური ინტელექტის თანამედროვე მიდგომები ღრმა სწავლის მიდგომას იღებს.

"ჩვენ ვიცით, რომ ღრმა სწავლება უკეთეს შედეგს იძლევა გამოყენების მრავალ შემთხვევაში, როგორიცაა გამოსახულების ამოცნობა ან მეტყველების ამოცნობა", - თქვა ჟაომ. „თუმცა, ადამიანებისთვის შეუძლებელია იმის გაგება, თუ როგორ მუშაობს ღრმა სწავლის ალგორითმი და როგორ აწარმოებს ის მის შედეგს. ამიტომ, ძნელია იმის თქმა, საშიშია თუ არა ხელოვნური ინტელექტი, რომელიც კარგ შედეგებს იძლევა, რადგან ადამიანებისთვის შეუძლებელია იმის გაგება, თუ რა ხდება."

პროგრამული უზრუნველყოფა შეიძლება იყოს "საშიში", როდესაც გამოიყენება კრიტიკულ სისტემებში, რომლებსაც აქვთ დაუცველობა, რომელიც შეიძლება გამოიყენონ ცუდი მსახიობების მიერ ან გამოიწვიოს არასწორი შედეგები, თქვა მეთ შიმ, AI ფირმა MixMode-ის სტრატეგიის დირექტორმა ელ.ფოსტის საშუალებით. მან დასძინა, რომ არაუსაფრთხო ხელოვნურმა ინტელექტუალურმა ინტელექტუალმა ასევე შეიძლება გამოიწვიოს შედეგების არასათანადო კლასიფიკაცია, მონაცემთა დაკარგვა, ეკონომიკური გავლენა ან ფიზიკური დაზიანება.

"ტრადიციული პროგრამული უზრუნველყოფით, დეველოპერები კოდებენ ალგორითმებს, რომლებიც შეიძლება შეისწავლოს ადამიანმა, რათა გაარკვიოს, თუ როგორ შეაერთოს დაუცველობა ან გამოასწოროს ხარვეზი წყაროს კოდის დათვალიერებით", - თქვა შიმ.თუმცა, ხელოვნური ინტელექტის საშუალებით, ლოგიკის ძირითადი ნაწილი იქმნება თავად მონაცემებისგან, დაშიფრულია მონაცემთა სტრუქტურებში, როგორიცაა ნერვული ქსელები და მსგავსი. ჩვეულებრივი პროგრამული უზრუნველყოფის მსგავსად."

წინა საფრთხეები?

მიუხედავად იმისა, რომ ხელოვნური ინტელექტი წარმოდგენილია ფილმებში, როგორიცაა The Terminator, როგორც ბოროტი ძალა, რომელიც აპირებს კაცობრიობის განადგურებას, რეალური საფრთხე შეიძლება უფრო პროზაული იყოს, ამბობენ ექსპერტები. მაგალითად, რეინა ვარაუდობს, რომ ხელოვნურმა ინტელექტუალმა შეიძლება დაგვანელოს.

"მას შეუძლია ართმევს ადამიანებს ტვინის ვარჯიშს და ექსპერტიზის განვითარებას", - თქვა მან. „როგორ შეიძლება გახდე სარისკო კაპიტალის ექსპერტი, თუ დროის უმეტეს ნაწილს არ ატარებ სტარტაპების აპლიკაციების კითხვაზე? უარესი, AI არის ცნობილი „შავი ყუთი“და ნაკლებად გასაგები. იმის ცოდნა, თუ რატომ მიიღეს AI კონკრეტული გადაწყვეტილება, ნიშნავს, რომ მისგან სწავლა ძალიან ცოტა იქნება, ისევე როგორც ვერ გახდები ექსპერტი მორბენალი სტადიონზე სეგვეიზე მოძრაობით.”

ძნელი სათქმელია საშიშია თუ არა ხელოვნური ინტელექტი, რომელიც კარგ შედეგებს იძლევა, რადგან ადამიანებისთვის შეუძლებელია იმის გაგება, თუ რა ხდება.

ალბათ ყველაზე უშუალო საფრთხე ხელოვნური ინტელექტისგან არის იმის შესაძლებლობა, რომ მან შეიძლება მიკერძოებული შედეგები მოგვცეს, თქვა ელ.

"ინტესტის ხელოვნური ინტელექტი შეიძლება დაეხმაროს საზოგადოების განხეთქილების გაღრმავებას. AI არსებითად აგებულია ადამიანებისგან შეგროვებული მონაცემებით," დასძინა სოლომონმა. "[მაგრამ] დიდი მონაცემების მიუხედავად, ის შეიცავს მინიმალურ ქვეჯგუფებს და არ მოიცავს იმას, რასაც ყველა ფიქრობს. ამრიგად, კომენტარებიდან, საჯარო შეტყობინებებიდან, მიმოხილვებიდან და ა.შ., თანდაყოლილი მიკერძოებით შეგროვებული მონაცემები აიძულებს ხელოვნურ ინტელექტს გააძლიეროს დისკრიმინაცია და სიძულვილი."

გირჩევთ: