AI დანაშაულის პროგნოზირებამ შეიძლება დაადანაშაულოს არასწორი ხალხი

Სარჩევი:

AI დანაშაულის პროგნოზირებამ შეიძლება დაადანაშაულოს არასწორი ხალხი
AI დანაშაულის პროგნოზირებამ შეიძლება დაადანაშაულოს არასწორი ხალხი
Anonim

მთავარი წაღებები

  • პროგრამული უზრუნველყოფის კომპანია აგროვებს ინფორმაციას სოციალური მედიის შესახებ, რათა შექმნას პროფილები, რომლებიც შეიძლება გამოყენებულ იქნას უსაფრთხოების რისკების შემქმნელი ადამიანების იდენტიფიცირებისთვის.
  • Voyager Labs-მა დადო მნიშვნელოვანი გარიგება იაპონიის სამთავრობო სააგენტოსთან.
  • მაგრამ ექსპერტები აფრთხილებენ, რომ ხელოვნური ინტელექტის პროგნოზირების პროგრამული უზრუნველყოფის მოტყუება შესაძლებელია.
Image
Image

თქვენი ონლაინ ინფორმაცია შეიძლება გამოყენებულ იქნას დანაშაულის ჩადენის პროგნოზირებისთვის.

გავრცელებული ინფორმაციით, Voyager Labs აგროვებს სოციალური მედიის ინფორმაციას, რათა შექმნას პროფილები, რომლებიც შეიძლება გამოყენებულ იქნას უსაფრთხოების რისკების შემქმნელი ადამიანების იდენტიფიცირებისთვის.ეს არის ხელოვნური ინტელექტის (AI) გამოყენების მზარდი ძალისხმევის ნაწილი პოტენციური დამნაშავეების გამოსაძიებლად. მაგრამ ზოგიერთი ექსპერტი ამბობს, რომ მოძრაობა სავსეა პოტენციური პრობლემებით.

"ადამიანის ქცევის პროგნოზირება ძალიან რთულია", - განუცხადა მეთიუ კარმა, Atumcell Group-ის უსაფრთხოების მკვლევარმა, Lifewire-ს ელ.ფოსტის ინტერვიუში. „ჩვენი ქცევის წინასწარმეტყველებაც კი არ შეგვიძლია, მითუმეტეს სხვისი. ვფიქრობ, შესაძლებელია, რომ ხელოვნური ინტელექტის გამოყენება მომავალში ამ მიზნისთვის შეიძლება, მაგრამ ამჟამად შორს ვართ ამის გაკეთებამდე."

პროფილების შექმნა

როგორც Guardian-მა ცოტა ხნის წინ იტყობინება, ლოს-ანჯელესის პოლიციის დეპარტამენტმა შეისწავლა Voyager Lab-ის დანაშაულის პროგნოზირების პროგრამული უზრუნველყოფის გამოყენება. კომპანიამ ასევე გამოაცხადა, რომ მან გააფორმა მნიშვნელოვანი გარიგება იაპონიის სამთავრობო სააგენტოსთან.

იაპონიის შეთანხმება სამთავრობო სააგენტოს აწვდის AI-ზე დაფუძნებულ საგამოძიებო პლატფორმას, რომელიც აანალიზებს ინფორმაციის უზარმაზარ რაოდენობას ნებისმიერი წყაროდან, ღია და ღრმა მონაცემების ჩათვლით.

"მოხარული ვარ, რომ ჩვენ ვთანამშრომლობთ ტერორთან და დანაშაულთან ბრძოლაში", - თქვა დივია ხანგაროტმა, Voyager Labs-ის APAC-ის მმართველმა დირექტორმა, საინფორმაციო გამოშვებაში. "ვოიაჯერ ლაბორატორიის უახლესი სადაზვერვო გადაწყვეტილებების გამოყენებით, ჩვენი კლიენტები იძენენ უნიკალურ შესაძლებლობებს პროაქტიულად იდენტიფიცირონ და დაარღვიონ პოტენციური საფრთხეები. ჩვენ შემოგთავაზებთ ღრმა საგამოძიებო შეხედულებების დამატებით ფენებს ხელოვნური ინტელექტის, მანქანათმცოდნეობის და OSINT-ის კომბინაციით ფარული ბილიკების, დარღვევის შესახებ ინფორმაციის გამოსავლენად. და ცუდი მსახიობები."

არც ისე ჭკვიანი?

მაგრამ ელექტრონული ფოსტის ინტერვიუში, Matt Heisie, Ferret.ai-ს თანადამფუძნებელი, რომელიც ასევე იყენებს AI-ს დამნაშავეების პროგნოზირებისთვის, ეჭვქვეშ აყენებს Voyager Labs-ის ზოგიერთ პრეტენზიას.

"არსებობს ისეთი მკაფიო კავშირი, ვთქვათ, დაკავების ჩანაწერსა და მომავალ დანაშაულებრივ ქცევას შორის, როგორც არის შავი ლაქა ტესტზე და სიმსივნის განვითარებას?" მან თქვა.”დაფიქრდით ყველა პოტენციურ დაბნეულობაზე, რაც მოხდა ამ დაკავების დროს - რომელ უბანში ცხოვრობდა ადამიანი, პოლიციის რაოდენობა და ხარისხი, თუნდაც მიკერძოება ამ სფეროში.პიროვნების ასაკი, სქესი, ფიზიკური გარეგნობა, ეს ყველაფერი ურთიერთდაკავშირებულ გავლენას ახდენს ამ პირის დაკავების ჩანაწერის ალბათობაზე, სრულიად განცალკევებული დანაშაულის ჩადენის რეალური მიდრეკილებისგან, რომლის პროგნოზირებასაც ვცდილობთ."

ბრალდებულებს, რომლებსაც აქვთ უკეთესი ადვოკატები, უფრო მეტად შეძლებენ აღკვეთონ ჩანაწერები საჯაროდ ხელმისაწვდომი არ გახდეს, თქვა ჰეისიმ. ზოგიერთი იურისდიქცია ზღუდავს კადრების გავრცელებას ან დაკავების ჩანაწერებს ბრალდებულის დასაცავად.

"კომპიუტერი ისწავლის თქვენ მიერ მოწოდებულ მონაცემებზე დაყრდნობით და ჩაერთვება ყველა მიკერძოება, რომელიც შედიოდა ამ მონაცემთა კოლექციაში…"

"ეს ყველაფერი დამატებით მიკერძოებას მატებს ალგორითმებს," დასძინა მან. „კომპიუტერი ისწავლის თქვენს მიერ მოწოდებულ მონაცემებზე დაყრდნობით და სწავლასა და ინტერპრეტაციაში შეიტანს ყველა იმ მიკერძოებას, რაც ამ მონაცემთა შეგროვებაში შევიდა.“

იყო რამდენიმე მცდელობა დანაშაულის წინასწარმეტყველების ხელოვნური ინტელექტის შექმნისა და ხშირად სკანდალური შედეგებით, თქვა ჰეისიმ.

COMPAS, ალგორითმი, რომელსაც სამართალდამცავი ორგანო იყენებს ხელახალი დანაშაულის პროგნოზირებისთვის, ხშირად გამოიყენება სასჯელისა და გირაოს დასადგენად. ის 2016 წლიდან სკანდალს წააწყდა რასობრივი მიკერძოების გამო, იმის პროგნოზით, რომ შავკანიანი ბრალდებულები რეციდივის უფრო მაღალ რისკს წარმოადგენდნენ, ვიდრე რეალურად აკეთებდნენ, ხოლო თეთრკანიანი ბრალდებულებისთვის პირიქით.

1000-ზე მეტი ტექნოლოგი და მეცნიერი, მათ შორის მეცნიერები და ხელოვნური ინტელექტის ექსპერტები ჰარვარდიდან, MIT, Google-დან და Microsoft-დან, 2020 წელს ისაუბრეს იმ სტატიის წინააღმდეგ, რომელიც ამტკიცებდა, რომ მკვლევარებმა შეიმუშავეს ალგორითმი, რომელსაც შეეძლო კრიმინალის წინასწარმეტყველება მხოლოდ ადამიანის სახე, რომელიც ამბობს, რომ ასეთი კვლევების გამოქვეყნება აძლიერებს სისხლის სამართლის სისტემაში არსებულ რასობრივ მიკერძოებას, აღნიშნა ჰეისიმ.

Image
Image

ჩინეთი არის ყველაზე დიდი და სწრაფად მზარდი ბაზარი ამ ტიპის ტექნოლოგიისთვის, უპირველეს ყოვლისა, პერსონალურ მონაცემებზე ფართო წვდომის გამო, 200 მილიონზე მეტი სათვალთვალო კამერით და მოწინავე AI კვლევებით, რომლებიც ორიენტირებულია ამ საკითხზე მრავალი წლის განმავლობაში, თქვა ჰეისიმ..სისტემები, როგორიცაა CloudWalk's Police Cloud, ახლა გამოიყენება კრიმინალების პროგნოზირებისთვის და თვალყურის დევნებისთვის და სამართალდამცავი ორგანოების დასაზუსტებლად.

"თუმცა, არსებითი მიკერძოება იქაც არის მოხსენებული," თქვა ჰეისიმ.

ჰეისიმ დაამატა, რომ მისი კომპანია ყურადღებით ამუშავებს მონაცემებს, რომლებიც შედის და არ იყენებს კადრებს ან დაკავების ჩანაწერებს, "სანაცვლოდ ფოკუსირებულია უფრო ობიექტურ კრიტერიუმებზე."

"ჩვენმა AI-მ ისწავლა კურირებული მონაცემებიდან, მაგრამ რაც მთავარია, ის ასევე სწავლობს ადამიანებისგან, რომლებიც თავად აანალიზებენ, კურირებენ და აფასებენ ჩანაწერებს და გვიყვებიან სხვებთან ურთიერთობის შესახებ", - დასძინა მან. „ჩვენ ასევე ვინარჩუნებთ სრულ გამჭვირვალობას და თავისუფალ და საჯარო წვდომას ჩვენს აპლიკაციაზე (რაც სწრაფად შევძლებთ მათ ბეტა ვერსიაში ჩართვას) და მივესალმებით ჩვენს პროცესებსა და პროცედურებს.“

გირჩევთ: