რატომ იწვევს ახალი პროფილირების პროგრამული უზრუნველყოფა კონფიდენციალურობის შეშფოთებას

Სარჩევი:

რატომ იწვევს ახალი პროფილირების პროგრამული უზრუნველყოფა კონფიდენციალურობის შეშფოთებას
რატომ იწვევს ახალი პროფილირების პროგრამული უზრუნველყოფა კონფიდენციალურობის შეშფოთებას
Anonim

მთავარი წაღებები

  • პროგრამული უზრუნველყოფა, რომელიც იყენებს ხელოვნურ ინტელექტს ადამიანების პროფილისთვის, იწვევს კონფიდენციალურობის შეშფოთებას.
  • Cryfe აერთიანებს ქცევითი ანალიზის ტექნიკას ხელოვნურ ინტელექტს.
  • ჩინურ კომპანია Alibaba ახლახანს კრიტიკის წინაშე აღმოჩნდა მას შემდეგ, რაც გავრცელებული ინფორმაციით, მისმა პროგრამულმა პროგრამამ შეიძლება აღმოაჩინოს უიღურები და სხვა ეთნიკური უმცირესობები.
Image
Image

ახალი პროგრამული უზრუნველყოფა, რომელიც აღჭურვილია ხელოვნური ინტელექტით, რომელიც განკუთვნილია დამსაქმებლებისთვის მათი თანამშრომლების პროფილისთვის, იწვევს კონფიდენციალურობის შეშფოთებას.

ერთი ახალი პროგრამული პლატფორმა, სახელწოდებით Cryfe, აერთიანებს ქცევის ანალიზის ტექნიკას ხელოვნურ ინტელექტთან. დეველოპერი ირწმუნება, რომ წვრილმანი მინიშნებების გაანალიზებით, პროგრამას შეუძლია გამოავლინოს ადამიანების განზრახვები ინტერვიუების დროს. მაგრამ ზოგიერთი დამკვირვებელი ამბობს, რომ Cryfe და სხვა სახის პროგრამული უზრუნველყოფა, რომელიც აანალიზებს ქცევას, შეუძლია შეიჭრას კონფიდენციალურობაში.

"კომპანიები სულ უფრო მეტად ეყრდნობიან AI-ს პროფილირებისთვის," თქვა AI ექსპერტმა ვაცლავ ვინკალემ ელექტრონული ფოსტის ინტერვიუში.”მაგრამ იმ ადამიანებმაც კი, რომლებიც ამ ალგორითმებს კოდირებენ, მით უმეტეს, მომხმარებელთა მხარდაჭერის პირს, რომელსაც ტელეფონით დაუკავშირდებით, ვერ გეტყვით, რატომ აკეთებენ რაიმე მოცემულ რეკომენდაციას.”

სიტყვებზე მეტი

Cryfe შეიმუშავა შვეიცარიულმა კომპანიამ, რომლის თანამშრომლებს FBI-მ გაწვრთნა პროფილირების ტექნიკაში. „კრაიფი, ყველა ინტერპერსონალურ კომუნიკაციაში, არა მხოლოდ უსმენს სიტყვებს, არამედ იდენტიფიცირებს ადამიანის მიერ გამოსხივებულ სხვა სიგნალებს, როგორიცაა ემოციები, მიკრო-გამოხატვები და ყველა ჟესტიკულაცია“, - თქვა კაროლინ მატეუჩიმ, Cryfe-ის დამფუძნებელმა ელექტრონული ფოსტის ინტერვიუში.

"მაგალითად, დაქირავებისას, ეს საშუალებას გვაძლევს მივიდეთ და მოვძებნოთ ჩვენი თანამოსაუბრის რეალური პიროვნება."

Matteucci-მ თქვა, რომ მომხმარებლების კონფიდენციალურობა დაცულია, რადგან კომპანია გამჭვირვალეა იმის შესახებ, თუ როგორ მუშაობს მისი პროგრამული უზრუნველყოფა. "მომხმარებელმა, სანამ შეძლებს პლატფორმის გამოყენებას, უნდა მიიღოს ზოგადი პირობები", - თქვა მან.

"იქ მითითებულია, რომ მომხმარებელს არავითარ შემთხვევაში არ შეუძლია წარადგინოს ინტერვიუ ანალიზისთვის თანამოსაუბრის წერილობითი თანხმობის გარეშე."

Cryfe არ არის ერთადერთი AI-ით აღჭურვილი პროგრამული უზრუნველყოფა, რომელიც მიზნად ისახავს ადამიანის ქცევის ანალიზს. ასევე არსებობს Humantic, რომელიც აცხადებს, რომ აანალიზებს მომხმარებლის ქცევას. „Humantic-ის გზამკვლევი ტექნოლოგია პროგნოზირებს ყველას ქცევას ისე, რომ არ დასჭირდეს პიროვნების ტესტის გავლა“, ნათქვამია კომპანიის ვებსაიტზე.

Image
Image

კომპანია აცხადებს, რომ იყენებს AI-ს აპლიკანტების ფსიქოლოგიური პროფილების შესაქმნელად, მათ მიერ გამოყენებული სიტყვების მიხედვით, რეზიუმეებში, სამოტივაციო წერილებში, LinkedIn-ის პროფილებში და მათ მიერ წარდგენილ ნებისმიერ სხვა ტექსტში.

ქცევითი პროგრამული უზრუნველყოფა წარსულში წააწყდა იურიდიულ გამოწვევებს. 2019 წელს, Bloomberg Law-მა იტყობინება, რომ თანაბარი დასაქმების შესაძლებლობების კომისია (EEOC) განიხილავდა სავარაუდო უკანონო დისკრიმინაციის შემთხვევებს ალგორითმის დახმარებით, HR-თან დაკავშირებული გადაწყვეტილებების გამო.

"ეს ყველაფერი უნდა დამუშავდეს, რადგან დასაქმების მომავალი არის ხელოვნური ინტელექტი", - განუცხადა ადვოკატმა ბრედფორდ ნიუმანმა Bloomberg-ს.

ზოგიერთი დამკვირვებელი აწუხებს კომპანიებს, რომლებიც იყენებენ ქცევის თვალთვალის პროგრამულ უზრუნველყოფას, რადგან ის საკმარისად ზუსტი არ არის. ინტერვიუში, ნაიჯელ დაფი, გლობალური ხელოვნური ინტელექტის ლიდერი პროფესიული სერვისების ფირმა EY-ში, განუცხადა InformationWeek-ს, რომ მას აწუხებს პროგრამული უზრუნველყოფა, რომელიც იყენებს სოციალური მედიის ტესტებს და გავლენას ახდენს გამოვლენაზე.

"ვფიქრობ, რომ არსებობს მართლაც დამაჯერებელი ლიტერატურა აფექტის გამოვლენის პოტენციალის შესახებ, მაგრამ ჩემი გაგება ის არის, რომ ხშირად მისი დანერგვა საკმაოდ გულუბრყვილოა," თქვა მან.

"ადამიანები აკეთებენ დასკვნებს, რომ მეცნიერება ნამდვილად არ უჭერს მხარს [მაგალითად] იმის გადაწყვეტა, რომ ვინმე პოტენციურად კარგი თანამშრომელია, რადგან ისინი ბევრს იღიმებენ ან წყვეტენ, რომ ვიღაცას მოსწონს შენი პროდუქტები, რადგან ბევრს იღიმის."

ჩინური კომპანიები, გავრცელებული ინფორმაციით, უმცირესობებს ახასიათებენ

ქცევის თვალყურის დევნებას შეიძლება ჰქონდეს უფრო ბოროტი მიზნებიც, ამბობს ადამიანის უფლებათა ზოგიერთი ჯგუფი. ჩინეთში, ონლაინ ბაზრის გიგანტმა Alibaba-მ ცოტა ხნის წინ აჟიოტაჟი გამოიწვია მას შემდეგ, რაც გავრცელებული ინფორმაციით, მისმა პროგრამულმა უზრუნველყოფას შეეძლო უიღურებისა და სხვა ეთნიკური უმცირესობების აღმოჩენა.

New York Times-მა იტყობინება, რომ კომპანიის ღრუბლოვანი გამოთვლების ბიზნესს ჰქონდა პროგრამული უზრუნველყოფა, რომელიც ასკანირებდა სურათებსა და ვიდეოებს.

მაგრამ ადამიანებმაც კი, რომლებიც ამ ალგორითმებს კოდირებენ… ვერ გეტყვით, რატომ აკეთებენ რაიმე მოცემულ რეკომენდაციას.

ვაშინგტონ პოსტმა ასევე ცოტა ხნის წინ გაავრცელა ინფორმაცია, რომ Huawei-მ, კიდევ ერთმა ჩინურმა ტექნიკურმა კომპანიამ, გამოსცადა პროგრამული უზრუნველყოფა, რომელსაც შეეძლო გაეფრთხილებინა სამართალდამცავები, როდესაც მისი სათვალთვალო კამერები უიღურ სახეებს აღმოაჩენდნენ.

2018 წლის საპატენტო განაცხადში Huawei-მ განაცხადა, რომ "ფეხით მოსიარულეთა ატრიბუტების იდენტიფიკაცია ძალიან მნიშვნელოვანია" სახის ამოცნობის ტექნოლოგიაში.„სამიზნე ობიექტის ატრიბუტები შეიძლება იყოს სქესი (მამაკაცი, მდედრობითი სქესი), ასაკი (როგორიცაა თინეიჯერები, საშუალო ასაკის, მოხუცები) [ან] რასა (ჰანი, უიღური),“ნათქვამია აპლიკაციაში.

ჰუავეის სპიკერმა განუცხადა CNN Business-ს, რომ ეთნიკური იდენტიფიკაციის ფუნქცია „არასდროს უნდა გამხდარიყო აპლიკაციის ნაწილი“.

ხელოვნური ინტელექტის მზარდი გამოყენება მონაცემთა დიდი რაოდენობით დასალაგებლად აუცილებლად გამოიწვევს კონფიდენციალურობის შეშფოთებას. შეიძლება ვერასოდეს გაიგოთ ვინ ან რა გაანალიზებთ შემდეგ ჯერზე, როცა გასაუბრებაზე მიდიხართ.

გირჩევთ: