რატომ შეიძლება დაარღვიოს ემოციების წაკითხვის პროგრამამ თქვენი კონფიდენციალურობა

Სარჩევი:

რატომ შეიძლება დაარღვიოს ემოციების წაკითხვის პროგრამამ თქვენი კონფიდენციალურობა
რატომ შეიძლება დაარღვიოს ემოციების წაკითხვის პროგრამამ თქვენი კონფიდენციალურობა
Anonim

მთავარი წაღებები

  • Zoom-მა განაცხადა, რომ გამოიყენებს AI-ს მომხმარებლის განწყობის ან ჩართულობის დონის შესაფასებლად.
  • ადამიანის უფლებათა ჯგუფები სთხოვენ Zoom-ს გადახედოს გეგმას კონფიდენციალურობისა და მონაცემთა უსაფრთხოების შეშფოთების გამო.
  • ზოგიერთი კომპანია ასევე იყენებს ინტერვიუების დროს ემოციების აღმომჩენ პროგრამულ უზრუნველყოფას, რათა შეაფასოს, აქცევს თუ არა მომხმარებელი ყურადღებას.
Image
Image

ადამიანის ემოციების მონიტორინგისთვის ხელოვნური ინტელექტის (AI) მზარდი გამოყენება იწვევს კონფიდენციალურობის შეშფოთებას.

ადამიანის უფლებების დამცველი ორგანიზაციები სთხოვენ Zoom-ს, შეანელოს გეგმა, რათა დანერგოს ემოციების ანალიზის AI ვიდეო კონფერენციის პროგრამაში. კომპანიამ განაცხადა, რომ ის გამოიყენებს AI-ს მომხმარებლის განწყობის ან ჩართულობის დონის შესაფასებლად.

"ექსპერტები აღიარებენ, რომ ემოციების ანალიზი არ მუშაობს", - წერს ადამიანის უფლებათა დაცვის ჯგუფების კონსორციუმი, მათ შორის ACLU, Zoom-ს წერილში. "სახის გამონათქვამები ხშირად მოწყვეტილია ემოციებისგან, და კვლევებმა აჩვენა, რომ ადამიანებსაც კი არ შეუძლიათ ზუსტად წაიკითხონ ან გაზომონ სხვისი ემოციები ზოგიერთ დროს. ამ ხელსაწყოს შემუშავება სძენს ფსევდომეცნიერებას და თქვენს რეპუტაციას სასწორზე აყენებს."

Zoom-მა დაუყოვნებლივ არ უპასუხა Lifewire-ის მოთხოვნას კომენტარისთვის.

შეამოწმეთ თქვენი ემოციები

პროტოკოლის სტატიის მიხედვით, Zoom-ის მონიტორინგის სისტემა, სახელწოდებით Q for Sales, ამოწმებდა მომხმარებლების საუბრის დროის თანაფარდობას, რეაგირების დროის შეფერხებას და დინამიკების ხშირ ცვლილებებს, რათა თვალყური ადევნოთ რამდენად დაკავებულია ადამიანი. Zoom გამოიყენებს ამ მონაცემებს ნულიდან 100-მდე ქულების მინიჭებისთვის, უფრო მაღალი ქულები მიუთითებს უფრო მაღალ ჩართულობასა და განწყობაზე.

ადამიანის უფლებათა ჯგუფები აცხადებენ, რომ პროგრამულ უზრუნველყოფას შეუძლია დისკრიმინაცია მოახდინოს შეზღუდული შესაძლებლობის მქონე ან გარკვეული ეთნიკური წარმომავლობის მქონე ადამიანების მიმართ იმ ვარაუდით, რომ ყველა იყენებს ერთსა და იმავე სახის გამონათქვამებს, ხმის შაბლონებს და სხეულის ენას კომუნიკაციისთვის. ჯგუფები ასევე ვარაუდობენ, რომ პროგრამული უზრუნველყოფა შეიძლება იყოს მონაცემთა უსაფრთხოების რისკი.

Image
Image

"ღრმად პერსონალური მონაცემების მოპოვებამ შეიძლება ნებისმიერი სუბიექტი, რომელიც ამ ტექნოლოგიას გამოიყენებს, სამიზნე გახადოს სამთავრობო ხელისუფლების და მავნე ჰაკერების თვალთვალისთვის", - ნათქვამია წერილში.

იულია სტოიანოვიჩმა, ნიუ-იორკის უნივერსიტეტის კომპიუტერული მეცნიერებისა და ინჟინერიის პროფესორმა, განუცხადა Lifewire-ს ელექტრონული ფოსტით მიცემულ ინტერვიუში, რომ იგი სკეპტიკურად არის განწყობილი ემოციების გამოვლენის მიღმა არსებული პრეტენზიების მიმართ.

"მე ვერ ვხედავ, როგორ შეუძლია ამ ტექნოლოგიას იმუშაოს - ადამიანების ემოციური გამოხატულება არის ძალიან ინდივიდუალური, ძალიან კულტურულად დამოკიდებული და ძალიან კონტექსტზე სპეციფიკური", - თქვა სტოიანოვიჩმა.”მაგრამ, ალბათ, რაც მთავარია, არ მესმის, რატომ გვსურს ამ ინსტრუმენტების მუშაობა. სხვა სიტყვებით რომ ვთქვათ, ჩვენ კიდევ უფრო გაგვიჭირდებოდა, თუ ისინი კარგად მუშაობდნენ. მაგრამ შესაძლოა რისკებზე ფიქრამდეც კი, ჩვენ უნდა ვიფიქროთ. იკითხეთ - რა არის ასეთი ტექნოლოგიის პოტენციური სარგებელი?"

Zoom არ არის ერთადერთი კომპანია, რომელიც იყენებს ემოციების გამოვლენის პროგრამულ უზრუნველყოფას. თეო უილსმა, Kuma LLC-ის კონფიდენციალურობის უფროსმა დირექტორმა, კონფიდენციალურობის და უსაფრთხოების საკონსულტაციო კომპანიამ, განუცხადა Lifewire-ს ელექტრონული ფოსტით, რომ პროგრამული უზრუნველყოფა ემოციების გამოსავლენად გამოიყენება ინტერვიუების დროს, რათა შეფასდეს, აქცევს თუ არა მომხმარებელი ყურადღებას. ის ასევე პილოტირდება სატრანსპორტო ინდუსტრიაში, რათა დააკვირდეს, თუ მძღოლები ძილიანად გამოიყურებიან, ვიდეო პლატფორმებზე ინტერესის შესაფასებლად და რეკომენდაციების შესასრულებლად და საგანმანათლებლო გაკვეთილებში იმის დასადგენად, არის თუ არა სწავლების კონკრეტული მეთოდი საინტერესო.

უილსი ამტკიცებდა, რომ ემოციების მონიტორინგის პროგრამული უზრუნველყოფის შესახებ დაპირისპირება უფრო მონაცემთა ეთიკის საკითხია, ვიდრე კონფიდენციალურობის. მან თქვა, რომ ეს ეხება სისტემას, რომელიც იღებს რეალურ სამყაროში გადაწყვეტილებებს ჭკუაზე დაყრდნობით.

"ამ ტექნოლოგიით, თქვენ ახლა ვარაუდობთ იმის მიზეზს, რის გამოც სახეზე მაქვს კონკრეტული გამომეტყველება, მაგრამ გამომეტყველების იმპულსი ძალიან განსხვავდება ისეთი საკითხების გამო, როგორიცაა სოციალური ან კულტურული აღზრდა, ოჯახური ქცევა, წარსული გამოცდილება ან ნერვიულობა. ამ მომენტში,”- დასძინა უილსმა. "ალგორითმის დაფუძნება დაშვებაზე თანდაყოლილი ხარვეზიანი და პოტენციურად დისკრიმინაციულია. ბევრი პოპულაცია არ არის წარმოდგენილი პოპულაციაში, რომლებზეც ალგორითმებია დაფუძნებული და ამის გამოყენებამდე საჭიროა შესაბამისი წარმოდგენა პრიორიტეტული იყოს."

პრაქტიკული მოსაზრებები

ემოციების თვალთვალის პროგრამული უზრუნველყოფის მიერ წამოჭრილი პრობლემები შეიძლება იყოს როგორც პრაქტიკული, ასევე თეორიული. მეტ ჰეისიმ, Ferret.ai-ის თანადამფუძნებელმა, ხელოვნური ინტელექტის მქონე აპლიკაციით, რომელიც უზრუნველყოფს ურთიერთობების დაზვერვას, განუცხადა Lifewire-ს ელ.წერილში, რომ მომხმარებლებმა უნდა ჰკითხონ, სად კეთდება სახეების ანალიზი და რა მონაცემები ინახება. მიმდინარეობს კვლევა ზარის ჩანაწერებზე, დამუშავებულ ღრუბელში თუ ადგილობრივ მოწყობილობაზე?

ასევე, ჰეისიმ ჰკითხა, როგორც ალგორითმი სწავლობს, რა მონაცემებს აგროვებს ის ადამიანის სახის ან მოძრაობების შესახებ, რომლებიც შეიძლება პოტენციურად გამოეყოს ალგორითმს და გამოიყენონ სხვისი ბიომეტრიის ხელახლა შესაქმნელად? ინახავს თუ არა კომპანია სნეპშოტებს ალგორითმის შესწავლის გადამოწმების ან ვალიდაციისთვის და არის თუ არა მომხმარებლის შეტყობინება ამ ახალი წარმოებული მონაცემების ან შენახული სურათების შესახებ, რომლებიც პოტენციურად გროვდება მათი ზარებიდან?

"ეს არის ყველა პრობლემა, რომელიც ბევრმა კომპანიამ გადაჭრა, მაგრამ არის კომპანიებიც, რომლებიც ატყდა სკანდალმა, როდესაც აღმოჩნდა, რომ მათ ეს სწორად არ გააკეთეს", - თქვა ჰეისიმ. "Facebook არის ყველაზე მნიშვნელოვანი შემთხვევა იმ კომპანიისა, რომელმაც უკან დააბრუნა სახის ამოცნობის პლატფორმა მომხმარებლის კონფიდენციალურობის შესახებ შეშფოთების გამო. მშობელი კომპანია Meta ახლა ამოიღებს AR ფუნქციებს Instagram-დან ზოგიერთ იურისდიქციაში, როგორიცაა ილინოისი და ტეხასი, ბიომეტრიული მონაცემების გარშემო არსებული კონფიდენციალურობის კანონების გამო."

გირჩევთ: