ტვიტერის ალგორითმის რასობრივი მიკერძოება მიუთითებს უფრო დიდ ტექნიკურ პრობლემაზე

Სარჩევი:

ტვიტერის ალგორითმის რასობრივი მიკერძოება მიუთითებს უფრო დიდ ტექნიკურ პრობლემაზე
ტვიტერის ალგორითმის რასობრივი მიკერძოება მიუთითებს უფრო დიდ ტექნიკურ პრობლემაზე
Anonim

მთავარი წაღებები

  • Twitter იმედოვნებს, რომ გამოასწოროს ის რასაც მომხმარებლები უწოდებენ რასობრივ მიკერძოებას თავიანთი სურათების გადახედვის პროგრამულ უზრუნველყოფაში.
  • ტექნიკური გიგანტის მოწოდება შეიძლება იყოს კულტურული გაანგარიშება, რომელიც ინდუსტრიას სჭირდება მრავალფეროვნების საკითხების გადასაჭრელად.
  • ტექნიკის მრავალფეროვნების ნაკლებობა ზიანს აყენებს მისი ტექნოლოგიური მიღწევების ეფექტურობას.
Image
Image

Twitter აპირებს დაიწყოს გამოძიება სურათების ამოღების ალგორითმის შესახებ, მას შემდეგ რაც ის გახდა ტრენდული თემა, რამაც გამოიწვია ფართო საუბარი მრავალფეროვნების საკითხებზე ტექნიკურ ინდუსტრიაში.

სოციალური მედიის მაჟორიტარი გახდა სათაურები მას შემდეგ, რაც მომხმარებლებმა აღმოაჩინეს აშკარა რასობრივი მიკერძოება მის გამოსახულების გადახედვის ალგორითმში. აღმოჩენა მას შემდეგ მოხდა, რაც Twitter-ის მომხმარებელმა კოლინ მადლენდმა გამოიყენა პლატფორმა, რათა გამოეხმაურა Zoom-მა ვერ ამოიცნო მისი შავკანიანი კოლეგები, რომლებიც იყენებდნენ მწვანე ეკრანის ტექნოლოგიას, მაგრამ ირონიის გრანდიოზულ შოუში მან აღმოაჩინა, რომ Twitter-ის გამოსახულების ამოჭრის ალგორითმი ანალოგიურად იქცეოდა და შავკანიან სახეებს პრიორიტეტულად ართმევდა.

რა თქმა უნდა, ეს არის ნებისმიერი უმცირესობისთვის დიდი პრობლემა, მაგრამ ვფიქრობ, რომ არსებობს ბევრად უფრო ფართო საკითხიც.

სხვა მომხმარებლები შემოვიდნენ ტენდენციაში, რამაც გამოიწვია ვირუსული ტვიტების სერია, სადაც ნაჩვენებია ალგორითმი პრიორიტეტულად თეთრ და ღია ფერის სახეებს, დაწყებული ადამიანებიდან მულტფილმების გმირებამდე და ძაღლებამდე. ეს წარუმატებლობა მიუთითებს ტექნოლოგიურ ინდუსტრიაში უფრო ფართო კულტურულ მოძრაობაზე, რომელიც მუდმივად ვერ ითვალისწინებდა უმცირესობათა ჯგუფებს, რაც გადაიზარდა ტექნიკურ მხარეზე.

"ეს უმცირესობებს საშინლად აგრძნობინებს თავს, თითქოს ისინი არ არიან მნიშვნელოვანი და შეიძლება გამოყენებულ იქნას სხვა რამისთვის, რამაც შეიძლება გამოიწვიოს უფრო სერიოზული ზიანი", - ერიკ ლერედ-მილერი, უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორი. ამის შესახებ მასაჩუსეტსის შტატში სატელეფონო ინტერვიუში აცხადებენ."როდესაც გადაწყვეტთ, თუ რა სახის პროგრამული უზრუნველყოფის გამოყენება შეიძლება და ყველა ზიანი, რომელიც შეიძლება მოხდეს, მაშინ ჩვენ ვიწყებთ საუბარს გზებზე, რომ მინიმუმამდე დავიყვანოთ ამის შანსი."

Canary on Timeline

ტვიტერი იყენებს ნერვულ ქსელებს ტვიტებში ჩაშენებული სურათების ავტომატურად მოსაჭრელად. ალგორითმი უნდა აღმოაჩინოს სახეები წინასწარ გადახედვისთვის, მაგრამ, როგორც ჩანს, შესამჩნევი თეთრი მიკერძოება აქვს. კომპანიის სპიკერმა ლიზ კელიმ გამოაქვეყნა პასუხი ყველა შეშფოთებაზე.

კელიმ დაწერა ტვიტერზე: "მადლობა ყველას, ვინც ეს წამოაყენა. მოდელის გაგზავნამდე ჩვენ გამოვცადეთ მიკერძოება და ვერ ვიპოვნეთ რასობრივი ან გენდერული მიკერძოების მტკიცებულება ჩვენს ტესტირებაში, მაგრამ აშკარაა, რომ მეტი ანალიზი გვაქვს. გააკეთეთ. ჩვენ გავხსნით ჩვენს ნამუშევრებს, რათა სხვებმა შეძლონ გადახედვა და გამეორება."

თეთრი ქაღალდის თანაავტორი "სახის ამოცნობის ტექნოლოგიები ველურში: მოწოდება ფედერალური ოფისისთვის," Learned-Miller არის წამყვანი მკვლევარი სახეზე დაფუძნებული AI სასწავლო პროგრამული უზრუნველყოფის ექსცესების შესახებ.ის წლების განმავლობაში განიხილავს გამოსახულების შემსწავლელი პროგრამული უზრუნველყოფის პოტენციურ უარყოფით გავლენას და საუბრობს რეალობის შექმნის მნიშვნელობაზე, სადაც ეს მიკერძოებები მაქსიმალურად იქნება შერბილებული.

სახის ამოცნობის ტექნოლოგიის მრავალი ალგორითმი იყენებს მონაცემთა საცნობარო კომპლექტს, რომელიც ხშირად ცნობილია როგორც სასწავლო ნაკრები, რომელიც წარმოადგენს სურათების კრებულს, რომელიც გამოიყენება გამოსახულების შემსწავლელი პროგრამული უზრუნველყოფის ქცევის გასაუმჯობესებლად. ეს საბოლოოდ საშუალებას აძლევს AI-ს ადვილად ამოიცნოს სახეების ფართო სპექტრი. თუმცა, ამ საცნობარო კომპლექტებს შეიძლება არ ჰქონდეს მრავალფეროვანი აუზი, რაც იწვევს ისეთ პრობლემებს, როგორიცაა Twitter-ის გუნდი.

"რა თქმა უნდა, ეს არის დიდი საკითხი ნებისმიერი უმცირესობისთვის, მაგრამ მე ვფიქრობ, რომ არსებობს ბევრად უფრო ფართო საკითხიც", - თქვა ლერდ-მილერმა. „ეს ეხება ტექნიკურ სექტორში მრავალფეროვნების ნაკლებობას და ცენტრალიზებული, მარეგულირებელი ძალის აუცილებლობას, რომელიც აჩვენოს ამ ტიპის ძლიერი პროგრამული უზრუნველყოფის სათანადო გამოყენება, რომელიც მიდრეკილია ბოროტად გამოყენებისა და ბოროტად გამოყენებისკენ.“

ტექნოლოგია აკლია მრავალფეროვნებას

Twitter შეიძლება იყოს უახლესი ტექნოლოგიური კომპანია, მაგრამ ეს შორს არის ახალი პრობლემისგან. ტექნიკური სფერო რჩება ძირითადად თეთრკანიან სფეროდ, რომელიც მუდმივად დომინირებს მამაკაცებს და მკვლევარებმა დაადგინეს, რომ მრავალფეროვნების ნაკლებობა იწვევს სისტემური, ისტორიული დისბალანსის გამეორებას შემუშავებულ პროგრამულ უზრუნველყოფაში.

ნიუ-იორკის უნივერსიტეტის AI Now Institute-ის 2019 წლის ანგარიშში, მკვლევარებმა დაადგინეს, რომ შავკანიანები შეადგენენ სამუშაო ძალის 6 პროცენტზე ნაკლებს ქვეყნის მაღალტექნოლოგიურ ფირმებში. ანალოგიურად, ქალები შეადგენენ დარგში დასაქმებულთა მხოლოდ 26 პროცენტს - ეს უფრო დაბალია, ვიდრე მათი წილი 1960 წელს.

ეს უმცირესობებს საშინლად აგრძნობინებს თავს, თითქოს ისინი არ არიან მნიშვნელოვანი და შეიძლება გამოყენებულ იქნას სხვა რამისთვის, რამაც შეიძლება გამოიწვიოს უფრო სერიოზული ზიანი.

გარეგნულად, ეს წარმომადგენლობითი საკითხები შეიძლება ამქვეყნიური ჩანდეს, მაგრამ პრაქტიკაში მიყენებული ზიანი შეიძლება იყოს ღრმა. AI Now Institute-ის მოხსენების მკვლევარები ვარაუდობენ, რომ ეს მიზეზობრივად უკავშირდება პროგრამულ პრობლემებს, რომლებიც ხშირად ვერ ითვალისწინებენ არათეთრი და არამამრობითი პოპულაციების რაოდენობას.იქნება ეს ინფრაწითელი საპნის დისპენსერები, რომლებიც ვერ ამჩნევენ მუქ კანს, თუ Amazon-ის ხელოვნური ინტელექტის პროგრამული უზრუნველყოფა, რომელიც ვერ განასხვავებს ქალის სახეებს მათი მამრობითი კოლეგებისგან, ტექნიკური ინდუსტრიის მრავალფეროვნების წარუმატებლობა იწვევს ტექნოლოგიის წარუმატებლობას მრავალფეროვან სამყაროსთან გამკლავებაში.

"ბევრი ადამიანი არ დაფიქრებულა ამ საკითხებზე და ნამდვილად არ ესმით, თუ როგორ შეიძლება ამ ნივთებმა ზიანი მიაყენოს და რამდენად მნიშვნელოვანია ეს ზიანი", - შესთავაზა Learned-Miller-მა AI გამოსახულების შესწავლის შესახებ. "იმედია, ხალხის ეს რაოდენობა მცირდება!"

გირჩევთ: