მთავარი წაღებები
- ახალი პროგრამული ინსტრუმენტი საშუალებას აძლევს ხელოვნურ ინტელექტს დააკვირდეს ინტერნეტ კომენტარებს სიძულვილის ენაზე.
- AI საჭიროა ინტერნეტში კონტენტის ზომიერებისთვის, მასალის უზარმაზარი მოცულობის გამო, რომელიც აღემატება ადამიანის შესაძლებლობებს.
- მაგრამ ზოგიერთი ექსპერტი ამბობს, რომ მეტყველების ხელოვნური ინტელექტის მონიტორინგი იწვევს კონფიდენციალურობის შეშფოთებას.
როგორც ონლაინ სიძულვილის ენა იზრდება, ერთი კომპანია ამბობს, რომ შესაძლოა ჰქონდეს გამოსავალი, რომელიც არ იქნება დამოკიდებული მოდერატორებზე.
სტარტაპი სახელწოდებით Spectrum Labs უზრუნველყოფს ხელოვნური ინტელექტის ტექნოლოგიას პლატფორმის პროვაიდერებს, რათა აღმოაჩინონ და გამორთონ ტოქსიკური გაცვლები რეალურ დროში. მაგრამ ექსპერტები ამბობენ, რომ ხელოვნური ინტელექტის მონიტორინგი ასევე აჩენს კონფიდენციალურობის საკითხებს.
"AI მონიტორინგი ხშირად მოითხოვს შაბლონების დათვალიერებას დროთა განმავლობაში, რაც საჭიროებს მონაცემთა შენახვას", - განუცხადა Lifewire-ს ელ-ფოსტის ინტერვიუში Schellman-ის უფროსმა თანამშრომელმა Schellman-მა. "ეს მონაცემები შეიძლება შეიცავდეს მონაცემებს, რომლებიც კანონებმა მოინიშნა კონფიდენციალურობის მონაცემებად (პირადი იდენტიფიცირებადი ინფორმაცია ან PII)."
მეტი სიძულვილის ენა
Spectrum Labs ჰპირდება მაღალტექნოლოგიურ გადაწყვეტას სიძულვილის ენის უძველესი პრობლემისთვის.
"საშუალოდ, ჩვენ ვეხმარებით პლატფორმებს, შეამცირონ კონტენტის მოდერაციის მცდელობები 50%-ით და გაზარდონ ტოქსიკური ქცევების გამოვლენა 10-ჯერ," აცხადებს კომპანია თავის ვებსაიტზე.
სპექტრი ამბობს, რომ მუშაობდა კვლევით ინსტიტუტებთან სპეციფიურ მავნე ქცევებში, რათა შეექმნა ქცევის იდენტიფიკაციის 40-ზე მეტი მოდელი. კომპანიის Guardian-ის შინაარსის მოდერაციის პლატფორმა შეიქმნა მონაცემთა მეცნიერთა და მოდერატორთა გუნდის მიერ, რათა მხარი დაუჭიროს თემების დაცვას ტოქსიკურობისგან."
მზარდი მოთხოვნილებაა სიძულვილის ენასთან საბრძოლველად, რადგან შეუძლებელია ადამიანისთვის თვალყური ადევნოს ონლაინ ტრაფიკის ყველა ნაწილს, დილან ფოქსი, AssemblyAI-ს აღმასრულებელი დირექტორი, სტარტაპი, რომელიც უზრუნველყოფს სიტყვის ამოცნობას და ჰყავს მომხმარებლები, რომლებიც მონაწილეობენ სიძულვილის მონიტორინგში. გამოსვლა, განუცხადა Lifewire-ს ელექტრონული ფოსტის ინტერვიუში.
"მხოლოდ Twitter-ზე დღეში დაახლოებით 500 მილიონი ტვიტია," დასძინა მან. "მაშინაც კი, თუ ერთმა ადამიანმა შეძლოს ტვიტის შემოწმება ყოველ 10 წამში, ტვიტერს დასჭირდება 60 ათასი ადამიანის დასაქმება ამისთვის. ამის ნაცვლად, ჩვენ ვიყენებთ ჭკვიან ინსტრუმენტებს, როგორიცაა AI პროცესის ავტომატიზაციისთვის."
ადამიანისგან განსხვავებით, AI-ს შეუძლია 24/7 მუშაობა და პოტენციურად უფრო სამართლიანი იყოს, რადგან ის შექმნილია იმისათვის, რომ ერთნაირად გამოიყენოს თავისი წესები ყველა მომხმარებლისთვის, ყოველგვარი პირადი შეხედულებების ჩარევის გარეშე, თქვა ფოქსმა. ასევე არის ფასი იმ ადამიანებისთვის, რომლებსაც უწევთ კონტენტის მონიტორინგი და ზომიერება.
"მათ შეიძლება გამოავლინონ ძალადობა, სიძულვილი და ამაზრზენი ქმედებები, რამაც შეიძლება ზიანი მიაყენოს ადამიანის ფსიქიკურ ჯანმრთელობას," თქვა მან.
Spectrum არ არის ერთადერთი კომპანია, რომელიც ცდილობს ავტომატურად აღმოაჩინოს ონლაინ სიძულვილის ენა. მაგალითად, მალაიზიის ცენტრმა ახლახან გამოუშვა ონლაინ ტრეკერი, რომელიც შექმნილია მალაიზიელი ქსელის მომხმარებლების შორის სიძულვილის ენის მოსაძებნად. მათ მიერ შემუშავებული პროგრამული უზრუნველყოფა, სახელწოდებით Tracker Benci, იყენებს მანქანურ სწავლებას სიძულვილის ენის აღმოსაჩენად ონლაინ, განსაკუთრებით Twitter-ზე.
გამოწვევა არის ის, თუ როგორ შევქმნათ სივრცეები, რომლებშიც ადამიანებს შეუძლიათ რეალურად ჩაერთონ ერთმანეთთან კონსტრუქციულად.
კონფიდენციალურობის შეშფოთება
მიუხედავად იმისა, რომ ტექნოლოგიური გადაწყვეტილებები, როგორიცაა Spectrum, შესაძლოა ებრძვის ონლაინ სიძულვილის ენას, ისინი ასევე აჩენენ კითხვებს იმის შესახებ, თუ რამდენად უნდა გააკეთონ პოლიციური კომპიუტერები.
აქვს სიტყვის თავისუფლება, მაგრამ არა მხოლოდ იმ სპიკერებისთვის, რომელთა პოსტები წაიშლება როგორც სიძულვილის ენა, განუცხადა Lifewire-ს ელფოსტით ირინა რაიკუმ, სანტა კლარას უნივერსიტეტის გამოყენებითი ეთიკის ცენტრის ინტერნეტ ეთიკის დირექტორმა. ინტერვიუ.
"სიტყვის თავისუფლების სახელით შევიწროების დაშვებამ აიძულა ასეთი მეტყველების სამიზნეები (განსაკუთრებით მაშინ, როდესაც მიმართულია კონკრეტულ პირებზე) შეწყვიტონ საუბარი - მთლიანად მიატოვონ სხვადასხვა საუბრები და პლატფორმები", - თქვა რაიკუმ."გამოწვევა არის ის, თუ როგორ შევქმნათ სივრცეები, რომლებშიც ადამიანებს შეუძლიათ რეალურად ჩაერთონ ერთმანეთთან კონსტრუქციულად."
AI მეტყველების მონიტორინგმა არ უნდა დააყენოს კონფიდენციალურობის საკითხები, თუ კომპანიები გამოიყენებენ საჯაროდ ხელმისაწვდომ ინფორმაციას მონიტორინგის დროს, თქვა ფოქსმა. თუმცა, თუ კომპანია ყიდულობს დეტალებს იმის შესახებ, თუ როგორ ურთიერთობენ მომხმარებლები სხვა პლატფორმებზე პრობლემური მომხმარებლების წინასწარ იდენტიფიცირებისთვის, ამან შეიძლება გამოიწვიოს კონფიდენციალურობის შეშფოთება.
"ეს ნამდვილად შეიძლება იყოს ნაცრისფერი ზონა, აპლიკაციის მიხედვით," დასძინა მან.
ჯასტინ დევისმა, Spectrum Labs-ის აღმასრულებელმა დირექტორმა განუცხადა Lifewire-ს ელფოსტაში, რომ კომპანიის ტექნოლოგიას შეუძლია გადახედოს მონაცემების 2-დან 5 ათასამდე სტრიქონს წამის ფრაქციებში.”რაც მთავარია, ტექნოლოგიას შეუძლია შეამციროს ტოქსიკური შინაარსის რაოდენობა, რომელსაც მოდერატორები ექვემდებარებიან,” - თქვა მან.
ჩვენ შეიძლება ვიყოთ რევოლუციის მწვერვალზე AI ადამიანის სიტყვისა და ტექსტის ონლაინ მონიტორინგში. მომავალი მიღწევები მოიცავს უკეთეს დამოუკიდებელ და ავტონომიურ მონიტორინგის შესაძლებლობებს სიძულვილის ენის მანამდე უცნობი ფორმების ან ნებისმიერი სხვა ცენზურას ნიმუშების გამოსავლენად, რომელიც განვითარდება, თქვა მუდიმ.
AI ასევე მალე შეძლებს ამოიცნოს შაბლონები მეტყველების კონკრეტულ შაბლონებში და დაუკავშირდეს წყაროებს და მათ სხვა აქტივობებს ახალი ამბების ანალიზის, საჯარო შეტყობინებების, ტრაფიკის ნიმუშის ანალიზის, ფიზიკური მონიტორინგისა და მრავალი სხვა ვარიანტის მეშვეობით, დასძინა მან.
მაგრამ ზოგიერთი ექსპერტი ამბობს, რომ ადამიანებს ყოველთვის სჭირდებათ კომპიუტერთან მუშაობა სიძულვილის ენის მონიტორინგისთვის.
"მარტო ხელოვნური ინტელექტი არ იმუშავებს", - თქვა რაიკუმ. "ეს უნდა იყოს აღიარებული, როგორც ერთი არასრულყოფილი ინსტრუმენტი, რომელიც უნდა იქნას გამოყენებული სხვა პასუხებთან ერთად."
შესწორება 1/25/2022: დამატებულია ციტატა ჯასტინ დევისისგან მე-5 აბზაცში ბოლოდან გამოქვეყნების შემდგომი ელფოსტის ასასახად.