კრიტიკოსებისა და მომხმარებლების მრავალი უკუგების შემდეგ, Apple აყოვნებს ბავშვებზე ძალადობის საწინააღმდეგო ზომებს.
აგვისტოში, ტექნიკურმა გიგანტმა თავდაპირველად გამოაცხადა ახალი პოლიტიკა, რომელიც იყენებს ტექნოლოგიას ბავშვების მიმართ ძალადობის პოტენციური სურათების დასადგენად iCloud-სა და Messages-ში, მაგრამ შეშფოთება მოჰყვა მას. ექსპერტებმა გააფრთხილეს, რომ მიუხედავად იმისა, რომ Apple დაჰპირდა მომხმარებლის კონფიდენციალურობას, ტექნოლოგია საბოლოოდ დააყენებს Apple-ის ყველა მომხმარებელს რისკის ქვეშ.
პარასკევს, Apple-მა განაცხადა, რომ მთლიანად შეაფერხებს ტექნოლოგიის გავრცელებას, რათა გაუმჯობესდეს და სრულად უზრუნველყოს მომხმარებლის კონფიდენციალურობა.
"მომხმარებლების, ადვოკატირების ჯგუფების, მკვლევარების და სხვათა გამოხმაურების საფუძველზე, ჩვენ გადავწყვიტეთ, რომ მომდევნო თვეების განმავლობაში დამატებითი დრო დაგვეხარჯა მონაცემების შესაგროვებლად და გაუმჯობესებისთვის, სანამ გამოვაქვეყნებთ ამ კრიტიკულად მნიშვნელოვან ბავშვთა უსაფრთხოების ფუნქციებს", - თქვა Apple-მა. განახლებული განცხადება მის ვებგვერდზე.
ბავშვთა სექსუალური ძალადობის მასალის აღმოჩენის ტექნოლოგია ხელმისაწვდომი უნდა გამხდარიყო ამ წლის ბოლოს iOS 15-ის გამოშვებაში, მაგრამ ახლა გაურკვეველია როდის ან იქნება თუ არა ეს ფუნქცია.
ახალი ტექნოლოგია იმუშავებს ორი გზით: პირველი, სურათის სკანირებით, სანამ ის არ იქნება სარეზერვო iCloud-ზე. თუ ეს სურათი ემთხვევა CSAM-ის კრიტერიუმებს, Apple მიიღებს ამ მონაცემებს. ტექნოლოგიის მეორე ნაწილი იყენებს მანქანურ სწავლებას ბავშვების მიერ შეტყობინებების საშუალებით მიღებულ სექსუალურად გამოხატული სურათების იდენტიფიცირებისთვის და ბუნდოვანი.
თუმცა, ახალი პოლიტიკის გამოცხადების შემდეგ, კონფიდენციალურობის დამცველებმა და ჯგუფებმა განაცხადეს, რომ Apple არსებითად ხსნის უკანა კარს, რომელიც ცუდმა მსახიობებმა შეიძლება ბოროტად გამოიყენონ.
ამ პრობლემების გადასაჭრელად, Apple-მა გამოუშვა FAQ გვერდი CSAM ტექნოლოგიის გამოცხადებიდან მალევე. Apple-მა განმარტა, რომ ტექნოლოგია არ დაასკანირებს მოწყობილობაზე შენახულ ყველა ფოტოს, არღვევს Messages-ში დაშიფვრას და ტყუილად არ მიანიშნებს უდანაშაულო ადამიანებს სამართალდამცავებს.