Apple ujawniło, w jaki sposób będzie wyłapywał zabronione zdjęcia

Apple udostępniło 14-stronicowy dokument, w którym opisuje działanie swojego nowego algorytmu. Sprawdzeni zostaną tylko użytkownicy, u których system znajdzie minimum 30 zdjęć z pornografią dziecięcą lub przemocą seksualną wobec dzieci.

Apple iPhone 12
Apple iPhone 12materiały prasowe

Apple planuje wprowadzić do swoich urządzeń nowe oprogramowanie wraz z najnowszą wersja systemu. Będzie miało za zadanie wyłapywać zdjęcia, na których znajduje się dziecięca pornografia. Wiele osób wtedy wyraziło się negatywnie o tym pomyśle w tym CEO WhatsAppa, Will Cathcart, według którego to "złe podejście i krok w tył dla prywatności użytkowników na całym świecie".

Fala niezadowolenia i negatywnych komentarzy w sieci sprawiła, że Apple wydało dokument opisujący działanie oprogramowania. Firma zapewnia, że nie będzie ryzyka nadużyć ze względu na to, że system będzie opierał się na dwóch niezależnych od siebie bazach danych CSAM. Ponadto nawet w przypadku oflagowania użytkowników, zanim zostanie wysłane zgłoszenie do odpowiednich organów prawnych, autentyczność zdjęć zweryfikuje zespół składający się z ludzi, by wykluczyć możliwość jakiejkolwiek pomyłki.

"Tylko i wyłącznie jeśli przekroczysz próg 30 zdjęć znanej dziecięcej pornografii, tylko wtedy Apple sprawdzi twoje konto i tylko wyłącznie te zdjęcia, bez sprawdzania innych zdjęć w galerii". - powiedział Craig Federighi w wywiadzie dla The Wall Street Journal.

Apple zapewnia, że ich algorytm nie będzie skanował zdjęć na urządzeniach użytkowników, lecz zobaczy tylko te, które zostaną przesłane do iClouda. Oprogramowanie neuralMatch zostanie wprowadzone tylko w Stanach Zjednoczonych. Nie ma jednak żadnej pewności, żew przyszłości system nie zostanie rozszerzony na użytkowników z innych krajów.

"Wynalazki, które zmieniły świat": Karta kredytowaIPLA

---------------------------------------

Apple - więcej informacji

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas