W zeszły czwartek Apple (AAPL  ) ujawnił kontrowersyjne plany skanowania amerykańskich iPhone'ów w celu usunięcia materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM), oprócz innych równie kontrowersyjnych zmian planowanych w aplikacji Wiadomości.

Nowa aktualizacja ma się ukazać jeszcze w tym roku i jest pierwszym z wielu kroków, jakie Apple planuje podjąć, aby powstrzymać napływ pornografii dziecięcej, a co za tym idzie, poprawić napięte relacje firmy z rządowymi organami.

Grupy zajmujące się bezpieczeństwem dzieci chwalą ten ruch. "Rozszerzenie przez Apple ochrony dzieci jest przełomowe" - powiedział w zeszły czwartek John Clark, prezes i dyrektor generalny Narodowego Centrum Dzieci Zaginionych i Wykorzystywanych (National Center for Missing and Exploited Children, NMEC). "W rzeczywistości prywatność i ochrona dzieci mogą współistnieć".

Zwolennicy prywatności pozostają nieprzekonani.

Zmiany w iMessages obejmują nową kontrolę rodzicielską, która odfiltrowuje wulgarne teksty i ostrzega rodziców, jeśli ich dziecko zdecyduje się wyświetlić nieodpowiedni obraz. Apple dodał, że ​​nowe funkcje alertów będą niedostępne dla rodziców starszych nastolatków.

Jednak większe kontrowersje budzą plany Apple dotyczące skanowania zdjęć zsynchronizowanych z chmurą. W ramach nadchodzącego systemu oprogramowanie o nazwie NeuralHash podzieli wszystkie obrazy przesłane do iCloud na ciągi liczb, zwane hashami.

Te dane, a nie sam obraz, zostaną następnie porównane z bazą danych NMEC zawierającą materiały przedstawiające wykorzystywania dzieci. Jeśli zostanie znalezione dopasowanie, wygenerowany zostanie "voucher bezpieczeństwa". Gdy wygenerowanych zostanie wystarczająca liczba voucherów, działanie podejmie ludzki moderator, który odszyfruje obrazy. Jeśli zdjęcia zawierać będą nieodpowiednie treści, powiadomione zostaną odpowiednie władze.

Apple dodał, że ​​nowy system nie działa w przypadku materiałów wideo. Gigant podkreślił również, że żadne skanowanie nie zostanie przeprowadzone, dopóki zdjęcia nie zostaną zsynchronizowane z chmurą. "Jeśli użytkownicy nie korzystają z usługi Zdjęcia iCloud, NeuralHash nie będzie działać i nie wygeneruje żadnych voucherów" - powiedział w rozmowie z TechCrunch szef ds. prywatności w Apple, Erik Neuenschwander.

Firma twierdzi, że zmiany te zwiększają, a nie zmniejszają jej reputację w zakresie prywatności.

U podstaw argumentów Apple leży fakt, że skanowanie będzie się odbywać na samym telefonie, a nie w chmurze, co pozwala na zaszyfrowanie voucherów i dowolnych danych. Dlatego nikt nie powinien mieć dostępu do zdjęć Twojego noworodka. Odszyfrowywanie ma miejsce tylko wtedy, gdy przekroczony zostanie określony próg, a Apple twierdzi, że szansa na otrzymanie fałszywie pozytywnego wyniku prowadzącego do odszyfrowania wynosi jeden na bilion. Ponieważ nie ma bilionów iPhone'ów, niewinni mogą spać spokojnie, prawda?

Krytycy twierdzą, że ponieważ nadchodzące funkcje wykorzystują proces lokalny, Apple otwiera poprzez szyfrowanie iPhone'ów drzwi, z których może korzystać każdy, od represyjnych rządów po hakerów. Jak na ironię, jest to przeciwieństwo głównego argumentu Apple.

"Teraz Apple pokazał, że jest w stanie zbudować system nadzoru, do bardzo konkretnych celów, który współpracuje z iMessage" - powiedział The Wall Street Journal Matthew Green, profesor informatyki na Uniwersytecie Johna Hopkinsa. "Zastanawiam się, jak długo będą w stanie utrzymać z dala chiński rząd?"

Apple twierdzi, że nowy system nie jest zdolny do masowej inwigilacji ani bezpośredniego skanowania iPhone'a użytkownika.

"Stoimy przed żądaniami stworzenia i wdrożenia wprowadzonych przez rząd zmian, które degradują prywatność użytkowników, i stanowczo odrzucamy te żądania. Będziemy nadal je odrzucać" - powiedział Apple w oświadczeniu. "Bądźmy szczerzy, ta technologia ogranicza się do wykrywania CSAM przechowywanego w iCloud i nie przychylimy się do prośby żadnego rządu o jej rozszerzenie".