Apple zdecydowało się zaangażować w walkę z pedofilią i pornografią dziecięcą. Podjęte działania są w pełni słuszne i uzasadnione, jednakże system zabezpieczeń budzi wiele wątpliwości.
Nowe technologie mają bardzo dużo zalet, ale świat wirtualny może być bardziej niebezpieczny niż realny, zwłaszcza dla jego najmłodszych użytkowników. Dlatego też wszyscy powinniśmy ich chronić jak najlepiej. Apple ma w planach wprowadzenie na smartfony iPhone, iPad oraz komputery Mac algorytmu, który będzie służył do skanowania plików graficznych.
Mają temu służyć trzy mechanizmy:
– funkcja bezpieczeństwa w aplikacji „Wiadomości” ostrzegająca o otrzymywaniu lub chęci wysyłania zdjęć o charakterze seksualnym;
– wykrywanie materiałów związanych z seksualnym wykorzystywaniem dzieci w „iCloud Photos”;
– aktualizacja systemu „Siri” pod kątem interwencji w przypadku chęci wyszukiwania niedozwolonych treści.
Eksperci popierają pomysły Apple, jednakże najwięcej wątpliwości pojawia się w przypadku skanowania plików w „iCloud Photos”. Jak wskazuje korporacja z Doliny Krzemowej, zdjęcia nie będą jednak skanowane w chmurze, ale na urządzeniu, chwilę przed ich pobraniem z chmury. Mechanizm ochronny ma zestawić zdjęcia z bazą danych od NCMEC (National Center for Missing & Exploited Children). Światowi liderzy branży technologicznej zarzucają Apple, że wprowadzają oni masową inwigilację użytkowników, a kwestia bezpieczeństwa dzieci jest dla nich drugorzędna.
Edward Snowden za pośrednictwem Twittera pisał, że bez względu na dobre intencje, Apple wprowadza inwigilację i wskazywał, że jeśli dziś mogą skanować pliki w poszukiwaniu dziecięcej pornografii, to jutro mogą skanować w poszukiwaniu czegokolwiek.
Bez wątpienia system opracowany przez Apple jest mechanizmem bardzo dobrym. W znacznej mierze mogłoby to zapobiec wielu tragedii, jednak opracowanie takich systemów powinno być przedyskutowane nie tylko w murach siedziby Apple w Dolinie Krzemowej.