Apple werkt in de Verenigde Staten aan software om iPhones te doorzoeken op beelden van kindermisbruik. Dat schrijft de krant Financial Times op basis van ingewijden. Apple wilde tegen de krant niet reageren op het bericht.

Het programma, dat ‘neuralMatch’ zou heten, moet alarm slaan bij beelden waarvan het vermoeden bestaat dat er sprake is van kindermisbruik. Het systeem maakt daarbij gebruik van 200.000 foto’s van kindermisbruik die zijn verzameld door een Amerikaanse ngo. Wanneer iets verdachts wordt gedetecteerd, controleert een team van onderzoekers de beelden. Ook kan Apple besluiten andere afbeeldingen van een gebruiker te bekijken.

Het zou vooralsnog alleen gaan om foto’s die in het back-upsysteem iCloud worden opgeslagen en de controle zou alleen bij Amerikaanse gebruikers worden ingevoerd. Volgens FT wordt de software op korte termijn in bredere kring gepresenteerd.

Deskundigen kritisch

Veiligheids- en privacydeskundigen zijn kritisch over dergelijke software. Zij vrezen dat dit het begin is van het monitoren van meer gegevens van alle Applegebruikers. Ook zijn er zorgen dat zulke programma’s ingezet kunnen worden om andere zaken op te sporen, zoals dissidente geluiden.

“Stel je voor dat zulke software in handen komt van autoritaire regimes?”, twittert de Amerikaanse veiligheidsonderzoeker Matthew Green. Tegen FT zegt privacy-activist Alec Muffett dat de software “een enorme achteruitgang voor de privacy van het individu” betekent.

Source