WhatsApp heeft onlangs 130.000 gebruikers geschorst, omdat ze kinderporno via de chatapp hebben verspreid.

Dat vertelt een woordvoerder van het bedrijf aan TechCrunch. De accounts werden in de afgelopen tien dagen opgespoord en verwijderd.

“We tolereren het nooit als kinderporno wordt verspreid”, stelt de chatdienst in een verklaring. “We gebruiken geavanceerde technologie, waaronder kunstmatige intelligentie om dit op te sporen en de verantwoordelijken te schorsen.”

Het nieuws komt vlak nadat twee Israëlische non-profitorganisaties aan de bel trekken. Zij constateerden dat de chatdienst vaak wordt gebruikt om kinderporno uit te wisselen. Daarbij werden in een periode van bijna drie weken meer dan tien groepen geïdentificeerd.

1.300 foto’s en video’s verspreid via WhatsApp

AntiToxin, een startup die software maakt om kinderporno te traceren, zegt meer dan 1.300 video en foto’s op WhatsApp te hebben gevonden. Het is onduidelijk hoeveel meer er in de chatdienst wordt verspreid.

WhatsApp heeft moeite met het modereren van kinderporno in zijn app, omdat gesprekken versleuteld zijn. Hierdoor kan het bedrijf niet zomaar met gesprekken meelezen. Wel wordt er gekeken of profielfoto’s, foto’s van groepen of groepsinformatie verwijzingen naar kinderporno bevatten.

De chatdienst roept telefoonmakers op om beeldherkenning in toestellen te implementeren om kinderporno te identificeren. Dan zouden verspreider van kinderporno gevonden kunnen worden zonder dat de versleuteling van chatapps verzwakt hoeft te worden.

https://www.nu.nl/apps/5643626/whatsapp-verwijdert-130000-accounts-wegens-verspreiden-kinderporno.html