De nachtmerriescenario’s over kunstmatig intelligentie gemaakte kindermisbruikbeelden worden werkelijkheid en dreigen het internet te overspoelen, waarschuwt een veiligheidswaakhond. De Internet Watch Foundation (IWF) heeft bijna 3.000 AI-gemaakte misbruikbeelden gevonden die in strijd zijn met de Britse wet.
Deze Britse organisatie meldt dat bestaande beelden van echte misbruikslachtoffers worden gebruikt in AI-modellen, die vervolgens nieuwe voorstellingen van hen produceren. Daarnaast wordt de technologie ook ingezet om afbeeldingen van beroemdheden te maken, die zijn “verjongd” en daarna afgebeeld als kinderen in seksueel misbruikscenario’s. Andere voorbeelden van kindermisbruikmateriaal (CSAM) omvatten het gebruik van AI-tools om foto’s van geklede kinderen die online zijn gevonden te “ontkleden”.

Eerder dit jaar waarschuwden zij dat AI-beeldmateriaal al snel niet meer te onderscheiden zou zijn van echte foto’s van kinderen die seksueel worden misbruikt, en dat deze beelden in grote getale zouden kunnen gaan verschijnen. “We zijn nu dat punt voorbij” zei ze. “Verschrikkelijk genoeg zien we dat criminelen hun AI bewust trainen op beelden van echte slachtoffers die al misbruikt zijn. Kinderen die in het verleden zijn verkracht, worden nu opgenomen in nieuwe scenario’s omdat iemand, ergens, dat wil zien.”

De Coroners and Justice Act 2009 criminaliseert ook niet-fotografische verboden afbeeldingen van een kind, zoals cartoons of tekeningen. Het IWF vreest dat een vloed van AI-gegenereerde CSAM de wetshandhavingsinstanties zal afleiden van het opsporen van echte misbruik en het helpen van slachtoffers. “Als we deze dreiging niet onder controle krijgen, dreigt dit materiaal het internet te overspoelen,” zei Hargreaves. Dan Sexton, de Chief Technology Officer bij de IWF, zei dat de beeldgenererende tool Stable Diffusion – een publiekelijk beschikbaar AI-model dat kan worden aangepast om CSAM te produceren – het enige AI-product was dat besproken werd op het forum. “We hebben discussies gezien over het creëren van inhoud met behulp van Stable Diffusion, dat openlijk beschikbare software is.”

Stability AI, het Britse bedrijf achter Stable Diffusion, heeft gezegd dat het “elk misbruik voor illegale of immorele doeleinden op onze platforms verbiedt, en onze beleidsregels zijn duidelijk dat dit CSAM omvat”. De regering heeft gezegd dat AI-gegenereerd CSAM zal worden gedekt door de online veiligheidswet, die binnenkort wet zal worden, en dat socialemediabedrijven verplicht zullen worden om het verschijnen ervan op hun platforms te voorkomen.

Lees verder op: https://www.theguardian.com/technology/2023/oct/25/ai-created-child-sexual-abuse-images-threaten-overwhelm-internet

Leave A Comment