Ein kürzlich veröffentlichter Bericht der Internet Watch Foundation (IWF) in Großbritannien offenbart eine besorgniserregende Zunahme von künstlich erzeugten Inhalten mit sexuellem Missbrauch von Kindern (CSAM) im Internet. Durch die zunehmende Verbreitung von KI-Technologien kann heutzutage fast jeder mit einem Computer und geringen technischen Kenntnissen realistisch wirkende Deepfake-Videos erstellen.

Eine 30-tägige Untersuchung der IWF im Frühjahr dieses Jahres ergab 3.512 Fälle von KI-generierten Kinderpornografie-Inhalten in Darknet-Foren, wobei die meisten davon sehr realistisch wirkten. Im Vergleich zu einer ähnlichen Untersuchung im Herbst 2023 entspricht dies einem Anstieg von 17 %. Noch besorgniserregender ist der Anstieg des Anteils an kürzlich veröffentlichten Inhalten, die extremere oder explizitere sexuelle Handlungen darstellen.

Schüler, Schule, Kinder (1)

Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.

Dan Sexton, Chief Technology Officer der IWF, erklärte: „Die Realitätsnähe nimmt zu, und die Schwere der Inhalte ebenfalls. Das ist ein Trend, den wir nicht sehen wollen.“ Obwohl derzeit vollständig synthetische Videos noch nicht überzeugend genug wirken, könnte sich dies mit der rasanten Entwicklung der Technologie bald ändern. Auch wenn die meisten Täter derzeit noch auf vorhandenes, reales Videomaterial für Deepfakes zurückgreifen, verursacht dieser Trend unbestreitbar anhaltenden Schaden bei den Opfern.

Der Bericht weist außerdem darauf hin, dass die rasante Entwicklung der KI-Technologie Regulierungsbehörden, Technologieunternehmen und Strafverfolgungsbehörden vor neue Herausforderungen stellt. Im vergangenen Sommer unterzeichneten sieben große US-amerikanische KI-Unternehmen eine öffentliche Zusage, sich an eine Reihe ethischer und sicherheitsrelevanter Richtlinien zu halten. Sie haben jedoch keine Kontrolle über die vielen kleinen KI-Programme, die im Internet verstreut sind, oft kostenlos und leicht zugänglich.

Diese neue Art von Kinderpornografie könnte die Verfolgung von Pädophilen, die mit diesen Inhalten handeln, erschweren. Neu generierte gefälschte Materialien können automatische Scans von Social-Media-Plattformen und Strafverfolgungsbehörden oft umgehen, was Verwirrung darüber stiftet, wie damit umgegangen werden soll. Das US-Justizministerium hat bereits Anklage gegen mindestens einen Mann erhoben, der Kinderpornografie mit Hilfe von künstlicher Intelligenz hergestellt hat, aber die rechtliche Definition solcher Verbrechen ist nach wie vor eine Grauzone.

Das FBI erklärt, dass es jeden Vorwurf von Kinderkriminalität ernst nimmt und mit Strafverfolgungsbehörden vor Ort zusammenarbeitet, um diese zu untersuchen. Es wird insbesondere an Opfer appelliert: Wenn Sie oder jemand, den Sie kennen, Opfer von Kindesmissbrauch geworden ist, wenden Sie sich bitte sofort an die Hotline des Cyber-Teams.

Wichtigste Punkte:

📈 Ein aktueller Bericht zeigt einen starken Anstieg von KI-generierten Inhalten mit sexuellem Missbrauch von Kindern im Darknet, ein Anstieg um 17 % gegenüber dem Vorjahr.

🛑 Die Realitätsnähe und Schwere der gefälschten Inhalte nehmen zu und verursachen größeren Schaden und Leid bei den Opfern.

⚖️ Die rechtliche Definition von KI-generierten Inhalten ist nach wie vor eine Grauzone, und die Strafverfolgungsbehörden stehen vor neuen Herausforderungen.