Eine Aufsichtsbehörde warnt davor, dass die Verwendung von künstlicher Intelligenz (KI) zur Erstellung von Deepfake-Fotos die Verbreitung von Bildern, die sexuellen Kindesmissbrauch zeigen, im Internet deutlich verstärken könnte.

In einem Bericht drängt die in Großbritannien ansässige Internet Watch Foundation (IWF) Regierungen und Technologieanbieter, schnell zu handeln, bevor eine Flut von KI-generierten Missbrauchsbildern die Strafverfolgungsbehörden überfordert. Ein Fall in Südkorea, bei dem ein Mann zu einer Gefängnisstrafe verurteilt wurde, weil er mithilfe von KI virtuelle Missbrauchsbilder erstellt hatte, und ein anderer Fall in Spanien, bei dem Jugendliche eine App nutzten, um Mitschüler nackt erscheinen zu lassen, unterstreichen das wachsende Problem.

Deepfake
Bild: DALL-E 3

Generative KI-Systeme könnten missbraucht werden, um solche Bilder in großem Maßstab zu produzieren. Für Ermittler könnte es dann schwierig werden, reale von virtuellen Opfern zu unterscheiden. Zudem könnten Täter die Bilder nutzen, um neue Opfer zu ködern.

Ein Schwerpunkt der Arbeit der IWF ist es, zu verhindern, dass ehemalige Missbrauchsopfer durch die Verbreitung ihrer Fotos erneut missbraucht werden. Die IWF fordert strengere Gesetze, um KI-generierten Missbrauch besser bekämpfen zu können, und betont die Notwendigkeit, dass Technologieanbieter ihre Produkte sicherer machen.
Einige KI-Bildgeneratoren wie DALL-E von OpenAI haben den Missbrauch erfolgreich blockiert. Ein Open-Source-Tool namens Stable Diffusion wurde jedoch von den Angreifern bevorzugt. Obwohl die Entwickler neue Filter eingeführt haben, um unsichere Inhalte zu blockieren, können Benutzer immer noch auf ältere Versionen des Tools zugreifen, die zur Erstellung expliziter Inhalte für Kinder verwendet werden.

Die Herausforderung besteht darin, wie solche Tools kriminalisiert werden können, ohne die Privatsphäre der Nutzer zu verletzen. Obwohl die meisten KI-generierten Missbrauchsabbildungen nach geltendem Recht illegal wären, bleibt unklar, ob die Strafverfolgungsbehörden die Mittel haben, dagegen vorzugehen.

Der Bericht wurde im Vorfeld eines globalen KI-Sicherheitstreffens veröffentlicht, das von der britischen Regierung organisiert wird und an dem hochrangige Teilnehmer, darunter die US-Vizepräsidentin Kamala Harris, teilnehmen werden.