Das meist sehr gute Tech-Blog 404 titelt “FBI Arrests Man For Generating AI Child Sexual Abuse Imagery”, daraus folgender Abschnitt:

“He had on this laptop over 13,000 GenAI images, with hundreds—if not thousands—of these images depicting nude or semi-clothed prepubescent minors lasciviously displaying or touching their genitals,” court records allege. “Still others depict prepubescent minors touching what appear to be adult male penises or engaging in sexual intercourse. Additional evidence from the laptop indicates that he used extremely specific and explicit prompts to create these images. He likewise used specific ‘negative’ prompts—that is, prompts that direct the GenAI model on what not to include in generated content—to avoid creating images that depict adults.”

Das ist alles unfassbar supereklig, mich schüttelt es geradezu beim Lesen solcher Abscheulichkeiten. Trotzdem muß ich darauf bestehen: Der Mann ist nicht (nur) für das Generieren kinderpornographischer Abbildungen verhaftet worden. Er hat einem 15jährigen in Instagram-DMs erklärt, wie man solche Bilder herstellt. Er hat einen Telegram-Channel betrieben, um seine perversen Kreationen unter die Leute zu bringen.

Diese Verbreitung wiegt – meiner Meinung nach – wesentlich schlimmer als das alleinige Erstellen solcher abartigen Inhalte. Denn man könnte schon einwenden: Wem würde er damit schaden, wenn der Mann seiner verabscheuungswürdigen Perversion für sich im stillen Kämmerlein frönte? Den durch Stable Diffusion vergewaltigten Pixeln?

Wenn man Produktion/Konsum so einfach von der Distribution trennen könnte, sorgen KI-Bildgeneratoren hier – je nach Sichtweise – für die technologische Veranschaulichung oder Verwirklichung von Orwells Gedankendelikt.