Seit Jahren steigen die Fallzahlen im Bereich Kinderpornografie zuverlässig an und erreichen jedes Jahr ein neues Rekordniveau. Auch 2024 werden wir voraussichtlich wieder einen Anstieg der Fallzahlen sehen. Um diesem Anstieg Herr zu werden, schlagen die Regierungen der letzten Jahre immer wieder die gleichen Lösungen vor: Ausweitung von Strafen, Verschärfung von Strafmaßen, sowie Erweiterung von Ressourcen und Befugnissen für Ermittlungsbehörden. Trotz steigender Ressourcen und erhöhter Aufmerksamkeit, die das Thema Kindesmissbrauch und Kindesmissbrauchsabbildungen erhalten haben, konnten die bisher vorgeschlagenen Lösungen nichts gegen den steigenden Trend ausrichten.

Die Fallzahlen wegen Kinderpornografie steigen seit Jahren extrem an. Quelle: PKS 2023
Mit Blick auf die Zahlen ist es nicht weit hergeholt zu sagen, dass der bisherige, vor allem auf Repression und Strafe ausgerichtete Ansatz komplett darin versagt hat, das Problem in den Griff zu bekommen. Im Gegenteil ist das Problem mit jeder Strafverschärfung nur noch größer geworden.

Dabei hat der Kampf gegen Kinderpornografie, wie er aktuell geführt wird, weitreichende Folgen, die nicht nur Abbildungen von realem Missbrauch betreffen. Auch Fiktivpornografie wie Zeichnungen oder Geschichten, bei deren Erstellung keine echten Kinder involviert sind, werden zunehmend kriminalisiert und deren Konsument:innen auf eine Stufe mit tatsächlichen Missbrauchstäter:innen gestellt. Anstatt sich auf die Verfolgung von Inhalten zu fokussieren, die tatsächlich Kindern schaden, führen viele Länder eher einen Krieg gegen die Sexualisierung von Kindern an sich und damit auch gegen Menschen, die Kinder sexuell anziehend finden können. Einzelne Kinderschutzorganisationen wie die britische IWF wehren sich sogar gegen jegliche Differenzierung von realen Missbrauchsabbildungen und fiktiver Kinderpornografie und diffamieren diese als gefährliche Verharmlosung, so als sei es nichts als ein unwesentliches Detail, ob für eine Darstellung ein reales Kind missbraucht wurde oder nicht. Dies zeigt vielleicht mehr als alles andere, dass es beim Kampf gegen Kinderpornografie oft weniger um den Schutz realer Kinder und mehr um die Kriminalisierung einer als „gefährlich“ empfundenen Sexualität geht.

Mit dem Aufkommen generativer künstlicher Intelligenz und insbesondere KI-Bildgeneratoren wie DALL·E oder Stable Diffusion hat sich die Situation von fiktiver Kinderpornografie noch einmal signifikant geändert. Derartige Generatoren ermöglichen es, komplett fiktive kinderpornografische Szenarien nach eigenem Geschmack zu generieren und werden im Grunde seit ihrer allgemeinen Verfügbarkeit auch für diesen Zweck benutzt.

Auch diese neue Form der fiktiven Kinderpornografie wird bislang vor allem einseitig als Gefahr und Bedrohung wahrgenommen, die unbedingt mit allen Mitteln bekämpft werden muss. Erst vor wenigen Tagen berichtete Europol triumphierend, eine von einem Dänen geleitete Plattform für KI-Kinderpornografie zerschlagen zu haben, auf der rein fiktive Bilder von Kindern angeboten wurden. An der Aktion waren 37 internationale Strafverfolgungsbehörden mit 33 Hausdurchsuchungen und 25 Festnahmen gegen Verdächtige aus 19 Ländern beteiligt – ein Riesenaufwand dafür, um rein fiktive Kinder zu schützen. In ihrer Pressemitteilung kritisierte Europol, dass es international keine einheitlichen Regeln geben würde, die KI-Kinderpornografie in jeglicher Form verbieten würden. Ein offensichtlicher Wink mit dem Zaunpfahl an die Gesetzgeber der EU, dies doch mal zu ändern.

In Deutschland wurde dieser Ruf von der Politik schon längst aufgenommen. Dabei zeigt der Gesetzgeber eine gewisse moralische Flexibilität: während wirklichkeitsnahe KI-generierte Kinderpornografie nach geltendem Recht für die Allgemeinheit jetzt schon strafbar ist, wurde Ermittlungsbehörden die Verwendung solcher Inhalte bereits 2020 erlaubt. Wenn Strafverfolgungsbehörden KI-generierte Kinderpornografie benutzen und in den Umlauf bringen, ist dies also kein Problem; machen Pädophile das Gleiche, werden die gleichen Handlungen höchst problematisch und haben internationale Ermittlungen und Festnehmen zufolge. Auch hier zeigt sich, dass es eher um die Kriminalisierung einer Sexualität als um dem Schutz von Kindern geht.

Wenig überraschend werden also auch für diesen neuen Bereich der KI-generierten Kinderpornografie reflexartig die gleichen Ansätze von Repression, Kriminalisierung und Strafverfolgung angewandt, die bisher schon nicht funktioniert haben.

Die Zahlen zeigen, dass der Fokus auf die Kriminalisierung pädophiler Sexualität bisher nichts gebracht hat, um die Probleme zu lösen, die dadurch angeblich gelöst werden sollen. Gleichzeitig legen die rapide steigenden Zahlen nahe, dass wir eine wirkliche Lösung immer dringender brauchen. Was wäre also, wenn wir die bisherigen Ansätze aufgeben, die offenbar nichts gebracht haben, und neue Ansätze ausprobieren? Was wäre, wenn wir KI-generierte Kinderpornografie nicht nur als eine neue Bedrohung wahrnehmen, sondern als eine bisher noch nicht dagewesene Chance?

Staatlich zertifizierte Kinderpornografie: ein Gedankenexperiment

Ich möchte an dieser Stelle einmal ein Gedankenexperiment versuchen und einen alternativen Ansatz entwickeln, mit dem wir Kindesmissbrauchsabbildungen im Netz womöglich vielversprechender bekämpfen können als mit einem ausschließlichen Fokus auf Strafe. Im Kern des Gedankenexperiments liegt die Idee, sexuell stimulierendes Material für Pädophile nicht mehr ungeachtet der Frage, ob dadurch jemand zu Schaden kommt oder nicht pauschal unter Straft zu stellen, sondern Fiktivpornografie bewusst als harmlose Alternative für Menschen, die Kinder sexuell attraktiv finden zu legalisieren und zu schützen. Hier kann KI-generierte fiktive Kinderpornografie eine Schlüsselrolle einnehmen, da damit auch höchst individuelle sexuelle Fantasien bedient werden können, ohne dass dabei echte Kinder involviert sein müssen. Als Pädophiler will ich ein Interesse an solchen Inhalten und eine daraus resultierende Voreingenommenheit nicht leugnen, werde aber später argumentieren, dass mein Gedankenexperiment nicht nur für Pädophile, sondern im Grunde für alle an der Frage beteiligten Parteien positive Folgen haben kann.

Ganz grundsätzlich ist das Thema der künstlich generierten Kinderpornografie durchaus ethisch komplex und nicht ganz einfach pauschal zu bewerten. Viel hängt davon ab, wie die Bilder generiert wurden, und ob es sich bei den generierten Bildern um Fantasiekinder handelt, oder um veränderte Bilder echter Kinder (Deepnudes). Im Folgenden werde ich den Begriff der ethischen Kinderpornografie benutzen, um Kinderpornografie zu beschreiben, für deren Erstellung keine echten Kinder zu Schaden gekommen sind oder ausgenutzt wurden. Derartige Kinderpornografie zeigt keine echten Kinder, schadet damit auch keinem echten Kind und nutzt kein tatsächlich existierendes Kind aus, und ist somit aus meiner Sicht ethisch vertretbar. Wenn es um KI-generierte Kinderpornografie geht, ist es etwas schwieriger zu bewerten, was als ethisch vertretbar betrachtet werden kann. So kann zum Beispiel selbst ein Bild, das kein real existierendes Kind zeigt dennoch mithilfe eines Modells generiert worden sein, in dem auch echte Missbrauchsabbildungen enthalten sind. Da derartig erzeugte Bilder indirekt immer noch von realem Kindesmissbrauch profitieren, würde ich derartige Inhalte nicht als ethische Kinderpornografie kategorisieren. Dies ist aber keineswegs notwendig, um mithilfe von KI fiktive Kinderpornografie zu erzeugen. Denkbar ist zum Beispiel auch, eine KI mit Zeichnungen und legalen Bildern zu füttern, zu deren Nutzung die dargestellten Personen als Erwachsene ihr Einverständnis gegeben haben.

Das Problem bei Plattformen wie derjenigen, die von Europol kürzlich hochgenommen wurde, besteht darin, dass insbesondere aus Sicht der Konsument:innen schwer nachzuvollziehen ist, ob es sich wirklich um ethische Kinderpornografie handelt, oder ob für die Generierung von Bildern nicht doch echte Missbrauchsabbildungen genutzt werden. Es gibt gewissermaßen kein „Gütesiegel“ für KI-generierte Kinderpornografie, welche die ethische Unbedenklichkeit attestiert. Was wäre aber, wenn es so ein Gütesiegel tatsächlich geben würde?

Angenommen, dass es einen oder mehrere Anbieter gibt, die mit staatlicher Legitimierung einen Service zur Generierung künstlicher Kinderpornografie anbieten dürfen. Diese Anbieter würden regelmäßig überprüft werden, um sicherzustellen, dass sie auch wirklich keine Missbrauchsabbildungen zur Generierung ihrer Bilder nutzen. Erfüllen sie diese Anforderung, bekommen sie eine Zertifizierung, die es ihnen erlaubt, ihren KI-Service anzubieten und ihren Kund:innen die Garantie gibt, dass es sich bei allen von dem Anbieter ausgestellten Inhalten um ethisch vertretbare Kinderpornografie handelt.

Der Aufbau solcher Stellen würde nicht nur Konsument:innen die Sicherheit geben, mit ihrem Verhalten keinen Kindern zu schaden und sich rechtlich auf der sicheren Seite zu befinden, sondern auch dem Staat neue Möglichkeiten geben, den Bereich der KI-generierten effektiver zu regulieren. So könnten diese staatlich zertifizierten Anbieter außerdem dazu verpflichtet werden, jedes generierte Bild mit einer technischen Signatur zu versehen, die es ermöglicht zu verifizieren, dass diese Bilder tatsächlich von den entsprechenden Stellen KI-generiert wurden. Dies würde es ermöglichen, schnell und automatisiert zu erkennen, dass ein Bild – ganz egal, wie realistisch es ist – von einer staatlich zertifizierten Stelle generiert wurde und demnach definitiv fiktiv und legal ist. Eine derartige Kennzeichnungspflicht für KI-generierte Inhalte gibt es in der EU mit dem AI Act bereits, wird aber ohne gleichzeitige Legalisierung von Anbietern für KI-generierte Kinderpornografie kaum Wirkung auf den Bereich haben. Wer mit KI nach heutigem Stand illegal Kinderpornografie generiert, wird sich kaum um die rechtliche Verpflichtung kümmern, diese Inhalte als KI-generiert zu kennzeichnen.

Win-win für alle

Ich behaupte, dass dieses Szenario für alle eine Win-win-Situation wäre.

Für Pädophile würde dies zunächst einmal eine Möglichkeit für einen eindeutig legalen Umgang mit der eigenen Sexualität eröffnen. Dies ist wichtig, da es derartige Möglichkeiten derzeit kaum gibt. Zeichnungen befinden sich in einem rechtlichen Graubereich und können schnell die Schwelle zum Strafbaren überschreiten, wenn sie zu realistisch sind. Das Gleiche gilt für 3D-Animationen und computergenerierte Grafiken. Sexspielzeuge in kindlicher Form werden seit 2021 mit hohen Haftstrafen bedroht, und selbst das Aufschreiben eigener Fantasien kann unter Umständen rechtlich gegen einen verwendet werden. Am Ende bleiben nur noch sehr beschränkte Möglichkeiten übrig, mit den eigenen Fantasien umzugehen, ohne dabei Strafverfolgung befürchten zu müssen. Dadurch, dass alle Optionen kriminalisiert werden, verschwinden die Fantasien aber natürlich nicht einfach, es reduziert lediglich die Möglichkeiten von Menschen, sich überhaupt noch legal zu verhalten. Dass dies am Ende mehr Menschen zu Kriminellen macht, sollte kaum überraschen. Mit dem Angebot eindeutig legaler KI-Generatoren kann diese Kriminalisierung verhindert werden und neue Alternativen für Menschen geschaffen werden, die verantwortungs- und rücksichtsvoll mit ihrer Sexualität umgehen wollen.

Für einige Täter:innen, die tatsächlich reale Kindesmissbrauchsabbildungen konsumieren, um darüber sexuelle Erregung zu erfahren, kann legale und ethische KI-generierte Kinderpornografie wiederum eine echte Alternative darstellen. KI-Bildgeneratoren können Bilder generieren, die genau dem entsprechen, was man selber gerne sehen möchte. Schon alleine das kann KI-Generatoren attraktiver machen als reale Missbrauchsabbildungen. Dazu kommen die ethischen Aspekte, die auch für einige Täter:innen relevant sein dürften. Es fällt leicht zu denken, dass Täter:innen, die etwa im Darknet Missbrauchsabbildungen konsumieren unempathische Monster sind, denen das Leid von Kindern nicht kümmert. Tatsächlich zeigen Untersuchungen krimineller Darknet-Foren, dass schon jetzt ein gewisser Anteil der Nutzer:innen KI-generierte Inhalte präferiert, gerade weil diese keine echten Kinder involviert und kein echtes Leid abbildet.

Täter:innen im Darknet lassen sich aufgrund technischer Anonymisierung kaum realistisch ermitteln: Bei den Ermittlungen gegen die Plattform Boystown kam es bei angeblich 400.000 Mitgliedern am Ende nur zu vier Verhaftungen, bei der Plattform Alice in Wonderland waren es zwar wesentlich mehr, aber immer noch deutlich weniger als 1 % der Nutzer:innen, die letztendlich identifiziert werden konnten. Diese Zahlen, die medial als großer Erfolg gefeiert wurden, zeigen eigentlich nur, dass das Risiko, erwischt zu werden für Täter:innen im Darknet sehr gering ist, weshalb sie durch Strafen wohl auch eher nicht eingeschüchtert werden. Anstatt weiter zu versuchen, was bisher nicht geklappt hat und sich ausschließlich auf Strafverfolgung zu konzentrieren, ist der Aufbau von ethischen und legalen „Konkurrenzprodukten“ als alternatever Ansatz eine vielversprechende Chance, um Menschen aus kriminellen Foren einen Anreiz zu geben, legale Alternativen zu nutzen.

Darüber hinaus kann der Ansatz auch die Arbeit für Ermittlungsbehörden vereinfachen. In der Vergangenheit haben Ermittlungsbeamte immer wieder beklagt, dass die Verbreitung von immer realistischer werdender KI-Kinderpornografie Ressourcen verschwenden würde, da Ermittler:innen zunehmend nach Opfern suchen würden, die gar nicht existieren. Wenn es aber zertifizierte Anbieter für KI-generierte Kinderpornografie geben würde, die verpflichtet sind, die von ihnen generierten Inhalte mit einer Signatur zu versehen, könnten Ermittler:innen bei der Durchsuchung von technischen Geräten über Prüfung dieser Signatur legale KI-generierte Bilder von potenziell echten Missbrauchsdarstellungen einfach und automatisiert unterscheiden und filtern. Dadurch würden sie wesentlich seltener in die Situation kommen, dass sie ihre Zeit mit der „Rettung“ nicht existierender Kinder verschwenden. Tatsächlich fällt mir keine andere Lösung ein, um dieses Problem aus Sicht der Ermittlungsbehörden zu lösen. Die Erstellung von KI-Inhalten noch umfassender zu kriminalisieren würde nur noch mehr Arbeit für die Behörden bedeuten, die diese neuen Straftatbestände auch verfolgen müssten und damit noch mehr Zeit für rein fiktive Inhalte verschwenden, die besser in dem Schutz echter Kinder investiert wäre. Und ob damit am Ende die Herstellung und Verbreitung von KI-Inhalten eingedämmt werden würde, darf ebenfalls bezweifelt werden, schließlich hat die immer weiterreichende Kriminalisierung von „konventioneller“ Kinderpornografie auch nicht deren zunehmende Verbreitung verhindert.

Egal ob mit oder ohne staatlich zertifizierte Anbieter, auch die Bundesregierung erwartet, dass der Anteil KI-generierter Kinderpornografie in den nächsten Jahren noch deutlich zunehmen wird. Seltsamerweise wird dies eher als etwas Negatives gesehen. Dabei stellt sich die Frage, ob es nicht besser ist, wenn auch in kriminellen Darknet-Foren zunehmend nur noch KI-generierte Inhalte geteilt werden. Betroffene von Missbrauchsabbildungen berichten oft, dass sie unter dem Gedanken sehr leiden, dass die Aufnahmen von ihnen weiter geteilt werden, ohne dass sie Kontrolle darüber haben, wer die Aufnahmen sieht. Wäre es also nicht zu bevorzugen, dass statt realer Bilder immer mehr künstlich generierte Bilder auf kriminellen Plattformen geteilt werden, und die realen Bilder vielleicht sogar gar nicht mehr von künstlich generierten unterschieden werden können? Denkbar wäre auch, mithilfe von Anbietern für KI-generierte Kinderpornografie die Foren und Plattformen mit gewaltigen Massen an rein fiktiven Inhalten zu fluten, welche echte Inhalte zunehmend verdrängen könnten. Die Verdrängung echter Missbrauchsabbildungen aus der Zirkulation wiederum kann auch nur im Sinne der darauf abgebildeten Betroffenen sein.

Grenzen des Ansatzes

Bisher bin ich davon ausgegangen, dass der Aufbau staatlich zertifizierter Anbieter für KI-Kinderpornografie problemlos möglich ist, und habe mich auf die Chancen und mögliche positive Folgen konzentriert. Trotz all dem hat das Gedankenexperiment einige offene Fragen und Herausforderungen, die ich auch nicht verschweigen will.

Vor allem stellt sich zunächst die durchaus nicht leicht zu beantwortende Frage, wie sichergestellt werden kann, dass die Trainingsdaten einer KI keine Bilder enthalten, für deren Erstellung echte Kinder ausgenutzt wurden. Das Problem existiert schon bei gewöhnlichen und allgemein verfügbaren KI-Bildgeneratoren: So wurde zum Beispiel im Datensatz LAION-5B, mit dem unter anderem Stable Diffusion trainiert wurde, von Forschern Links zu Missbrauchsabbildungen gefunden. Damit ausgeschlossen werden kann, dass KI-Generatoren für Kinderpornografie dieses Problem nicht haben, müssten die KI-Modelle zumindest gegenüber den Prüfstellen transparent und nachvollziehbar sein.

Eine technische Hürde stellt ebenfalls die Entwicklung einer fälschungssicheren Signatur dar, mit der KI-generierte Bilder eindeutig als solche identifiziert werden können. Bisher gibt es verschiedene Ansätze dazu, die aber alle ihre Limitierungen haben. Die Forschung hat sich bisher aber eher auf das Szenario konzentriert, dass Akteure mit schlechten Intentionen versuchen Signaturen aus KI-generierten Bildern zu entfernen, um somit falsche Inhalte als echt zu verkaufen. Bei KI-generierter Kinderpornografie wäre das Bedrohungsszenario andersherum: da die Signatur ein Bild als legal markiert, wäre der Anreiz nicht, die Signatur aus künstlich generierten Bildern zu entfernen, sondern eher, die Signatur in echten Bildern zu fälschen. Gegen diese Form von Manipulation sollten existierende Technologien grundsätzlich robuster sein. Alternativ wäre es hier denkbar, dass die Anbieter von KI-Kinderpornografie eine Liste mit Fingerabdrücken (Hashes) aller Inhalte speichern, die von dem Anbieter generiert wurden. Anstatt eine Signatur in dem Bild selber zu suchen, könnte bei der Verifikation die Listen der Anbieter nach dem Fingerabdruck des Bildes durchsucht werden, um zu bestimmenz, ob sie dieses Bild in der Vergangenheit generiert haben. Das ist zwar deutlich aufwendiger als nur eine Signatur zu generieren, aber technisch absolut realisierbar. Ähnliche Ansätze gibt es heute schon bei der Identifikation von bekannter Kinderpornografie. In beiden Ansätzen besteht aber die Gefahr, dass die Erkennung bei Bearbeitung der Bilder fehlschlägt, und damit ein bearbeitetes, aber im Kern immer noch künstliches Bild nicht mehr als KI-generiert erkannt werden kann und daher fälschlicherweise als echt und illegal klassifiziert wird.

Zu erwähnen ist außerdem, dass selbst im besten Falle das Problem der Verbreitung von Kindesmissbrauchsabbildungen durch Realisierung des Gedankenexperiments nicht vollständig eingedämmt werden kann. Zum einen dürfte KI-generierte Kinderpornografie vor allem attraktiv für pädophile Menschen sein, die aber nur eine Minderheit unter den Konsument:innen von Missbrauchsabbildungen bilden. Auch wäre es naiv zu glauben, dass jede:r Konsument:in sofort zu ethischer Fiktivpornografie wechseln würde, wenn es nur eine entsprechende Option geben würde. Es gibt leider auch Menschen, die Missbrauchsabbildungen gerade deshalb konsumieren, weil sie echte Kinder und echtes Leid darstellen. Diese Teilmenge wird sich kaum überreden lassen, auf rein fiktive Inhalte auszuweichen. Die Bereitstellung von legaler KI-generierter Kinderpornografie wird das Problem der Verbreitung echter Missbrauchsabbildungen also kaum vollumfänglich lösen, kann aber durchaus den Umfang des Problems eindämmen. Weitere Maßnahmen, wie zum Beispiel die großflächige Löschung von Missbrauchsabbildungen, die derzeit von Ermittlungsbehörden noch unangetastet online gelassen werden, würden also weiterhin als Ergänzung benötigt werden.

Paradigmenwechsel

Die größte Herausforderung für die Umsetzung des Gedankenexperiments sind aus meiner Sicht aber keine technischen Detailfragen, sondern dass ein gesamtgesellschaftlicher Paradigmenwechsel stattfinden müsste, um die Idee überhaupt ernsthaft als Option in Betracht zu ziehen. Anstatt pädophile Menschen und pädophiles Begehren grundsätzlich als etwas zu bekämpfendes und zu bestrafendes zu sehen, müsste Pädophilie als eine nicht zu ändernde Sexualpräferenz verstanden werden, deren Ausleben wie bei jeder anderen Sexualität unproblematisch ist, solange dadurch keine anderen Menschen negativ beeinträchtigt werden.

Derzeit ist ein derartiger Paradigmenwechsel nicht einmal im Ansatz zu erkennen. Anlässlich der Ermittlungen gegen KI-Kinderpornografie rechtfertigte Europol ihre Handlungen damit, dass auch dann, wenn es um gänzlich fiktive Inhalte geht und keine echten Kinder involviert sind KI-generierte Kinderpornografie „ein ernsthaftes Verbrechen“ sei, da sie zu der Objektifizierung und Sexualisierung von Kindern beitrage. Dahinter steckt die Idee, dass man pädophil(er) werden könne, wenn man sexualisierte Inhalte betrachtet, in denen Kinder dargestellt sind. Das erinnert an alte Vorurteile gegen Homosexuelle, nach der die Akzeptanz von Homosexualität dazu führe, dass mehr Menschen zur Homosexualität „verführt“ werden. In der Realität gibt es nun einmal pädophile Menschen, nach den meisten Schätzungen rund 1 - 5 % der Bevölkerung. Für diese Teilmenge werden Kinder nicht erst durch äußere Einflüsse sexualisiert, sondern können ganz grundsätzlich sexuell ansprechend sein. Fiktivpornografie bedeutet nicht, plötzlich ein sexuelles Interesse an Kinder zu entwickeln, sondern einen humanen Umgang mit sexuellen Bedürfnissen zu finden, die vorher schon da waren und auch unter Androhung von Strafen nicht einfach so weggehen.

Der Dialog um sexuelle Selbstbestimmung und Freiheiten pädophiler Menschen findet derzeit grundsätzlich in einem Kontext statt, der diese Werte mit dem Schutz von Kindern als scheinbaren Gegensatz gegenüberstellt. Weitere Verbote und die Fortsetzung der auf Strafen fokussierten Ansätze können so spielend leicht gerechtfertigt werden, da in dieser Gegenüberstellung der (vermeintliche) Kinderschutz in jedem Fall gegen die Rechte von Pädophilen triumphieren muss. Empirisch lässt sich diese Sichtweise wiederum nicht halten, im Gegenteil gibt es bei der Untersuchung der Folgen des Verbots von Kindersexpuppen sogar Hinweise darauf, dass die Kriminalisierung mehr Menschen in den Konsum realer Missbrauchsabbildungen abgedrängt hat.

Anstatt Fiktivpornografie nur als zu bekämpfende Bedrohung zu sehen, müssten die Chancen und das Potenzial von sexuell ansprechenden Inhalten, die keine Kinder involviert, erforscht werden. Statt Pädophile grundsätzlich als Feinde zu sehen, sollten denjenigen, die keinen Kindern schaden wollen ein Platz in der Gesellschaft und sichere, legale und ethische Alternativen angeboten werden, und die Härte des Gesetzes für diejenigen reserviert werden, die trotzdem sich entscheiden, das Leid von Kindern in Kauf zu nehmen und aufrechtzuerhalten. Bisher sieht es nicht so aus, als ob in absehbarer Zukunft ein entsprechender Paradigmenwechsel in der Gesellschaft passieren kann. Stattdessen sehen wir auch im relativ neuen Bereich der KI-generierten Kinderpornografie nur die alten, immer gleichen reflexartigen Forderungen nach Strafe. Es erscheint unwahrscheinlich, dass dies plötzlich dazu führen wird, dass anders als in den Vorjahren in der Zukunft weniger Sexualstraftaten gegen echte Kinder verübt werden.

Die reinste Form des Wahnsinns ist es, alles beim Alten zu belassen und gleichzeitig zu hoffen, dass sich etwas ändert.
―Albert Einstein