Künstliche Intelligenz ist ein Thema, welches immer mehr Relevanz in unserer Gesellschaft findet. Sei es ein Handy mit einer Gesichtserkennung zu entsperren, sein Zuhause mit der eigenen Stimme zu steuern, die Gefühle und anatomischen Informationen wie Herzschlagrate, Blutdruck und Alter durch das Sehen eines Gesichtes zu erkennen oder aber auch visuelle Inhalte, wie Bilder und Videos nach eigener Vorstellung zu generieren. Was vor 10 Jahren noch nach Science-Fiction klang, ist heute Realität. In diesem Beitrag werde ich genauer auf das Thema KI generierte Bilder eingehen und zeigen, inwieweit es die aktuellen Statistiken von Kindesmissbrauchstaten verändern könnte.
Es gibt zwei künstliche Intelligenzen, die inzwischen große Aufmerksamkeit erlangt haben. Bei den KIs handelt es sich um das Computerprogramm DALL·E und den Discord Bot Midjourney. Diese beiden KIs haben eine Gemeinsamkeit. Man gibt ihnen eine Textbeschreibung und sie generieren Bilder daraus. Ich habe beide KIs bereits ausprobiert und diese miteinander verglichen. Ein paar Ergebnisse von DALL·E haben mich dabei besonders fasziniert:
Im groben und ganzen handelt es sich bei dieser Form von KIs um eine mathematische Struktur, welche ein Eingangssignal bekommt und dieses Signal in einem sogenannten künstlichen neuronalen Netz so umformt, dass am Ende ein relativ eindeutiges Ergebnis dabei rauskommt. Unser Gehirn funktioniert dabei ähnlich, wenn auch nicht exakt gleich. Was aber unser Gehirn und künstliche Intelligenzen gemeinsam haben ist, dass sie etwas Brauchen, woraus sie lernen können. Der Grund warum wir eine Katze als Katze erkennen, sobald wir eine sehen liegt daran, dass unser Gehirn viele Katzen bereits im Leben gesehen hat und weiß, wie eine aussieht. Damit eine KI das Gleiche kann, muss man sie mit Unmengen von Katzenbildern und -videos füttern. Je mehr abwechslungsreiche Inhalte die KI bekommt, desto besser wird sie darin, neue Bilder bzw. Videos zu erkennen. Für das Generieren von Inhalten ist es das gleiche der Fall, nur umgekehrt, dass die KI nicht sagt, was in einem Bild ist, sondern dass sie ein Inhalt aus einem Text erstellt. Zurzeit gibt es bereits ein Modell, welches man selbst dafür nutzen kann. Es nennt sich Stable Diffusion und bietet jedem die Möglichkeit selbst eine Bildgenerierungs-KI zu entwickeln, welche auch in der Lage wäre pornografische Inhalte zu generieren. Genauso könnte man das mit Kinderpornografie machen, doch es gibt drei unterschiedliche Methoden, wie man so eine KI trainiert.
1. Methode: Die erste Methode wäre die, dass man die KI mit vielen Bildern bzw. Videos von Kinderpornografischen Material füttert. Wir reden dabei von ca. 10 Tausend bis hin zu 10 Milliarden Bildern / Videos, die die KI benötigen würde, um so etwas zu ermöglichen und da stellt sich jetzt die Frage, ob es das wert ist, so viele Inhalte in denen Kinder missbraucht werden zu erwerben für ein Computerprogramm. Sowohl moralisch als auch rechtlich gibt es bei dieser Methode große Probleme und die Herstellung neuer kinderpornografischer Inhalte würde durch den Erwerb ebenfalls stark gefördert werden, auch wenn dabei Potenzial besteht, die Herstellung durch so eine KI, zukünftig, stark zu verringern.
2. Methode: Alternativ zur ersten Methode könnte man auch fiktive Kinderpornografie verwenden, zum Trainieren einer KI. Das Prinzip ist dabei das gleiche, nur, dass man keine reale Kinderpornografie verwendet, sondern fiktionale. Dies wäre eine Methode die wahrscheinlich am sichersten ist, da hierbei keine Inhalte echter Personen benutzt werden, zum Bereitstellen von Lernmaterial für die KI.
Rechtlich betrachtet wäre diese Methode wohl noch am ehesten vorstellbar in Deutschland, da hierbei keine Straftat erfolgt, solange die Inhalte, welche zum Befüttern der KI benutzt werden nicht selber produziert werden oder die Inhalte von einem nicht sachverständigen Beobachter klar als Computergrafik definiert werden können. Ebenfalls muss für eine Straftat, der resultierende Inhalt der KI als "wirklichkeitsnahe" definierbar sein, oder in einem öffentlichen Bereich verbreitet werden. Ob das Generieren der Inhalte als Herstellen solcher zählt, ist allerdings ungeklärt und bei fiktiver Kinderpornografie kann man auch nie sagen, ob diese reine Fantasie von den Illustratoren sind, oder ein Abbild einer echten Tat mit einem Kind darstellen, was beim Trainieren der KI, wo große Mengen an Bildmaterial benötigt wird ein gewisses Risiko mit sich tragen könnte.
3. Methode: Die dritte Methode ist, dass man keine Kinderpornografie nutzt, um das Modell zu befüttern, sondern, dass man eine Kombination aus Erwachsenenpornografie und ganz normalen Bildern bzw. Videos von Kindern nutzt. Die KI wird dann so eingestellt, dass sie die Handlungen von der Erwachsenen-Pornografie auf die kindlichen Erscheinungsbilder überträgt. Der Entwicklungsprozess einer solchen KI würde viel mehr Rechenaufwand kosten, jedoch ohne das Fördern von Kindesmissbrauch. Wie realistisch das Verhalten der Kinder in den resultierenden Inhalten ist, ist zudem ein Faktor, die schwer künstlich Nachzustellen ist, denn egal wie sehr man Bilder und Videos von adulter Pornografie mit normalen Inhalten von Kindern mischt, die KI wird daraus nie richtig erfahren, wie ein Kind sich in der Position eines Erwachsenen verhalten würde. Dies hat einerseits Vorteile aber andererseits auch Nachteile. Ein Vorteil ist zum Beispiel, dass Erwachsene, welche kinderpornografische Inhalte konsumieren, laut Berichten einiger Medien, meistens keine Inhalte sehen wollen, in denen Kinder verängstigt reagieren oder sich aktiv versuchen zu wehren, weswegen man mit so einer KI gleich zwei Fliegen mit einer Klappe schlagen könnte. Ein Nachteil bei KI-generierten Videos vor allem könnte aber sein, dass Kinder sich etwas zu sehr wie Erwachsene verhalten könnten. Den meisten Pädophilen ist nicht nur das Erscheinungsbild wichtig, sondern auch die tapsige Art der Kinder, wo hier aber nicht ganz ausschließbar ist, ob diese Informationen nicht möglicherweise verloren gehen könnten, was aber im Endeffekt wohl trotzdem eine der besten Alternativen ist.
Fazit: Die Entwicklung von KIs schreitet immer weiter voran. Wenn es heute schon KIs gibt wie This Person Does Not Exist, wo schon teilweise Bilder entstehen, bei denen wir meinen könnten, dass diese vollkommen echt sind. Auch Pornografien sind inzwischen schon generiert worden, die sehr realistisch sind, wo man aber nach längerem Hinsehen dann doch Fehler entdeckt. Demnach dauert es aber nicht mehr lange, bis schon die ersten Pornografien in diese Richtung hergestellt werden, die vollkommen Echt aussehen. Gezeichnete Pornografien wurden bereits schon von künstlicher Intelligenz perfekt generiert. Für reale Inhalte existiert zum aktuellen Zeitpunkt aber noch keine fehlerfreie, perfekte KI.
Die Entwicklung solcher KIs kann allerdings auch negative Folgen haben, wie z.B. Job-Mangel, da viele Illustratoren die damit ihr Geld verdienen, oder zumindest ihre Kosten abdecken dadurch weniger Aufträge zum Zeichnen erhalten. Doch auch positives kann die Entwicklung von Bildern durch KIs bewirken. Die Reduzierung von Kindesmissbrauch durch generierter Kinderpornografie ist ein gutes Beispiel dafür, denn durch die Herstellung kinderpornografischer Inhalte durch KIs würden immer mehr Menschen diese Form von Inhalten bevorzugen, woraus resultiert, dass es sich für Menschen, die den Kindesmissbrauch begehen um es zu filmen weniger Gründe darin sehen dies noch fortzusetzen, da deren Inhalte nicht mehr gekauft werden würden. Die Nachfrage sinkt dabei rapide ab wodurch die Herstellung neuer Inhalte und damit weitere Missbrauchstaten reduziert werden. Jedoch wäre es nicht falsch, diese Art von Zugänglichkeit an solchen generierten Inhalten ein wenig einzuschränken, da uneingeschränkter Konsum dieser Inhalte schnell zu Porno-Sucht führen kann. Eine mögliche Form diese Inhalte einzuschränken, ist z.B. über ein System wie bei DALL·E, wo man zuerst eine Art Einladung braucht, um den Zugriff darauf zu erhalten. Verhindert das Kopieren und erneute Hochladen der Inhalte zwar nicht, aber drosselt es stark.