KI. Britische Studenten „machen unanständige Bilder“ von Klassenkameraden

Bilder von sexuellem Kindesmissbrauch sind im Vereinigten Königreich illegal, unabhängig davon, ob sie von der KI erstellt, fotografisch, in Cartoons oder auf andere Weise dargestellt werden. Die Illegalität umfasst auch die Herstellung, den Besitz und die Verbreitung dieser Bilder.



In den letzten Wochen sind von mehreren Kinderschutzorganisationen Berichte und Warnungen über den Einsatz von KI durch Kinder aufgetaucht, um „unanständige“ Bilder von anderen Kindern, insbesondere von anderen Schulkameraden, zu erstellen.


UKSIC, UK Safer Internet Centre, – gegründet im Jahr 2011, ist eine Organisation, die „dazu beiträgt, das Internet zu einem großartigen, sicheren Ort für alle zu machen“, bestehend aus drei Wohltätigkeitsorganisationen, Childnet, Internet Watch Foundation und SWGfL – erklärt: „Britische Schulen müssen dringend handeln, um bessere Sperrsysteme gegen Kindesmissbrauchsmaterial einzuführen.“.



„Die Berichte, die wir über Kinder sehen, die diese Bilder produzieren, sollten keine Überraschung sein. Mit einem solchen schädlichen Verhalten muss gerechnet werden wenn neue Technologien wie KI-Generatoren für die Öffentlichkeit zugänglicher werden“, argumentiert UKSIC-Direktor David Wright.


„Kinder erforschen möglicherweise das Potenzial von KI-Bildgebungsgeräten, ohne den Schaden, den sie anrichten können, vollständig zu verstehen“, fügte er hinzu.


Wright wies darauf hin, dass ein Eingreifen von entscheidender Bedeutung sei, um zu verhindern, dass sich kriminelle Inhalte weiter ausbreiten: „Obwohl die Zahl der Fälle gering ist, befinden wir uns in den Ausläufern und müssen sehen, dass jetzt Maßnahmen ergriffen werden – bevor die Schulen überlastet werden und das Problem wächst.“


Es wird auch davor gewarnt, dass solche Bilder schädliche Auswirkungen auf junge Menschen haben könnten Bilder können dazu verwendet werden Missbrauch oder sogar Erpressung.


Emma Hardy, die auch UKSIC leitet, warnt, dass die Bilder „furchtbar“ realistisch seien: „Die Qualität der Bilder, die wir sehen, ist vergleichbar mit den professionellen Fotos, die jedes Jahr von Kindern in Schulen im ganzen Land gemacht werden.“


„Die fotorealistische Natur von KI-generierten Bildern von Kindern bedeutet das manchmal Die Kinder, die wir sehen, sind erkennbar als Opfer früheren sexuellen Missbrauchs.“sagt Hardy, zitiert in der britischen Veröffentlichung Der Wächter.


Emma, ​​​​die auch Kommunikationsdirektorin bei der Internet Watch Foundation (IWF) ist, Er argumentiert auch, dass Kinder – Produzenten dieser Inhalte – „auf die Tatsache aufmerksam gemacht werden müssen, dass diese Bilder, wenn sie im Internet verbreitet werden, letztendlich von Fremden und Sexualstraftätern gesehen werden.“ Das Missbrauchspotenzial dieser Technologie ist erschreckend.“Alarm.


Im vergangenen Monat hatte die Internet Watch Foundation bereits davor gewarnt, dass KI-generierte Bilder von sexuellem Kindesmissbrauch „das Internet zu überfordern drohen“.


Anfang November unterzeichneten Technologieunternehmen wie TikTok, Snapchat und Stability AI eine gemeinsame Erklärung, in der sie sich verpflichteten, die Verbreitung von durch künstliche Intelligenz generierten Bildern von sexuellem Kindesmissbrauch zu bekämpfen.


Großbritannien kündigte seine Teilnahme an diesem Abkommen an und schloss sich den 27 Unterzeichnern an, darunter den Regierungen der Vereinigten Staaten, Deutschlands und Australiens. „Wir haben beschlossen, den Dialog und die technische Innovation zur Bekämpfung des sexuellen Missbrauchs von Kindern im Zeitalter der KI aufrechtzuerhalten“, heißt es in der Erklärung.



„Wir haben beschlossen, zusammenzuarbeiten, um sicherzustellen, dass wir verantwortungsvolle KI einsetzen, um der Bedrohung durch sexuellen Kindesmissbrauch zu begegnen und wir verpflichten uns, weiterhin zusammenzuarbeiten, um sicherzustellen, dass die von KI bei der Bekämpfung des sexuellen Kindesmissbrauchs ausgehenden Risiken nicht unüberwindbar werden“, betonten die Unterzeichner.


Großbritannien zitierte auf einem IWF-Forum IWF-Daten, die dies belegen DarkwebBenutzer teilten fast dreitausend KI-generierte Bilder, die als Material für sexuellen Kindesmissbrauch identifiziert wurden.



„Jetzt ist es wichtig, dass wir mit gutem Beispiel vorangehen und dem Missbrauch dieser neuen Technologie ein Ende setzen, bevor sie die Möglichkeit hat, sich vollständig durchzusetzen.“sagte IWF-Geschäftsführerin Susie Hargreaves

Clothilde Kopp

„Social-Media-Fan. Bier-Fan. Bacon-Junkie. Stürzt oft hin. Ärgerlich bescheidener Reise-Guru.“