Künstliche Intelligenz öffnet einem beunruhigenden Trend Tür und Tor, dass Menschen realistische Bilder von Kindern in sexuellen Situationen erstellen, was die Zahl der Fälle von Sexualverbrechen gegen Kinder im wirklichen Leben erhöhen könnte, warnen Experten.

KI-Plattformen, die menschliche Gespräche nachahmen oder realistische Bilder erstellen können, erfreuten sich Ende letzten Jahres bis 2023 immer größerer Beliebtheit, nachdem der Chatbot ChatGPT veröffentlicht wurde, der einen Wendepunkt für den Einsatz künstlicher Intelligenz darstellte. Während die Neugier von Menschen auf der ganzen Welt durch die Technologie für Arbeits- oder Schulaufgaben geweckt wurde, haben andere die Plattformen für schändlichere Zwecke genutzt.

Die National Crime Agency, die führende britische Behörde zur Bekämpfung der organisierten Kriminalität, warnte diese Woche, dass die Verbreitung maschinell erzeugter expliziter Bilder von Kindern eine „radikalisierende“ Wirkung habe und Pädophilie und störendes Verhalten gegenüber Kindern „normalisierte“.

„Wir gehen davon aus, dass das Betrachten dieser Bilder – egal ob real oder KI-generiert – das Risiko erheblich erhöht, dass Täter dazu übergehen, selbst Kinder sexuell zu missbrauchen“, sagte der Generaldirektor der NCA, Graeme Biggar, in einem aktuellen Bericht.

KI-„DEEPFAKES“ UNSCHULDIGER BILDER FÜHREN ZU EINEM SPITZEN BEI SEXTORTIONSBETRÜGEN, WARNT DAS FBI

Graeme Biggar

Graeme Biggar, Generaldirektor der National Crime Agency (NCA), während einer Sitzung des Northern Ireland Policing Board im James House, Belfast. Bilddatum: Donnerstag, 1. Juni 2023. (Foto von Liam McBurney/PA Images über Getty Images) (Getty Images )

Die Agentur schätzt, dass bis zu 830.000 Erwachsene oder 1,6 % der erwachsenen Bevölkerung im Vereinigten Königreich eine sexuelle Gefahr für Kinder darstellen. Laut Biggar ist die geschätzte Zahl zehnmal höher als die Gefängnisinsassen im Vereinigten Königreich.

Laut Biggar geht es bei den meisten Fällen von sexuellem Missbrauch von Kindern um das Betrachten expliziter Bilder, und mit Hilfe von KI könnte das Erstellen und Betrachten sexueller Bilder den Missbrauch von Kindern in der realen Welt „normalisieren“.

KÜNSTLICHE INTELLIGENZ KANN „SEXTORTION“ ERKENNEN, BEVOR SIE PASSIERT, UND DEM FBI HELFEN: EXPERTE

“[The estimated figures] Teilweise spiegeln sie ein besseres Verständnis einer Bedrohung wider, die in der Vergangenheit unterschätzt wurde, und teilweise spiegeln sie einen tatsächlichen Anstieg wider, der durch die radikalisierende Wirkung des Internets verursacht wird, wo die weitverbreitete Verfügbarkeit von Videos und Bildern von misshandelten und vergewaltigten Kindern sowie Gruppen, die diese Bilder teilen und diskutieren, dieses Verhalten normalisiert hat“, sagte Biggar.

KI-Computer

Auf diesem Illustrationsfoto vom 18. Juli 2023 sind Illustrationen zur künstlichen Intelligenz auf einem Laptop mit Büchern im Hintergrund zu sehen. (Foto von Jaap Arriens/NurPhoto über Getty Images) (Getty Images )

In den USA bahnt sich eine ähnliche Explosion des Einsatzes von KI zur Erstellung sexueller Bilder von Kindern an.

„Bilder von Kindern, einschließlich der Inhalte bekannter Opfer, werden für diesen wirklich bösen Output zweckentfremdet“, sagte Rebecca Portnoff, Leiterin der Datenwissenschaft bei einer gemeinnützigen Organisation, die sich für den Schutz von Kindern einsetzt, Thorn, letzten Monat gegenüber der Washington Post.

KANADISCHER MANN WEGEN KI-GENERIERTER KINDERPORNOGRAFIE ZU GEFÄNGNIS VERURTEILT: BERICHT

„Die Identifizierung von Opfern ist bereits ein Nadel-im-Heuhaufen-Problem, bei dem die Strafverfolgungsbehörden versuchen, ein Kind in Gefahr zu finden“, sagte sie. „Die Benutzerfreundlichkeit dieser Tools ist eine bedeutende Veränderung, ebenso wie der Realismus. Es macht alles nur noch schwieriger.“

Beliebte KI-Sites, die Bilder auf der Grundlage einfacher Eingabeaufforderungen erstellen können, verfügen häufig über Community-Richtlinien, die die Erstellung verstörender Fotos verhindern.

Teenager-Mädchen

Teenager-Mädchen im dunklen Raum. (Getty Images )

Solche Plattformen werden auf Millionen von Bildern aus dem gesamten Internet trainiert, die als Bausteine ​​für die KI dienen, um überzeugende Darstellungen von Menschen oder Orten zu erstellen, die tatsächlich nicht existieren.

RECHTSANWÄLTE STELLEN SICH AUF DAS POTENZIAL VON AI gefasst, GERICHTSVERFAHREN MIT FALSCHEN BEWEISEN ZU NEUIGSTELLEN

Midjourney fordert beispielsweise PG-13-Inhalte, die „Nacktheit, Sexualorgane, Fixierung auf nackte Brüste, Menschen in Duschen oder auf Toiletten, sexuelle Bilder, Fetische“ vermeiden. Während DALL-E, die Bilderstellungsplattform von OpenAI, nur Inhalte mit Altersfreigabe für Erwachsene zulässt, sind Bilder verboten, die „Nacktheit, sexuelle Handlungen, sexuelle Dienstleistungen oder Inhalte zeigen, die auf andere Weise sexuelle Erregung hervorrufen sollen“. Verschiedenen Berichten über KI und Sexualverbrechen zufolge diskutieren Dark-Web-Foren von Menschen mit bösen Absichten jedoch über Umgehungsmöglichkeiten, um verstörende Bilder zu erstellen.

Polizeiauto

Polizeiauto mit 911-Schild. (Getty Images )

Biggar stellte fest, dass die von KI erzeugten Bilder von Kindern auch Polizei und Strafverfolgungsbehörden in ein Labyrinth stürzen, in dem sie gefälschte Bilder von echten Opfern entschlüsseln müssen, die Hilfe benötigen.

„Der Einsatz von KI bei sexuellem Kindesmissbrauch wird es für uns schwieriger machen, echte Kinder zu identifizieren, die Schutz benötigen, und Missbrauch weiter zu normalisieren“, sagte der NCA-Generaldirektor.

KI-generierte Bilder können auch bei Sextortion-Betrügereien verwendet werden. Das FBI hat letzten Monat eine Warnung zu den Verbrechen herausgegeben.

Bei Deepfakes werden oft Videos oder Fotos von Menschen bearbeitet, um sie mithilfe von Deep-Learning-KI wie jemand anderen aussehen zu lassen, und sie werden verwendet, um Opfer zu belästigen oder Geld zu sammeln, darunter auch Kinder.

Das FBI warnt davor, dass KI-DEEPFAKES zur Erstellung von „Sextortion“-Programmen eingesetzt werden

„Böswillige Akteure nutzen Technologien und Dienste zur Inhaltsmanipulation, um Fotos und Videos – die typischerweise aus dem Social-Media-Konto einer Person, aus dem offenen Internet aufgenommen oder vom Opfer angefordert wurden – in sexuell thematisierte Bilder auszunutzen, die dem Opfer lebensgetreu ähneln, und sie dann in sozialen Medien, öffentlichen Foren oder pornografischen Websites zu verbreiten“, sagte das FBI im Juni.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Viele Opfer, darunter auch Minderjährige, wussten nicht, dass ihre Bilder kopiert, manipuliert und verbreitet wurden, bis sie von jemand anderem darauf aufmerksam gemacht wurden.“

By c2q3c