Einer Studie zufolge kann durch künstliche Intelligenz generierter Text in sozialen Medien menschlicher wirken als von echten Menschen geschriebener Text.

Chatbots wie der äußerst beliebte ChatGPT von OpenAI sind in der Lage, menschliche Konversationen basierend auf den Eingabeaufforderungen der Benutzer überzeugend nachzuahmen. Die Nutzung der Plattform nahm letztes Jahr explosionsartig zu und stellte einen Wendepunkt für künstliche Intelligenz dar, da sie der Öffentlichkeit einen einfachen Zugang zur Unterhaltung mit einem Bot ermöglichte, der bei Schul- oder Arbeitsaufgaben helfen und sogar Rezepte für das Abendessen entwickeln kann.

Forscher hinter einer in der Fachzeitschrift Science Advances veröffentlichten Studie, die von der American Association for the Advancement of Science unterstützt wird, waren bereits im Jahr 2020 vom Textgenerator GPT-3 von OpenAI fasziniert und arbeiteten daran, herauszufinden, ob Menschen „Desinformation von korrekten Informationen unterscheiden können, die in Form von Tweets strukturiert sind“, und festzustellen, ob der Tweet von einem Menschen oder einer KI verfasst wurde.

Einer der Autoren der Studie, Federico Germani vom Institut für Biomedizinische Ethik und Geschichte der Medizin an der Universität Zürich, sagte, das „überraschendste“ Ergebnis sei laut PsyPost, dass Menschen KI-generierte Tweets eher als von Menschen erstellt bezeichnen als Tweets, die tatsächlich von Menschen erstellt wurden.

MENSCHEN STUDIEREN ÜBER DEN UNTERSCHIED ZWISCHEN ECHTEN ODER KI-GENERIERTEN BILDERN: STUDIE

KI-Illustration

Auf diesem Illustrationsfoto sind Illustrationen zur künstlichen Intelligenz auf einem Laptop mit Büchern im Hintergrund zu sehen. (Getty Images)

„Die überraschendste Entdeckung war, dass die Teilnehmer oft der Meinung waren, dass von KI erzeugte Informationen eher von einem Menschen stammten als von einer tatsächlichen Person. Dies deutet darauf hin, dass KI Sie eher davon überzeugen kann, eine echte Person zu sein, als eine echte Person Sie davon überzeugen kann, eine echte Person zu sein, was ein faszinierender Nebenbefund unserer Studie ist“, sagte Germani.

Angesichts der rasanten Zunahme der Chatbot-Nutzung haben Technologieexperten und Führungskräfte aus dem Silicon Valley Alarm geschlagen, weil künstliche Intelligenz außer Kontrolle geraten und möglicherweise sogar zum Ende der Zivilisation führen kann. Eine der größten Sorgen, die von Experten geäußert wird, ist, dass KI dazu führen könnte, dass sich Desinformationen im Internet verbreiten und Menschen von etwas überzeugen, das nicht wahr ist.

OPENAI-Chef Altman beschrieb, was „furchteinflößende“ KI für ihn bedeutet, aber ChatPT hat seine eigenen Beispiele

Die Forscher der Studie mit dem Titel „Das KI-Modell GPT-3 (des-)informiert uns besser als Menschen“ untersuchten, „wie KI die Informationslandschaft beeinflusst und wie Menschen Informationen und Fehlinformationen wahrnehmen und mit ihnen interagieren“, sagte Germani gegenüber PsyPost.

Die Forscher fanden 11 Themen, die ihrer Meinung nach häufig anfällig für Desinformation waren, wie etwa die 5G-Technologie und die COVID-19-Pandemie, und erstellten sowohl falsche als auch wahre Tweets, die von GPT-3 generiert wurden, sowie falsche und wahre Tweets, die von Menschen geschrieben wurden.

WAS IST CHATGPT?

Öffnen Sie das AI-Logo

Das OpenAI-Logo auf der Website, das auf einem Telefonbildschirm angezeigt wird, und ChatGPT im AppStore, das auf einem Telefonbildschirm angezeigt wird, sind auf diesem Illustrationsfoto zu sehen, das am 8. Juni 2023 in Krakau, Polen, aufgenommen wurde. (Jakub Porzycki/NurPhoto über Getty Images)

Anschließend versammelten sie 697 Teilnehmer aus Ländern wie den USA, Großbritannien, Irland und Kanada, um an einer Umfrage teilzunehmen. Den Teilnehmern wurden die Tweets vorgelegt und sie wurden gebeten, festzustellen, ob sie genaue oder ungenaue Informationen enthielten und ob sie KI-generiert oder von einem Menschen organisch erstellt wurden.

„Unsere Studie betont die Herausforderung, zwischen von KI generierten und von Menschen erstellten Informationen zu unterscheiden. Sie unterstreicht, wie wichtig es ist, die Informationen, die wir erhalten, kritisch zu bewerten und auf zuverlässige Quellen zu vertrauen. Darüber hinaus möchte ich Einzelpersonen ermutigen, sich mit diesen neuen Technologien vertraut zu machen, um ihr Potenzial, sowohl positiv als auch negativ, zu erfassen“, sagte Germani über die Studie.

WAS SIND DIE GEFAHREN VON KI? Finden Sie heraus, warum Menschen Angst vor künstlicher Intelligenz haben

Die Forscher fanden heraus, dass die Teilnehmer Desinformationen, die von einem Mitmenschen erstellt wurden, am besten erkennen konnten, als Desinformationen, die von GPT-3 geschrieben wurden.

„Eine bemerkenswerte Erkenntnis war, dass durch KI erzeugte Desinformation überzeugender war als die von Menschen erzeugte“, sagte Germani.

Die Teilnehmer erkannten auch eher Tweets mit präzisen Informationen, die von der KI generiert wurden, als präzise Tweets, die von Menschen geschrieben wurden.

Die Studie stellte fest, dass zusätzlich zu ihrer „überraschendsten“ Feststellung, dass Menschen oft nicht zwischen KI-generierten und von Menschen erstellten Tweets unterscheiden können, ihr Selbstvertrauen, eine Entscheidung zu treffen, während der Teilnahme an der Umfrage gesunken ist.

KI-Computer

Auf diesem Illustrationsfoto vom 18. Juli 2023 sind Illustrationen zur künstlichen Intelligenz auf einem Laptop mit Büchern im Hintergrund zu sehen. (Getty Images )

„Unsere Ergebnisse deuten darauf hin, dass Menschen nicht nur nicht zwischen synthetischem Text und organischem Text unterscheiden können, sondern dass auch ihr Vertrauen in ihre Fähigkeit, dies zu tun, erheblich abnimmt, wenn sie versuchen, ihre unterschiedlichen Ursprünge zu erkennen“, heißt es in der Studie.

WAS IST KI?

Die Forscher sagten, dies liege wahrscheinlich daran, wie überzeugend GPT-3 Menschen nachahmen kann, oder die Befragten hätten möglicherweise die Intelligenz des KI-Systems zur Nachahmung von Menschen unterschätzt.

KI

Künstliche Intelligenz hackt in naher Zukunft Daten. (iStock)

„Wir gehen davon aus, dass Einzelpersonen, wenn sie mit einer großen Menge an Informationen konfrontiert werden, sich möglicherweise überfordert fühlen und den Versuch aufgeben, diese kritisch zu bewerten. Infolgedessen ist es möglicherweise weniger wahrscheinlich, dass sie versuchen, zwischen synthetischen und organischen Tweets zu unterscheiden, was zu einem Rückgang ihres Vertrauens bei der Identifizierung synthetischer Tweets führt“, schreiben die Forscher in der Studie.

Die Forscher stellten fest, dass das System sich manchmal weigerte, Desinformation zu generieren, manchmal aber auch falsche Informationen generierte, wenn es aufgefordert wurde, einen Tweet mit genauen Informationen zu erstellen.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Obwohl es Bedenken hinsichtlich der Wirksamkeit der KI bei der Generierung überzeugender Desinformation aufkommen lässt, müssen wir die Auswirkungen auf die reale Welt noch vollständig verstehen“, sagte Germani gegenüber PsyPost. „Um dieses Problem anzugehen, müssen umfangreichere Studien auf Social-Media-Plattformen durchgeführt werden, um zu beobachten, wie Menschen mit KI-generierten Informationen interagieren und wie diese Interaktionen das Verhalten und die Einhaltung von Empfehlungen für die individuelle und öffentliche Gesundheit beeinflussen.“

By c2q3c