ylliX - Online Advertising Network

Unternehmen, die Software entwickeln, um zu erkennen, ob künstliche Intelligenz oder Menschen einen Aufsatz oder eine andere schriftliche Aufgabe verfasst haben, erleben angesichts des großen Erfolgs von ChatGPT einen Glücksfall.

ChatGPT startete letzten November und wuchs bis Januar schnell auf 100 Millionen aktive Benutzer pro Monat und stellte damit einen Rekord als am schnellsten wachsende Benutzerbasis aller Zeiten auf. Die Plattform erfreut sich besonders großer Beliebtheit bei jüngeren Generationen, darunter Schülern von der Mittelschule bis zum College.

Umfragen haben ergeben, dass etwa 30 % der College-Studenten angaben, ChatGPT seit dem Start der Plattform für Schulaufgaben zu nutzen, während die Hälfte der College-Studenten angibt, dass die Nutzung des Systems eine Form des Betrugs sei.

KI-Erkennungsunternehmen wie Winston AI und Turnitin enthüllen, dass der große Erfolg von ChatGPT auch den Technologieerkennungsunternehmen zugute gekommen ist, da Lehrer und Arbeitgeber versuchen, Personen auszusortieren, die computergenerierte Materialien einreichen, die von Menschen erstellt wurden.

KI wird mit einer Waffendebatte verglichen, während Studenten am Kreuzungspunkt der Technologie stehen

Öffnen Sie das AI-Logo

Das OpenAI-Logo auf einer Website wird auf einem Telefonbildschirm angezeigt und ChatGPT im AppStore wird auf einem Telefonbildschirm in Krakau, Polen, am 8. Juni 2023 angezeigt. (Jakub Porzycki/NurPhoto über Getty Images)

„Das alles geschah innerhalb von ein oder zwei Wochen. Plötzlich konnten wir mit der Nachfrage nicht mehr Schritt halten“, sagte John Renaud, Mitbegründer von Winston AI, gegenüber The Guardian.

Nach Angaben des Unternehmens gilt Winston AI mit einer Genauigkeit von 99 % als „leistungsstärkste KI-Inhaltserkennungslösung“ auf dem Markt. Benutzer können schriftliche Inhalte hochladen, die überprüft werden sollen, und innerhalb von Sekunden meldet das System, ob die Materialien wahrscheinlich von einem Computersystem wie ChatGPT generiert oder von einem Menschen geschrieben wurden.

HOCHSCHULSTUDENTEN GESPRÄCH ÜBER KÜNSTLICHE INTELLIGENZ IM KLASSENZIMMER: „JEDER VERWENDET CHATGPT“

Winston AI bietet Benutzern eine „Skala von 0 bis 100, den Prozentsatz der Wahrscheinlichkeit, dass eine Kopie von einem Menschen oder einer KI erstellt wird“ und sucht nach potenziellen Plagiaten.

Renaud erklärte, dass KI-generierte Materialien „Tells“ haben, die sie als computergeneriert entlarven, darunter „Perplexity“ und „Burstiness“. Unter Perplexity versteht das Unternehmen das Verfolgen von Sprachmustern in einer Schreibprobe und die Feststellung, ob sie der Art und Weise folgen, wie ein KI-System trainiert wurde, oder ob sie einzigartig zu sein scheinen und von einem Menschen geschrieben wurden.

Von Burstiness spricht man, „wenn ein Text eine Ansammlung von Wörtern und Phrasen enthält, die innerhalb einer kurzen Zeitspanne wiederholt werden.“

Renaud sagte gegenüber Fox News Digital, er glaube, dass „die Hauptfrage und Sorge bei der KI-Erkennung darin besteht, ob sie eines Tages nicht mehr erkennbar sein wird.“

„Die Grundlagen der generativen KI basieren auf prädiktiven Daten“, erklärte er. „Alle Modelle, einschließlich ChatGPT, Bard, Claude und Stability Text, wurden auf großen Datensätzen trainiert und werden Ausgaben zurückgeben, die von gut gebauten und trainierten KI-Detektoren ‚vorhersehbar‘ sind. Ich bin fest davon überzeugt, dass dies der Fall sein wird, bis dies der Fall ist.“ echte AGI (Künstliche Allgemeine Intelligenz). Aber das ist vorerst noch Science-Fiction.

„So wie generative KI auf große Datensätze trainiert wird, haben wir unseren Detektor darauf trainiert, durch Deep Learning Schlüsselmuster in ‚synthetischen‘ Texten zu identifizieren.“

Renaud sagte, er sei anfangs „sehr besorgt“ um ChatGPT, aber seitdem seien seine Sorgen nachgelassen. KI wird immer „Tells“ haben, die andere Plattformen erkennen können, sagte er.

KI-GENERIERTE ARTIKEL DES LIBERALEN MEDIENUNTERNEHMENS ERWÜRTEN UND Blamieren MITARBEITER: „F—ING DOGS–T“

„Mit prädiktiver KI werden wir immer in der Lage sein, ein Modell zu erstellen, um es vorherzusagen“, sagte er gegenüber The Guardian.

Leeres Klassenzimmer

Der Innenraum eines Schulklassenzimmers (iStock)

Der Mitbegründer von Winston AI sagte, dass die Plattform hauptsächlich zum Scannen von Schulaufsätzen verwendet wird, während „Verleger, die die Arbeit ihrer Journalisten/Texter vor der Veröffentlichung scannen“, an Bedeutung gewonnen haben und auf dem zweiten Platz für die häufigste Nutzung der Plattform gelandet sind.

„Der Bedarf an KI-Erkennung wird wahrscheinlich außerhalb der Wissenschaft zunehmen. Wir haben viele Verlage und Arbeitgeber, die gerne Klarheit über die Originalität der von ihnen veröffentlichten Inhalte erhalten möchten“, fügte Renaud in Kommentaren gegenüber Fox News Digital hinzu.

Der Chief Product Officer von Turnitin, einem anderen Unternehmen, das KI-generierte Materialien erkennt, veröffentlichte kürzlich einen Brief an den Herausgeber von The Chronicle of Higher Education, in dem er argumentierte, dass KI-Materialien leicht erkannt werden könnten.

PÄDAGOGEN ERFÜLLEN KI-SYSTEME, UM SCHÜLER IM ZEITALTER VON CHATGPT EHRLICH ZU BLEIBEN

Annie Chechitelli von Turnitin antwortete auf einen in „The Chronicle of Higher Education“ veröffentlichten Aufsatz, der von einem Studenten der Columbia University verfasst wurde und in dem es hieß: „Kein Professor und keine Software könnte jemals Materialien erfassen“, die von Studenten eingereicht, aber tatsächlich von einem Computer geschrieben wurden.

„Bereits im ersten Monat, in dem unser KI-Erkennungssystem für Pädagogen verfügbar war, haben wir mehr als 1,3 Millionen wissenschaftliche Einreichungen gekennzeichnet, bei denen mehr als 80 Prozent ihres Inhalts wahrscheinlich von KI geschrieben wurden, Markierungen, die Pädagogen darauf aufmerksam machen, sich die Einreichung genauer anzusehen.“ und dann die Informationen als Entscheidungshilfe nutzen“, schrieb Chechitelli.

Sie fügte hinzu, dass die Schüler vielleicht davon ausgehen, dass die Technologie von heute KI-generierte Schularbeiten nicht erkennen kann, sie aber gleichzeitig eine schlechte Wette darauf eingehen, dass die Technologie von morgen das Betrügen nicht erkennen wird.

GhatGPT openAI-Logo

ChatGPT in einer Illustration vom 4. Mai 2023 (REUTERS/Dado Ruvic/Illustration)

„Selbst wenn es Ihnen gelingt, sich an einem KI-Detektor oder Ihrem Professor vorbeizuschleichen, bleibt die akademische Arbeit für immer bestehen, was bedeutet, dass Sie nicht nur darauf wetten, dass Sie schlau genug oder Ihr Prozess elegant genug sind, um die heute geltenden Kontrollen zu täuschen – Sie „Wir wetten, dass keine Technologie gut genug sein wird, um es morgen zu schaffen. Das ist keine gute Wette“, schrieb sie.

Ähnlich wie Renaud argumentierte Chechitelli, dass KI-Materialien immer „Tells“ haben werden und dass Technologieunternehmen, die die computergenerierten Materialien aufdecken wollen, neue Wege gefunden haben, um die KI-generierten Materialien offenzulegen.

IVY LEAGUE UNIVERSITY ENTHÜLLT PLAN, STUDENTEN IM HERBST MIT KI-CHATBOT ZU UNTERRICHTEN: „ENTWICKLUNG“ DER „TRADITION“

„Wir glauben, dass es immer eine Antwort geben wird“, sagte sie dem Guardian. „Und wir sehen andere Methoden, um es zu entlarven. Es gibt jetzt Fälle, in denen Lehrer von den Schülern verlangen, dass sie persönlich etwas tun, um eine Basislinie festzulegen. Und bedenken Sie, dass wir über 25 Jahre Schülerdaten verfügen, auf denen wir unser Modell trainieren können.“

Chechitelli sagte, dass Turnitin seit der Veröffentlichung von ChatGPT im letzten Jahr ebenfalls einen Anstieg der Nutzung verzeichnet habe und dass Lehrer mehr Wert auf die Verhinderung von Betrug gelegt hätten als in den Vorjahren.

Künstliche Intelligenz

Eine Art generativer KI, ChatGPT, hat kürzlich die Welt im Sturm erobert. (iStock)

„Jedes Jahr wird eine Umfrage zu den größten Unterrichtsherausforderungen der Lehrer durchgeführt. Im Jahr 2022 lag die ‚Verhinderung von Schülerbetrug‘ an zehnter Stelle“, sagte sie. „Jetzt ist es die Nummer eins.“

College-Studenten, die Anfang des Jahres von College Rover befragt wurden, berichteten, dass 36 % ihrer Professoren mit dem Scheitern drohten, wenn sie dabei erwischt würden, KI für Studienleistungen einzusetzen. Etwa 29 % der befragten Studenten gaben an, dass ihre Hochschule Leitlinien zu KI herausgegeben habe, während die Mehrheit der Studenten (60 %) sagte, sie glaube nicht, dass ihre Schule KI-Technologien gänzlich verbieten sollte.

Angesichts der Besorgnis, dass Studenten zunehmend mithilfe von KI betrügen, sind einige Colleges in den USA dazu übergegangen, die revolutionäre Technologie zu nutzen und sie in Klassenzimmern zu implementieren, um den Unterricht und die Kursarbeit zu unterstützen.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Die Harvard University beispielsweise kündigte an, dass sie diesen Herbst KI-Chatbots einsetzen wird, um den Unterricht eines Flaggschiff-Programmierkurses an der Schule zu unterstützen. Die Chatbots werden „Studenten so gut wie möglich durch Software unterstützen und die nützlichsten Ressourcen – die Menschen – neu zuweisen, um Studenten zu helfen, die sie am meisten brauchen“, so David Malan, Professor für Informatik an der Harvard University.

By c2q3c