Chat GPT: gebannt und erkannt

  Ralf Hersel   Lesezeit: 3 Minuten  🗪 1 Kommentar

Die Verwendung von maschinengenerierten Texten wird zunehmend eingeschränkt, bzw. deren Kennzeichnung gefordert.

chat gpt: gebannt und erkannt

Was Chat GPT ist, muss man wohl nicht mehr erklären. Seit Wochen zieht die auf GPT 3.5 basierende KI-Lösung ihre Runden im Blätterwald. Einerseits bestechen die Ausgaben von Open-AIs maschinellem Lernen durch ihre Vielseitigkeit; nicht nur Chatten, sondern auch das Generieren von Texten, Posie, Software-Code und das Lösen von Rechenaufgaben ist damit möglich. Die Ergebnisse wirken äusserst überzeugend, obwohl der Schein trügt.

Andererseits liefert das neuronale Netz professionell anmutende Antworten, die häufig trotzdem falsch sind. Der Grund dafür liegt im Verfahren hinter Chat GPT. Dort wird aufgrund von Wahrscheinlichkeiten in einem iterativen Prozess das jeweils nächste Wort ermittelt. Das funktioniert, weil die Trainingsdaten gigantisch gross sind.

Die Reaktionen auf fehlerhafte Ausgaben haben nicht lange auf sich warten lassen.

Die Firma Open AI weist selbst darauf hin, dass die Software unfertig sei und die Ergebnisse entsprechend einzuordnen seien. Im Dezember hatte die Code-Schnipsel-Plattform Stack Overflow das Posten von mit Chat GPT erstellten Code verboten. Die Seite war mit fehlerhaftem Code aus Chat GPT geradezu überflutet worden, worin man eine Gefahr für den eigenen Dienst sah.

Auch die International Conference on Machine Learning (ICML), hat den Einsatz solcher KI-Tools verboten. Zwar sei die auf Maschinenlernmodellen basierende Software eine aufregende Entwicklung, sie hätte aber auch unvorhersehbare Folgen. So seien etwa Fragen zum Urheberrecht bislang ungeklärt.

Nun haben auch die öffentlichen Schulen in New York den Einsatz von Chat GPT für deren Schüler:innen verboten. Der Zugang zum Service wurde auf den Geräten und im Schulnetzwerk blockiert. Dafür werden zwei Gründe genannt. Man sehe einen negativen Einfluss auf den Lernfortschritt und befürchtet die Verwendung und Weitergabe von falschen Ergebnissen.

Edward Tian, ein Informatikstudent an der US-Universität Princeton, hat indessen die App GPTZero entwickelt, die unterscheiden können soll, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde. Er setzt dabei auf die grössere Homogenität und konstante Komplexität, die maschinengeschriebenen Texten zu eigen ist. Menschen variieren ihr Texte stärker als Maschinen. Leider konnte ich die Anwendung nicht testen, weil die Webseite derzeit überlaufen ist.

Indessen geht die Entwicklung von Chat GPT weiter. In den nächsten Monaten wird erwartet, dass Open AI das Sprachmodell GPT4 für seine Dienste einsetzen wird. Von öffentlichen Stellen wird gefordert, dass maschinengenerierte Texte mit einem Label gekennzeichnet werden sollen. Daran arbeitet auch Open AI. Künftig sollen die Ergebnisse ihrer Dienste mit einem Wasserzeichen gekennzeichnet sein. Bereits jetzt fordern die Geschäftsbedingungen der Firma, dass generierte Texte eindeutig als solche gekennzeichnet werden müssen.

Quellen:
https://openai.com/
https://openai.com/blog/chatgpt/
https://www.derstandard.at/story/2000142346024/chat-gpt-schulen-in-new-york-city-verbieten-die-nutzung
https://www.heise.de/news/GPTZero-App-soll-von-KI-wie-ChatGPT-geschriebene-Texte-erkennen-koennen-7452141.html

Tags

ChatGPT, Schulen, Kennzeichnung, OpenAI, GPT

azeb
Geschrieben von azeb am 18. Januar 2023 um 12:46

Take me canda