Symbolbild: Pixabay/Alexandra Koch

Die Erfinder der KI-gestützten (Künstliche Intelligenz) Software Chat GPT, die auf das Schreiben von Texten getrimmt ist, versuchen nun, die Folgen ihres Produktes in den Griff zu bekommen. Die dafür verantwortliche Entwicklerfirma Open AI veröffentlichte nun ein Programm, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer verfasst wurde.

Hintergrund dazu ist, dass Chat GPT die geschriebene menschliche Sprache so gut nachahmen kann, dass es unter anderem Sorgen gibt, damit könnten bei Schul- und Studienarbeiten geschummelt oder im grossen Stil Desinformationskampagnen erstellt werden.

Allerdings funktioniert die Erkennung noch schlecht, wie Open AI selber in einem Blogeintrag einräumte. In Testläufen habe die Software in 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert. Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des "Classifiers" zu verlassen.

Bei Chat GPT handelt es sich um eine Software auf Basis künstlicher Intelligenz, die mit Hilfe enormer Mengen von Texten und Daten darauf trainiert wurde, die menschliche Sprache nachzuahmen. Open AI machte Chat GPT im vergangenen Jahr öffentlich zugänglich und löste damit Bewunderung für die Fähigkeiten der Software und die Sorge vor Betrug aus. Zu den Unternehmen, die gross in Open AI investiert haben, zählt unter anderem Microsoft.