Symbolbild:Electronica

Sam Altman, der CEO des kalifornischen ChatGPT-Entwicklers OpenAI, hat sich für eine strikte Regulierung von Künstslicher Intelligenz ausgesprochen. Schon nur wegen der benötigten erheblichen Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein könnten, betonte Altman im Rahmen einer Anhörung im US-Senat in Washington. Diese müssten unter strenger Aufsicht stehen. OpenAI ist mit dem KI-basierten Chatbot ChatGPT sowie der Software, die Bilder auf Basis von Textbeschreibungen erzeugen kann, massgeblich am aktuellen KI-Hype verantwortlich.

ChatGPT entwickelt Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äusserte in der Anhörung diese Sorge und verwies auf die damit verbundenen Risiken.

Altman schlug vor dem Senat die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen könne. Für KI solle eine Reihe von Sicherheitstests vorgesehen werden, zum Beispiel dahingehend, ob sie sich eigenständig weiterverbreiten könnte. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Desweiteren räumte der OpenAI-Chef ein, dass die KI-Technologie in Zukunft zwar einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie jedoch auch das Potenzial, "viel bessere Arbeitsplätze“ zu schaffen. Darüber hinaus schloss Altman bei der Anhörung nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.