ChatGPT-Hersteller OpenAI präsentiert KI-Sicherheitskonzept

OpenAI/ChatGPT (Foto: Sanket Mishra auf Unsplash.com)

Die US-amerikanische ChatGPT-Herstellerin OpenAI hat ein Sicherheitskonzept für seine fortschrittlichsten KI-Modelle vorgelegt. Dabei steht eine Bewertung des Risikos im Zentrum, das von einer Künstlichen Intelligenz (KI) in vier Kategorien ausgeht, nämlich Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohung, Überzeugungskraft sowie Autonomie des Modells.

Frontier Model Forum: KI-Entwickler arbeiten in Sicherheitsfragen zusammen

Symbolbild: Pixabay

Vier US-amerikanische Konzerne, die bei der Entwicklung von Abwendungen mit künstlicher Intelligenz (KI) die erste Geige spielen, wollen möglichen Risiken der neuen Technologie mit einer gemeinsamen Arbeitsgruppe begegnen. Bei den beteiligten Firmen handelt es sich um Google, Microsoft, Anthropic und die ChatGPT-Entwicklerin OpenAI heute. Die Gruppe erhält den Namen "Frontier Model Forum".

Sicherheit abonnieren