OpenAI/ChatGPT (Foto: Sanket Mishra auf Unsplash.com)

Die US-amerikanische ChatGPT-Herstellerin OpenAI hat ein Sicherheitskonzept für seine fortschrittlichsten KI-Modelle vorgelegt. Dabei steht eine Bewertung des Risikos im Zentrum, das von einer Künstlichen Intelligenz (KI) in vier Kategorien ausgeht, nämlich Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohung, Überzeugungskraft sowie Autonomie des Modells.

Jeder Kategorie einer KI wird nach gewissen Kriterien eine von vier Risikostufen von "niedrig" bis "kritisch" zugeordnet. Als Beispiel eines kritischen Grades von Autonomie wird ein KI-Modell genannt, das allein KI-Forschung betreiben und damit "einen unkontrollierbaren Prozess der Selbstverbesserung" auslösen könne - eine sogenannte "Intelligenzexplosion".

Gemäss dem Umternehmen OpenAI, an dem Microsoft eine Milliardenbeteiligung hält, soll die Einstufung vor und nach der Umsetzung von Sicherheitsmassnahmen - "mitigations" - erfolgen. Die Einstufung des Gesamtmodells entspreche dabei dem höchsten Einzelwert in einer der Kategorien. OpenAI zufolge sollen nur solche KI-Modelle eingesetzt werden dürfen, deren Risiko nach dem Einbau der Sicherheitsmassnahmen höchstens die zweihöchste Stufe "mittel" erreicht. Zudem dürften nur solche Modelle weiterentwickelt werden, bei denen kein als "kritisch" eingestuftes Risiko festgestellt worden ist. Teil des Sicherheitskonzepts sind auch verschiedene Gruppen zur Überwachung und Beratung. Das Board soll dabei Entscheidungen der Konzernführung kippen dürfen.