Symbolbild:Colourbox

Das Marktforschungsunternehmen Gartner prognostiziert, dass bis zum Jahre 2026 KI-generierte Deepfake-Angriffe auf biometrische Gesichtsdaten zunehmen werden. Dies werde dazu führen, dass 30 Prozent der Unternehmen diese Art von Identitätsprüfungs- und Authentifizierungslösungen als unzuverlässig ansehen, so die Researcher.

"In den letzten zehn Jahren haben Fortschritte in der KI die Erstellung von synthetischen Bildern ermöglicht. Künstlich erzeugte Bilder von Gesichtern, bekannt als Deepfakes, können von böswilligen Akteuren verwendet werden, um die biometrische Authentifizierung zu untergraben oder ineffizient zu machen”, sagte Akif Khan, VP Analyst bei Gartner. "Daher könnten Organisationen die Zuverlässigkeit von Identitätsüberprüfungs- und Authentifizierungslösungen anzweifeln, da sie nicht mehr erkennen können, ob die zu prüfenden Gesichter echt sind oder Deepfakes."

Identitätsüberprüfungs- und Authentifizierungsverfahren, die biometrische Gesichtsdaten verwenden, stützen sich heute auf die Erkennung von Präsentationsangriffen (Presentation Attack Detection, PAD), um die Authentizität des Benutzers zu bewerten. "Die gegenwärtigen Standards und Testmethoden für die Definition und Bewertung von PAD-Mechanismen berücksichtigen keine digitalen Injektionsangriffe, die mit den heutzutage erstellbaren KI-generierten Deepfakes durchgeführt werden können", so Khan.

Einer anderen Studie von Gartner zufolge sind Präsentationsangriffe der häufigste Angriffsvektor, aber Injektionsangriffe werden bis 2023 um 200 Prozent zunehmen. Um solche Angriffe zu verhindern, sei eine Kombination aus PAD, Erkennung von Injektionsangriffen und Bildanalyse erforderlich, so Gartner.