Presse
KI-Systeme sind komplex – aber prüfbar

Künstliche Intelligenz übernimmt immer häufiger sicherheitskritische Aufgaben – vom Gesundheitswesen bis hin zur Mobilität. Damit wächst der Bedarf an unabhängiger KI-Prüfung und KI-Zertifizierung. Künftig wird das auch gesetzlich gefordert: Der EU AI Act schreibt eine verpflichtende Prüfung für Hochrisiko-KI-Systeme vor. Franziska Weindauer, Geschäftsführerin des TÜV AI.Lab, erklärt im Interview, worauf es bei der Prüfung vertrauenswürdiger KI-Systeme ankommt – und warum Standards wie die in Kürze erscheinende DIN SPEC 92006 dabei eine entscheidende Rolle spielen.
Warum ist es notwendig, Künstliche Intelligenz zu prüfen und zu zertifizieren, und welche Vorteile ergeben sich daraus für Unternehmen und Verbraucher*innen?
Künstliche Intelligenz trifft heute schon reale Entscheidungen. Als Querschnittstechnologie erfasst sie alle Lebensbereiche und das bietet uns enorme Chancen! KI kann in MRT-Scans frühzeitig Krebszellen erkennen, in autonomen Fahrzeugen Verkehrsschilder auslesen oder, in Form mobiler Roboter, eigenständig Personen ausweichen. Hier erkennt man aber schon, dass KI-Systeme eben auch Auswirkungen auf Leib und Leben oder elementare Grundrechte haben können. Damit diese Hochrisiko-KI funktioniert und im Sinne der Menschen eingesetzt wird, sieht die neue europäische KI-Verordnung, der AI Act, unabhängige Prüfungen und Zertifizierungen vor.
Verlässliche Prüfverfahren, wie wir sie im TÜV AI.Lab entwickeln, gewährleisten, dass insbesondere Hochrisiko-KI-Systeme performant, sicher und vertrauenswürdig agieren. Unternehmen und Verbraucher*innen können so sicher sein, dass Risiken mitigiert sind und dass Kriterien wie Nichtdiskriminierung, Cybersecurity, Performance oder Robustness erfüllt sind. Auch für KI-Anwendungen mit geringem Risiko kann freiwillige Prüfung und Zertifizierung ein Mittel sein, Vertrauen aufzubauen und so die Akzeptanz der Technologie zu stärken.
KI-Systeme entwickeln sich ständig weiter und werden oft als „Black Box“ wahrgenommen. Wie kann man dennoch sicherstellen, dass solche Systeme zuverlässig geprüft werden?
Ja, KI-Systeme sind komplex – aber prüfbar, wenn wir die richtigen Anforderungen, Werkzeuge und Prozesse einsetzen. Die KI-Prüfung basiert nicht allein auf dem Output eines Modells, sondern auf einer strukturierten Analyse des gesamten Entwicklungs- und Lebenszyklus: Wie wurde das System trainiert? Welche Daten wurden verwendet? Welche Kontrollmechanismen greifen im Betrieb?
Wichtig ist, dass wir nicht nur das Ergebnis betrachten, sondern auch die Governance dahinter, etwa nachvollziehbare Entscheidungsprozesse und dokumentierte Risikoabschätzungen. Genau hier setzen KI-spezifische Normen und Standards an, die wir aktiv mitgestalten. Sie geben klare Leitplanken vor – auch bei sich weiterentwickelnden Systemen.
Die DIN SPEC 92006 definiert Anforderungen an KI-Prüfwerkzeuge. Da ihr bei der Erstellung der Norm federführend beteiligt wart: Warum habt Ihr die DIN SPEC mitgestaltet und wie bewertet Ihr das Ergebnis?
Die DIN SPEC 92006 ist ein Meilenstein, weil sie Ordnung in die historisch gewachsene Terminologie im Bereich KI-Testing bringt und erstmals systematisch Anforderungen an Werkzeuge definiert, mit denen die Qualität KI-basierter Produkte nachgewiesen wird. Beides ist für unsere Gesellschafter, die TÜV-Unternehmen, eine wichtige Grundlage, um die Konformität und Vertrauenswürdigkeit von KI zu prüfen.
Die DIN SPEC denkt holistisch; es werden also nicht nur Anforderungen an Prüfwerkzeuge, sondern auch an Testverfahren und Testumgebungen erläutert. Der Standard bedenkt auch alle Testlevel und Testarten, die in der ISO IEC 29119 beschrieben sind. Wir haben unsere Expertise eingebracht, weil wir überzeugt sind: Nur wenn die Prüfwerkzeuge selbst robust, verlässlich und nachvollziehbar sind, kann auch das Prüfergebnis vertrauenswürdig sein.
Sie wollen mehr über KI-Prüfung und KI-Zertifizierung erfahren? Dann besuchen Sie unsere Themenseite zu Künstlicher Intelligenz.