Kein Risiko!

TÜV-Verband will künstliche Intelligenz sinnvoll regulieren

< zurück

Seite: 2/2

Anbieter zum Thema

Reallabore sind nur der halbe Weg in die Sicherheit

Die Einrichtung von KI-Reallaboren („regulatory sandboxes“) ist laut Kröhnert zwar eine gute Möglichkeit, um die Entwicklung und Erprobung von KI-Systemen insbesondere für KMU zu erleichtern. Und auch die Forderung des EU-Parlaments nach der verpflichtenden Einrichtung eines Reallabors in einem oder in Kooperation mit anderen EU-Mitgliedstaaten ist zu unterstützen. Allerdings müsse klar sein, dass die Nutzung eines Reallabors durch ein KI-System allein keine Konformitätsvermutung auslösen könne. „Der Anbieter muss weiterhin ein vollständiges Konformitätsbewertungsverfahren durchlaufen, bevor er sein KI-System auf den Markt bringen kann“, wie Kröhnert feststellt. Das gelte insbesondere dann, wenn eine unabhängige Stelle verpflichtend mit einzubinden sei. Hier sollte der EU-Gesetzgeber im AI Act Klarheit schaffen.

Und schon bei der Entwicklung und Nutzung von Reallaboren sollten unabhängige Prüforganisationen als Partner mit einbezogen werden. Mit dem „TÜV AI Lab“ hat es sich der TÜV-Verband eh schon zur Aufgabe gemacht, die technischen und regulatorischen Anforderungen an künstliche Intelligenz zu identifizieren und die Entwicklung zukünftiger Standards für die Prüfung sicherheitskritischer KI-Anwendungen zu begleiten. „Zudem engagieren wir uns seit längerem aktiv für die Einrichtung von interdisziplinären ‚AI Quality & Testing Hubs‘ auf Landes- und Bundesebene“, merkt Kröhnert noch an.

Chat GPT & Co. müssen im AI Act mitreguliert werden

Die letzten Monate haben nach Erfahrung des TÜV-Experten deutlich gezeigt, welches Entwicklungspotenzial in Basismodellen und generativen KI-Systemen steckt und welche Risiken von ihnen ausgehen können. Es sei daher zu begrüßen, dass das EU-Parlament diese Technologie direkt im AI Act mitregulieren will. Auch generative KI-Systeme müssten nämlich grundlegende Sicherheitsanforderungen erfüllen. In einem zweiten Schritt sollte dann aber auch geprüft werden, welche Basismodelle als hochkritisch einzustufen sind. Diese sollten dann allen Anforderungen des AI Acts unterliegen. Eine unabhängige Drittprüfung durch benannte Stellen ist dabei auch zu empfehlen. Europäische Normungsorganisationen und Prüfstellen arbeiten derzeit daran, entsprechende Normen und Prüfstandards zu entwickeln, wie man abschließend erfährt.

(ID:49664649)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung