Der AI Act, der von den EU-Institutionen verabschiedet wurde, stellt einen wichtigen Schritt für Europa dar, um eine führende Rolle in der sicheren und vertrauenswürdigen Nutzung von künstlicher Intelligenz einzunehmen. Durch die Begrenzung der Risiken und die Förderung der Chancen von KI-Systemen wird Europa seine Position stärken. Dennoch sind weitere Verhandlungen notwendig, um die aktuellen Herausforderungen anzugehen und eine umfassende Regulierung zu gewährleisten.
Inhaltsverzeichnis: Das erwartet Sie in diesem Artikel
Regelungslücke im AI Act: Verbraucherprodukte nicht ausreichend geschützt
Eine Herausforderung des AI Acts besteht darin, dass hochriskante KI-Systeme nur dann als solche eingestuft werden, wenn die physischen Produkte, in die sie integriert werden, bereits einer verpflichtenden Prüfung unterliegen. Dies führt zu einer Regelungslücke, da Verbraucherprodukte wie Spielzeug oder Smart-Home-Geräte nicht unter diese Prüfpflicht fallen. Um die Sicherheitsanforderungen für KI-basierte Verbraucherprodukte zu gewährleisten, muss diese Lücke geschlossen werden.
Herausforderungen bei der Klassifizierung von eigenständiger KI-Software
Ein Problem besteht darin, dass Anbieter von eigenständiger KI-Software selbst die Risikobewertung durchführen und somit potenziell Fehleinschätzungen machen können. Um die Wirksamkeit der verpflichtenden Anforderungen sicherzustellen, sollten klare Klassifizierungskriterien festgelegt werden.
Unabhängige Prüfungen von KI-Systemen stärken Vertrauen und Sicherheit
Um das Vertrauen in hochriskante KI-Systeme zu stärken, ist es unerlässlich, dass unabhängige Prüfungen durchgeführt werden, anstatt sich allein auf die Selbstbewertung der Anbieter zu verlassen. Eine verpflichtende Zertifizierung durch benannte Stellen bietet eine klare Orientierung und gewährleistet, dass die Technologie den erforderlichen Sicherheitsstandards entspricht. Dies fördert nicht nur das Vertrauen der Menschen in KI-Systeme, sondern macht auch „AI Made in Europe“ zu einem globalen Qualitätsstandard und Wettbewerbsvorteil.
Unabhängige Prüforganisationen als Partner für Reallabore in der KI-Entwicklung
Unabhängige Prüforganisationen sollten als Partner bei der Entwicklung und Nutzung von Reallaboren einbezogen werden, um die Sicherheit und Zuverlässigkeit von KI-Anwendungen zu gewährleisten. Der TÜV-Verband spielt hierbei eine aktive Rolle, indem er technische und regulatorische Anforderungen an Künstliche Intelligenz identifiziert und Prüfstandards für sicherheitskritische Anwendungen entwickelt. Zusätzlich sollten interdisziplinäre „AI Quality & Testing Hubs“ auf Landes- und Bundesebene eingerichtet werden, um eine umfassende und unabhängige Prüfung von KI-Systemen zu ermöglichen.
EU-Parlament will Basismodelle und generative KI-Systeme regulieren
Basismodelle und generative KI-Systeme haben sich als äußerst vielversprechend erwiesen, da sie ein enormes Potenzial bieten. Gleichzeitig besteht jedoch die Notwendigkeit, die mit ihnen verbundenen Risiken zu adressieren. Daher ist es zu begrüßen, dass das EU-Parlament plant, diese Technologie im Rahmen des AI Acts zu regulieren. Es ist jedoch wichtig, eine genaue Bewertung der Basismodelle vorzunehmen, um festzustellen, welche als hochkritisch einzustufen sind und den strengen Anforderungen des AI Acts einschließlich unabhängiger Drittprüfungen entsprechen sollten.
Europas Chance: Führend in vertrauenswürdiger KI-Nutzung dank AI Act
Der AI Act schafft die Möglichkeit für Europa, weltweit führend in der vertrauenswürdigen und sicheren Anwendung von künstlicher Intelligenz zu werden. Durch die verpflichtende Prüfung von hochriskanten KI-Systemen durch unabhängige Stellen wird das Vertrauen der Menschen gestärkt und „AI Made in Europe“ kann zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil werden. Dennoch sind weitere Verbesserungen erforderlich, vor allem in Bezug auf die Einbeziehung von Verbraucherprodukten, die Klassifizierung von KI-Systemen und die Durchführung unabhängiger Prüfungen. Nur durch diese Maßnahmen kann Europa sein volles Potenzial im Bereich der künstlichen Intelligenz ausschöpfen.