|
Berlin (ots) - AI Act sollte wie geplant umgesetzt werden. Verzicht auf
Sicherheitsanforderungen für Hochrisiko-Produkte schadet der Industrie.
TÜV-Verband warnt vor Regulierungsvakuum und Flickenteppich von
Einzelregelungen. Hannover Messe 2026 gestartet.
Der TÜV-Verband hat eine zügige Umsetzung des EU AI Acts nach dem Vorschlag der
EU-Kommission gefordert, um einen europaweit einheitlichen Rechtsrahmen für
industrielle KI-Anwendungen zu schaffen. "Künstliche Intelligenz macht gerade
den Sprung in die physische Welt von Maschinen, Robotik und Geräten", sagt Dr.
Joachim Bühler, Geschäftsführer des TÜV-Verbands, zum Start der Hannover Messe
2026. "KI ermöglicht immer flexiblere Roboter, die mit Menschen Hand in Hand
arbeiten, automatisierte Qualitätskontrollen oder Simulationen mit digitalen
Zwillingen." Die Grundlage dafür bilden die umfangreichen Datenbestände, die in
der deutschen Fertigungsindustrie vorhanden sind. Bühler: "Deutsche Unternehmen
haben die Chance, diesen Datenschatz zu heben und ihre Produktion auf das
nächste Level zu heben. Das Ziel sind eine effizientere Fertigung und bessere
Produkte." Voraussetzung dafür sind neben technischen und digitalen Kompetenzen
die rechtlichen Rahmenbedingungen, um mögliche Risiken bewerten und eindämmen zu
können. "Von physischen KI-Systemen gehen spezifische Gefahren aus, zum
Beispiel, wenn Mensch und Maschine miteinander interagieren oder autonome
Systeme Fehlentscheidungen treffen." Der europäische AI Act sieht daher
bestimmte Sicherheitsanforderungen für Hochrisiko-KI-Systeme vor. "Dieser
risikobasierte Ansatz soll für verschiedene Produktgruppen wie Maschinen,
Medizinprodukte oder auch Spielzeug gelten", betont Bühler. Darüber hinaus
werden auf dieser Basis Industriestandards entwickelt, die beispielsweise die
Qualität der Trainingsdaten, den Schutz vor systematischen Verzerrungen sowie
die Cybersicherheit von KI-Systemen betreffen. Bühler: "Diese industriellen
KI-Standards werden in Europa für den Weltmarkt entwickelt."
Jahreslanges Regulierungsvakuum und unzureichendes Schutzniveau droht
Aktuell wird darüber diskutiert, den bereits beschlossenen AI Act im Rahmen des
"Digital Omnibus" wieder aufzuschnüren und zentrale Regelungen aus dem
Gesetzespaket herauszulösen. Während längere Umsetzungsfristen und Entlastungen
für den Mittelstand sinnvoll sind, warnt der TÜV-Verband davor,
Hochrisiko-Produkte aus dem direkten Anwendungsbereich des AI Act zu streichen.
KI-Produkte mit hohem Risiko sind laut AI Act unter anderem Maschinen,
Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen oder auch Spielzeuge.
Diese Produktgruppen sollen nach dem Willen der Befürworter eines solchen
Sektor-Exits stattdessen über spezifische Einzelgesetze geregelt werden. Dabei
macht es technologisch keinen Unterschied, ob zum Beispiel ein Computer Vision
KI-System in einem Medizingerät oder in einer Fertigungsmaschine Anwendung
findet. Da die technische Basis und die KI-spezifischen Risiken dieselben sind,
müssen dafür auch dieselben Regeln gelten. "Mit einem Sektor-Exit würde der
ursprüngliche Ansatz des AI Acts ausgehebelt, einheitliche Regeln für viele
Produktgruppen zu schaffen. Die Festlegung von Sicherheitsanforderungen für
risikoreiche KI-Anwendungen würde auf unbestimmte Zeit verschoben", sagt Bühler.
"Es droht ein jahrelanges Regulierungsvakuum und anschließend ein Flickenteppich
unterschiedlicher Einzelregelungen." Zugleich müsse das im AI Act politisch
verankert Schutzniveau für KI-Systeme vollständig erhalten bleiben. Bühler:
"Eine Absenkung oder Aufweichung zentraler Sicherheitsanforderungen würde
Vertrauen in KI untergraben und den europäischen Binnenmarkt schwächen."
Aus Sicht des TÜV-Verbands würde eine sektorale Regulierung den Rechtsrahmen
nicht vereinfachen, sondern weiter zersplittern. KI-Anforderungen müssten in
zahlreiche Einzelregelwerke integriert werden - mit unterschiedlichen Standards,
Verfahren und Fristen. Gleichzeitig entwickelt sich KI schneller, als sektorale
Regulierung angepasst werden kann. "Das wäre kein Bürokratieabbau, sondern der
Einstieg in einen regulatorischen Flickenteppich - mit mehr Aufwand, mehr
Unsicherheit und höheren Belastungen für Unternehmen", warnt Bühler. Darüber
hinaus droht die Entwicklung einheitlicher Sicherheitsstandards für KI zum
Erliegen zu kommen, da die beteiligten Unternehmen ihre Experten aus den
entsprechenden Gremien abziehen würden. Bühler: "Europa würde die Chance
verspielen, weltweit eine Führungsrolle bei der Entwicklung von KI-Standards zu
übernehmen." In den Trilog-Verhandlungen seien nun EU-Kommission,
Mitgliedstaaten und EU-Parlament gefordert, den horizontalen Ansatz des AI Acts
zu sichern und klare Regeln für Hochrisiko-KI zu erhalten.
Über den TÜV-Verband: Als TÜV-Verband e.V. vertreten wir die politischen
Interessen der TÜV-Prüforganisationen und fördern den fachlichen Austausch
unserer Mitglieder. Wir setzen uns für die technische und digitale Sicherheit
sowie die Nachhaltigkeit von Fahrzeugen, Produkten, Anlagen und Dienstleistungen
ein. Grundlage dafür sind allgemeingültige Standards, unabhängige Prüfungen und
qualifizierte Weiterbildung. Unser Ziel ist es, das hohe Niveau der technischen
Sicherheit zu wahren, Vertrauen in die digitale Welt zu schaffen und unsere
Lebensgrundlagen zu erhalten. Dafür sind wir im regelmäßigen Austausch mit
Politik, Behörden, Medien, Unternehmen und Verbraucher:innen.
Pressekontakt:
Maurice Shahd
Pressesprecher
TÜV-Verband e. V.
Friedrichstraße 136 | 10117 Berlin
030 760095-320, mailto:presse@tuev-verband.de
http://www.tuev-verband.de | http://www.linkedin.com/company/tuevverband
Weiteres Material: http://presseportal.de/pm/65031/6258426
OTS: TÜV-Verband e. V.
|