Die Europäische Union geht mit gutem Beispiel voran. Die Gemeinschaft fordert explizit, dass Künstliche Intelligenz ausschließlich im Dienst und im Sinne von Mensch und Umwelt eingesetzt wird. Das wiederum erfordert Standards und Normen, die entsprechend den ortsunabhängigen KI-Systemen über nationale Gesetze hinausgehen.
EU und KI
Im Mai 2024 haben deshalb die europäischen Regierungen den Artificial Intelligence Act (EU AI Act) verabschiedet. Die Verordnung soll ein einheitliches Regelwerk für die Entwicklung, Vermarktung und Nutzung von Künstlicher Intelligenz schaffen. Die EU fokussiert dabei drei Schwerpunktthemen: die Grundrechte von Menschen und Unternehmen, die Akzeptanz von KI-Technologien sowie die Förderung von Innovation und Wettbewerb. Um die komplexen Technologien gezielt regulieren zu können, klassifiziert sie der EU AI Act in vier Risikostufen: in unannehmbare, hohe, begrenzte und minimale Risiken. Zu den unannehmbaren Risiken gehören beispielsweise Anwendungen für Social Scoring sowie manipulative und ausbeuterische Systeme. Während diese in der EU konsequent verboten sind, werden die mit einem hohen Risiko verbundenen KI-Systeme strengen Anforderungen unterliegen. Dazu zählen beispielsweise kritische Infrastrukturen für Transport und Energie wie auch KI im Personalwesen oder für Prüfungsbewertungen. Zu den KI-Systemen mit begrenztem Risiko zählen unter anderem Chatbots oder generative KI. Für sie soll zumindest eine Kennzeichnungspflicht gelten. Minimale Risiken sieht die EU unter anderem bei KI-gestützten Spielen oder Spam-Filtern. Für sie gelten freiwillige Verhaltenskodizes.
„Die praktische Anwendung des EU AI Act bringt Herausforderungen mit sich, weil einerseits nicht klar ist, wie das Gesetz ausgelegt werden muss und andererseits das Feld der KI-Prüfung noch in vielen Bereichen unbestellt ist. Es ist daher entscheidend, klare und umsetzbare Umsetzungsleitlinien und KI-Prüfverfahren zu entwickeln, damit Unternehmen sich rechtzeitig vorbereiten und aktiv daran mitwirken können, KI von Beginn an sicher zu entwickeln.“
Franziska Weindauer, Geschäftsführerin TÜV AI.Lab
Intelligentes Handeln ist gefragt
Von Anbieter*innen und Anwender*innen von Hochrisiko-KI-Systemen verlangt der AI Act umfangreiche Governance-Strukturen, ein effektives Risiko-Management sowie transparente Dokumentationen. Dazu muss vor der Inbetriebnahme eine Konformitätsbewertung durchgeführt werden. Nutzer von KI-Systemen mit begrenzten Risiken sollten im Vorfeld zumindest eine Bestandsaufnahme vornehmen und die daraus resultierenden Verpflichtungen bewerten. Dafür haben sie bis zur endgültigen Durchsetzung des AI Acts Zeit bis Mitte 2026. Bis zum August 2025 müssen die EU-Mitgliedsstaaten die zuständigen nationalen Behörden benennen, die die Anwendung der Vorschriften überwachen sollen.
Eine Frage der Technologie – und der Ethik
Maschinen werden nicht nur autonomes Fahren oder die Steuerung von Smart Grids übernehmen, sondern auch über die Rehabilitation von Straftätern oder über die Einleitung medizinischer Maßnahmen mitentscheiden. Dabei kennen sie keine ethischen Normen, sondern nur die Maßstäbe, mit denen sie programmiert und trainiert wurden. Sie werden damit nicht nur die Regeln, sondern auch die Unzulänglichkeiten und Vorurteile ihrer Konstrukteure und Erbauer übernehmen. Das ist unabwendbar – allerdings können sich die Akteure im Vorfeld auf Leitlinien einigen. Zum Beispiel darauf, wie die Arbeits- und Entscheidungsteilung von Mensch und Maschine aussehen soll, wie Maschinen in Krisenfällen reagieren müssen und in welchen ethisch heiklen Einsatzbereichen ganz auf KI verzichtet werden soll.
Andere Länder, andere Regeln
Die Vorgehensweise bei der Beantwortung solcher Fragen wird rund um den Globus unterschiedlich gehandhabt: In den USA genießen Innovationstreiber größere Freiheiten nach dem Motto: „Innovate first, regulate second“. In China bestimmen rigide staatliche Vorgaben die KI-Strategie, während in Europa ausgehandelte Regeln und Normen vorherrschen.
Allerdings gelten die amerikanischen Freiheiten nicht für einen Marktauftritt innerhalb der EU. Auch Google, Microsoft, Meta & Co müssen sich an europäische Regeln bzw. den AI Act halten, wenn sie die hiesigen Märkte bedienen wollen. Bei Verstößen drohen Sanktionen bis zu sieben Prozent des weltweiten Jahresumsatzes; das kann schnell zweistellige Milliardenbeträge erreichen.
„AI made in Germany“
Die Bundesregierung hat schon frühzeitig Handlungsbedarf festgestellt und bereits 2018 die „Strategie Künstliche Intelligenz der Bundesregierung“ vorgelegt. Im Rahmen einer ganzheitlichen politischen Gestaltung will sie damit die weitere Entwicklung und Anwendung Künstlicher Intelligenz (KI) in Deutschland stärken; insbesondere in kleinen und mittleren Unternehmen. Auf dieser Strategie basiert die „Deutsche Normungsroadmap KI“, die mithilfe von DIN und 570 Fachleuten aus Wirtschaft, Wissenschaft, öffentlicher Hand und Zivilgesellschaft entwickelt wurde. Die Roadmap dient als strategischer Fahrplan für die Normung mit konkreten Handlungsempfehlungen für Wirtschaft und Politik. Mit diesen und vielen anderen Projekten vertritt DIN deutsche und europäische Interessen und Werte und versteht sich als Brückenbauer zwischen allen interessierten Kreisen: von Entwickler* innen und Anwender*innen über Industrie und Politik bis hin zur Zivilgesellschaft. Normen sorgen bei neuen Technologien wie KI für mehr Transparenz und Akzeptanz sowie einen erleichterten Zugang zu globalen Märkten.
„Wir bieten KI-basierte Matches, die besonders wirkungsvoll sind, z. B. von Bewerber*innen mit Jobs, oder Mentor*innen mit Mentees. Weil es hier um Lebenschancen geht, müssen wir besonders sorgfältig und fair vorgehen – dabei hilft uns die Normung. Denn die besten Lösungen entstehen, wenn die KI in Diensten des Menschen steht.“
Rosemarie Steininger, Gründerin und Geschäftsführerin der Chemistree GmbH
Normen brauchen Sie
Normen sind auf Ihre Mitarbeit angewiesen – denn sie basieren auf der Expertise von Praktiker* innen und Entscheider*innen. Dabei profitieren Sie mehrfach: Sie können Ihr Fachwissen in die Normung einbringen und damit gemeinsam mit anderen die Inhalte von Normen mitgestalten. Gleichzeitig profitieren Sie von einem großen Netzwerk. Wir freuen uns auf Ihre Mitarbeit.
Ansprechpartnerin für Künstliche Intelligenz bei DIN
Bei Interesse wenden Sie sich bitte an: Filiz Elmas-Arslan