Der AI Act wird kommen. Und das ist auch gut so. Doch dessen Umsetzung bleibt ein Drahtseilakt. Wo beginnt der Beschnitt von Innovation? Und was, wenn Regulation das Regulieren unmöglich macht?
Wie weit darf sich künstliche Intelligenz ausbreiten? Die KI-Forschung braucht Grenzen – nur, wo zieht man sie?
Das Europäische Parlament hat im Juni vergangenen Jahres mit dem AI Act rechtliche Rahmenbedingungen für die Entwicklung und den Einsatz künstlicher Intelligenz geschaffen. KI-Unternehmen können sich also auf strengere Richtlinien für ihr Geschäftsfeld einstellen. Solche Richtlinien sind wichtig, dürfen aber die Softwareentwicklung nicht hemmen. Bis der AI Act tatsächlich in Kraft tritt und angewendet wird, werden wohl noch mindestens zwei bis drei Jahre vergehen. Genug Zeit also, um die Rahmenbedingungen zu konkreten Regelungen zu machen, die Wirtschaft, Gesellschaft und Politik voranbringen, statt sie auszubremsen.
Viele nennen als Beispiel für eine Regulierungswut der Europäischen Union die Gurke, deren Länge und Krümmung sich in einem gesetzlich definierten Rahmen bewegen muss, um transportiert und verkauft werden zu dürfen. Dass es bei dieser Regelung eigentlich um normierten, effizienten Transport und damit um Kosten- und Emissionseinsparungen geht, erscheint in der Aufregung oft nebensächlich. Aber gut, für Lebensmittel, Rohstoffe oder immergleiche Produkte funktionieren solche starren Gesetze. Für Software und gerade KI-basierte Produkte sind sie eher hinderlich – Anwendungsbereiche und Entwicklung sind deutlich dynamischer als bei Gurken.
Für den AI Act bedeutet das, dass er keinen Status Quo der Softwareentwicklung festnageln sollte. Bei der Geschwindigkeit, mit der sich KI-basierte Lösungen weiterentwickeln und sich die Anwendungsbereiche erweitern, wird dies auch kaum möglich, geschweige denn sinnvoll sein.
Mit dem AI Act steht noch nichts fest – zunächst wurden Technologien lediglich in verschiedene Klassen eingeteilt, die in weiterer Folge unterschiedlichen Regularien unterworfen werden. Das bedeutet aber auch, dass sich in dieser Hinsicht noch viele Gestaltungsmöglichkeiten bieten. Und es gilt sie zu nutzen, bevor der AI Act zu einem Bürokratiemonster wird, dessen Umsetzung ein viel größeres Hindernis darstellt als etwaige Inhalte.
Nicht nur für Tech-Riesen, auch für kleine und mittelständische Unternehmen muss der AI Act transparent und praktikabel sein. Software, mehr und mehr mit KI-basierten Funktionen ausgestattet, wird heutzutage mit steigender Tendenz in jedem Betrieb eingesetzt. Unternehmen sind geradezu auf sie angewiesen und eine Regulierung darf nicht zur Behinderung einer laufenden Wirtschaft werden – schon gar nicht in essenziellen Bereichen. Die Regelungen sollten daher klar abgegrenzt und verständlich gemacht werden. Auch müssen sie einfach umzusetzen und nicht an zu viele Bedingungen und Bürokratie geknüpft sein. Für diesen Prozess werden am besten alle Stakeholder mit einbezogen: Sicherheits- und KI-Expertinnen, Developer sowie Ethik-Fachleute, Politik und Unternehmen. Werden von Beginn an die Bedürfnisse aller Beteiligten vereint, führt die Zusammenarbeit zu dem gewünschten Ergebnis und bringt sicherere Software hervor, statt ihre Entwicklung zu hemmen.
Und es sind Unternehmen, in denen der Großteil dieser Entwicklungen, der Innovation, stattfindet. Sie treiben den digitalen Wandel voran und bieten Lösungen für heutige und zukünftige Probleme. Natürlicherweise bewegen sie sich damit auf einem wenig oder gänzlich unerforschten Gebiet. Was noch kommen wird, ist schwer zu sagen – und daher auch schwer zu regulieren.
Es hemmt Unternehmen, wenn Gesetze nur aus der Angst heraus geschaffen werden, dass etwas schiefgehen könnte. So kann man auch die Chance verpassen, positive Errungenschaften schneller zu entwickeln und damit die lokalen Standorte zu stärken. Und: Zu starre und umfassende Regelungen können es auch verhindern, irgendwann die richtigen Regularien zu finden. Wenn Unternehmen nicht mehr herausfinden können, welche Entwicklungen in eine problematische Richtung gehen, ist es auch schwierig, sie zu identifizieren und langfristig zu regulieren.
Der Innovation muss Raum gegeben werden, um dann nachzujustieren. Es sollte zudem gezielte Maßnahmen für Europa als Innovationsstandort geben. Wegen zu strenger Regularien wandern leider oft diejenigen Unternehmen ab, die sich die Bürokratie in dieser Form nicht mehr antun möchten. Regulatorische Zwangsjacken sind insbesondere auch für kleine und mittlere Unternehmen ein Hindernis für ihr Wachstum, da sie nicht auf große Rechtsabteilungen wie Konzerne setzen können und wollen. Doch KI als wichtiger Wirtschaftsfaktor der Zukunft muss in Europa gehalten werden. Mit der passenden Gesetzgebung könnte sich Europa sogar zum Go-to-Markt für ethische KI entwickeln. Open-Source-Frameworks, die gemeinsam entwickelt werden oder ein hippokratischer Eid für Menschen in der KI-Entwicklung könnten die ersten Grundsteine dafür legen. Für Details und Umsetzung müssen aber auch hier wieder alle Stakeholder mit an Bord sein.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Die ursprüngliche Motivation zur Einführung eines gewissen Grades an Regulierung von Software und insbesondere KI-Lösungen ist grundsätzlich nicht unbegründet. Ganz konkret soll sie die absichtliche oder auch unabsichtliche Entwicklung potenziell schädlicher Lösungen auf verschiedenen Ebenen verhindern. Dabei geht es nicht zwangsläufig nur um Weltuntergangs-Dystopien, die von vielen KI-Kritikern als Beispiele angeführt werden.
Vielmehr sollen kritische Bereiche geschützt werden. Das betrifft medizinische Anwendungen genauso wie KI-Lösungen, die auf Basis von sensiblen Daten arbeiten oder Software. Es geht also um Sicherheit, Datenschutz und Ethik – alles Themen, die uns allen besonders wichtig sind oder sein sollten.
Wichtig ist dennoch, dass die geplanten Gesetze der Weiterentwicklung und dem Einsatz von ethischer und sinnvoller KI keine Steine in den Weg legen. Wobei auch sinnlose Software – außer für das entwickelnde Unternehmen – kein Problem darstellt, solange sie nicht schädlich und ethisch unbedenklich ist.
Der AI Act braucht Raum für Weiterentwicklung und die Möglichkeit, Entwicklungen, die sich zum Guten wenden, wieder mit aufzunehmen. Er muss Unternehmen die Freiheit bieten, Neues zu erfinden und das Neue ohne viel Aufwand integrieren zu können. Regulierung darf Innovation nicht hemmen, sondern muss sie in sicheres Fahrwasser leiten.
* Sead Ahmetovic ist CEO und CO-Gründer von We Are Developers.