Deutsche Unternehmen wie SAP, Siemens und Aleph Alpha streben Einfluss auf den europäischen AI Act an, dessen Erfolg noch unsicher ist.
Deutsche Firmen wie SAP, Siemens und Aleph Alpha setzen derzeit alles daran, Einfluss auf den europäischen AI Act zu nehmen. Dieser Rechtsakt für Künstliche Intelligenz (KI) ist ein Versuch der Europäischen Union, Regeln für eine Technologie zu schaffen, die sich rasant entwickelt. Doch dieser Versuch wirft eine Reihe von Konflikten auf und könnte am Ende sogar an der geplanten Verabschiedung in 14 Tagen scheitern.
Doch warum fordern gerade deutsche Unternehmen wie Porsche, SAP und Siemens Regelungen für KI, obwohl sie selbst davon profitieren? Und woran könnten die Verhandlungen um den AI Act noch scheitern?
Auf dem Handelsblatt KI-Summit appellierte Porsche-IT-Chef Mattias Ulbrich eindringlich für eine ausgewogene Regulierung: “Wir brauchen Regulierung im Bereich der Künstlichen Intelligenz, aber müssen auf die Balance achten, damit Innovationen nicht gehemmt werden.” Auch Jonas Andrulis, CEO von Aleph Alpha, Deutschlands führendem KI-Start-up, warnt vor den möglichen Konsequenzen: “Es kann auf eine Art und Weise ausgehen, die für uns existenziell ist.”
Der AI Act soll unter anderem regeln, unter welchen Bedingungen KI entwickelt und eingesetzt werden darf und soll gleichzeitig Verbraucher schützen. Doch aus Sicht der Industrie könnten zu strenge Regeln die Wettbewerbsfähigkeit Deutschlands in der Schlüsseltechnologie gefährden. Die technologische Entwicklung hat in den letzten Monaten jedoch die regulatorischen Diskussionen in Brüssel überholt. Daher versuchen die Gesetzgeber nun im Eiltempo, auf die Risiken zu reagieren.
Die Konfliktlinie verläuft dabei hauptsächlich entlang einer zentralen Frage: Soll der AI Act auch KI-Basismodelle regulieren? Diese Modelle, zu denen beispielsweise große Sprachmodelle wie OpenAI GPT-4 und Aleph Alpha Luminous gehören, ermöglichen Maschinen die Verwendung natürlicher Sprache. Laut den Anbietern selbst geht von diesen Modellen kein eigenes Risiko aus, weshalb die Regulierung erst bei konkreten Anwendungen wie im Gesundheitsbereich oder Kundenservice ansetzen sollte.
Derzeit plädiert insbesondere das EU-Parlament für umfassendere Regeln, die auch KI-Basismodelle erfassen würden. Mit dem sogenannten Two-Tier-Approach möchten sie leistungsstarke KI-Modelle regulieren, indem Anbieter externe Dienstleister beauftragen müssen, ihre Systeme auf Sicherheitslücken zu testen. Eine umstrittene Methode, da laut KI-Entwicklern wie Aleph Alpha Sicherheitsfilter erst auf Anwendungsebene implementiert werden können.
Deutschlands Start-up-Szene hat dabei eine besondere Rolle in den Regulierungsbestrebungen inne, insbesondere Aleph Alpha und sein französischer Konkurrent Mistral. Doch auch die Regierungen in Berlin und Paris setzen große Hoffnungen auf ihre Start-ups im weltweiten Tech-Wettrennen und befürchten eine Überregulierung, die nicht in ihrem politischen Interesse wäre. Dies könnte dazu führen, dass kapitalstarke Techkonzerne aus den USA und China einen Vorteil haben, da sie die hohen Sicherheitsanforderungen einfacher erfüllen können.
In einem gemeinsamen Brief an Bundeskanzleramt, Bundeswirtschaftsministerium und Digitalministerium äußerten auch die DAX-Konzerne SAP und Siemens sowie das Wirtschaftsforum der SPD Bedenken über eine mögliche Überregulierung. SAP entwickelt beispielsweise einen KI-Assistenten, der mit Hilfe von Microsoft-Technologie automatisch Stellenbeschreibungen verfasst. Deshalb benötigt das Unternehmen Zugriff auf Basismodelle von verschiedenen Anbietern, um rechtssicher agieren zu können.
Die Regierungen Deutschlands, Frankreichs und Italiens haben daher ein sogenanntes Non-Paper veröffentlicht, das die Bedenken der Industrie aufgreift. Demnach sollen Basismodelle lediglich einem Verhaltenskodex unterworfen werden, aber Anbieter müssen in “Model Cards” transparent machen, wie ihre Modelle trainiert wurden. Das Europaparlament bekräftigt jedoch die Forderung nach Regulation von Basismodellen und steht damit nicht allein. Zahlreiche Experten warnen vor den Gefahren, die durch die Anwendung von Foundation Models entstehen können.
Die Organisation Algorithm Watch hat daher zusammen mit der Universität Amsterdam Vorschläge für die Ergänzung des AI Acts gemacht. Diese reichen von einer verpflichtenden Bewertung, wie sich die Technologie auf Menschenrechte auswirkt, bis zu einem garantierten Datenzugriff für Forscher und Zivilgesellschaft.
Auf dem Digitalgipfel der Bundesregierung in Jena betonten auch Bundeswirtschaftsminister Robert Habeck und Digitalminister Volker Wissing das enorme Potenzial von KI. Doch sie mahnten auch, die Chancen nicht aus den Augen zu verlieren und betonten die Notwendigkeit, Regulierungen immer wieder anzupassen, ohne die Entwicklung der Technologie zu behindern.
Die Europäische Union möchte die Gelegenheit nutzen, weltweite Standards für die Regulierung von KI zu setzen. Doch dafür muss schnell gehandelt werden, da zum Jahreswechsel die Ratspräsidentschaft wechselt und im Sommer bereits die Europawahlen anstehen. Die Chance, einen einheitlichen Rahmen für die Regulierung von KI zu schaffen, darf nicht verstreichen.
(eulerpool-AFX)