andrew neel 3bIuyZmcM0s unsplash prvwEs braucht eine Balance zwischen einer effektiven Regulierung und dem Fördern innovativer Geschäftsmodelle im Bereich generativer Künstlicher Intelligenz (KI): Dafür haben sich am Mittwochnachmittag die Sachverständigen im Digitalausschuss ausgesprochen. Die Expertinnen und Experten bewerteten in der Anhörung die Potenziale und Risiken generativer KI etwa für die Arbeitswelt und die Gesellschaft und betonten unisono, dass die Zeit dränge. Dies gelte im Hinblick auf Transparenzfragen, etwa danach, wie KI-basierte Texte, Bilder oder Videos gekennzeichnet werden können, aber auch hinsichtlich des europäischen Weges mit dem geplanten AI Act, über den das Europäische Parlament voraussichtlich Mitte Juni abstimmen will.

Jonas Andrulis vom Heidelberger Start-Up Aleph Alpha plädierte dafür, das Level an Regulierung so gering wie möglich zu halten und Geschwindigkeit aufzunehmen. Den aktuellen Zustand der Regulierung nannte er „bedenkenswert.“ Der Entwurf enthalte viele unbestimmte Rechtsbegriffe und Folgenabschätzungen. Es gebe daher ein großes Maß an Unsicherheit bei Kunden und Wettbewerbern. KI sei die Basistechnologie einer „neuen industriellen Revolution“ bei der aktuell wieder US-Tech-Giganten mit „intransparenten Angeboten“ den Ton angäben. Für Deutschland und Europa sei aber die inhaltliche und ökonomische Souveränität entscheidend. „Wir haben kein Microsoft und Google in Europa“, sagte Andrulis mit Blick auf mittlere und kleinere Unternehmen im Bereich KI. Auch Rasmus Rothe (KI-Bundesverband) sprach sich dafür aus, dem Mittelstand keine Steine in den Weg zu legen und pragmatischer zu werden, um wettbewerbsfähig zu bleiben. Er verwies darauf, dass generative KI viele Aufgaben besser ausführen werde als der Mensch und die Technologie zu Wirtschaftswachstum führen könne. Es müsse immer auf den konkreten Einsatzzweck einer KI geschaut werden und künftig mehr in Richtung eines TÜV für KI-Anwendungen gedacht werden, schlug er vor.

Philipp Hacker von der Viadrina-Universität in Frankfurt (Oder) betonte, dass generative KI die Art zu kommunizieren, zu leben und zu arbeiten massiv verändern werde. Mit Blick auf die Regulierung stehe man aktuell an einem Scheideweg: Der letzte Entwurf aus dem Europäischen Parlament gehe in „eine richtige Richtung“, es gebe aber noch erhebliche Mängel, sagte Hacker. So sehe er unter anderem das Risiko, dass Anwendungen, die gesellschaftlich sinnvoll seien, ausgebremst oder verhindert würden. Als Beispiel nannte er den von Google entwickelten KI-basierten Chatbot Bard, der in der EU nicht verfügbar sei. Ein anderes Problem seien die Compliance-Kosten, die kleinere und mittlere Unternehmen nicht stemmen könnten. Hacker sprach sich für gewisse Mindeststandards aus, etwa bei den Trainingsdaten, außerdem für anwendungsbezogene Regelungen für die Bereiche, in denen Hochrisiko-Anwendungen generativer KI angewandt werden, etwa im medizinischen Bereich. Auch Natali Helberger von der University of Amsterdam lobte die Fortschritte beim Regelungsvorschlag für sogenannte foundation models. Da diese Modelle für verschiedenste Zwecke verwendet werden, sei es entscheidend, Entwicklern Anreize zu geben, sich Gedanken um die Sicherheit der Systeme zu machen. Ansonsten würden Probleme etwa mit der Rechtmäßigkeit oder die Qualität der Trainingsdaten betreffend in einer unvorhersehbaren Anzahl nachgelagerter Verwendungen auftreten. Lernen könne man etwa von den Bestimmungen zur Bewertung systemischer Risiken für sehr große Online-Plattformen im Digital Services Act (DSA), sagte die Sachverständige. Sie plädierte außerdem dafür, die Forschung stärker zu nutzen, um die Risikoüberwachung zu stärken und verwies darauf, dass im Hinblick auf Verantwortung zwischen Entwicklern und Nutzern eine Zusammenarbeit erforderlich sei. Diesen Aspekt betonte auch Sandra Wachter vom Oxford Internet Institute. Derjenige, der die Design-Entscheidungen treffe, habe Einfluss auf das Risiko. Er könne etwa entscheiden, ob neue Texte einfließen, um einem Bias entgegenzuwirken.

Die Auswirkungen der KI auf Arbeit und Beschäftigung erläuterte Christian Kellermann von der Hochschule für Technik und Wirtschaft Berlin. Er verwies darauf, dass die aktuelle Studienlage zwar gut, die Aussagekraft allerdings noch limitiert sei. Dies betreffe etwa belastbare Aussagen über den Grad der Substitution von Arbeit. Es sei anzunehmen, dass generative KI gut bei Übersetzungen, der Code-Generierung oder kreativem Schreiben funktioniere, sodass Übersetzer, Meinungsforscher oder PR-Fachleute dieser besonders ausgesetzt sein könnten - anders sähe das aber unter anderem bei Montage- oder Fabrikarbeitern aus, sagte Kellermann. Catelijne Muller (ALLAI) betonte, es sei nicht der Fall, dass die europäischen Regulierungsbemühungen nicht Schritt halten könnten. Die großen Systeme könnten schon jetzt reguliert werden, das forderten die Unternehmen wie etwa OpenAI auch selbst, sagte Muller mit Blick auf Probleme wie Desinformation, Fake News oder das „Halluzinieren“ der Systeme, aber auch die Einstufung als Hochrisiko-Technologie. Die vielen Details dominierten derzeit, sagte Doris Weßels (Fachhochschule Kiel). Dabei rückten drei Grundprobleme in den Hintergrund: Erstens die fehlende Priorisierung, zweitens die unzureichende Geschwindigkeit und drittens, dass es verteilte Zuständigkeiten brauche, sagte sie. Es gebe eine solche Dynamik, doch Prozesse und Strukturen würden ausgebremst, sagte Weßels auch mit Blick auf die Notwendigkeit anderer Fördermöglichkeiten. Sie sprach sich für klare Eckpfeiler im AI Act und eine Kennzeichnungspflicht aus, betonte aber, dass es nicht zu einer Überregulierung kommen dürfe.

Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, nannte die Regelungen der Datenschutz-Grundverordnung (DSGVO) mit Blick auf den AI Act „eine gute Ausgangsbasis“ - es brauche hier aber einen anderen, spezialisierteren Rechtsrahmen. Gerhard Schabhüser vom Bundesamt für Sicherheit in der Informationstechnik verwies darauf, dass, insbesondere wenn mittels KI Entscheidungen getroffen werden, noch Forschung nötig sei.

Quelle: Deutscher Bundestag