Telekommunikation

Studie: EU-Regeln bremsen Künstliche Intelligenz aus

KI-Anwendungen kommen in vielen Branchen zum Einsatz. Doch ihr Einsatz kann auch riskant sein. EU-Regeln sollen eine verantwortungsbewusste Nutzung sichern. Doch sie könnten die Technologie ausbremsen.

Der ChatbotChatGPT von OpenAI hat auch unter privaten Nutzern einen Hype um Künstliche Intelligenz ausgelöst. Foto: Karl-Josef Hildenbrand/dpa
Der ChatbotChatGPT von OpenAI hat auch unter privaten Nutzern einen Hype um Künstliche Intelligenz ausgelöst.

München/Brüssel (dpa) - Die derzeit diskutierte EU-Verordnung für den Einsatz von Künstlicher Intelligenz (KI) stellt viele Unternehmen vor große Hürden. Laut einer Untersuchung der Plattform «appliedAI» würden entsprechend der neuen Regeln mehr als die Hälfte der KI-Anwendungen in den sogenannten Hochrisiko-Bereich fallen, was eine weitere Nutzung nicht ohne einen erheblichen finanziellen und personellen Mehraufwand möglich machen würde. Die Studie soll am Dienstag vom bayerischen Digitalministerium veröffentlicht werden und lag der Deutschen Presse-Agentur vorab vor.

Newsletter

Holen Sie sich den WNOZ-Newsletter und verpassen Sie keine Nachrichten aus Ihrer Region und aller Welt.

Mit Ihrer Registrierung nehmen Sie die Datenschutzerklärung zur Kenntnis.

Konkret kommt die Datenbankrecherche zu dem Ergebnis, dass 18 Prozent der 106 untersuchten KI-Systeme der Hochrisiko-Klasse und 42 Prozent der Klasse mit geringem Risiko zuzuordnen wären. Bei etwa 40 Prozent der untersuchten Anwendungen sei eine Klassifizierung derzeit nicht zweifelsfrei möglich, hieß es weiter. Dies bedeute, möglicherweise könnten für knapp 60 Prozent aller Anwendungen hohe Anforderungen und Zertifizierungspflichten anfallen.

Anfang Dezember hatten die EU-Staaten erstmals umfassende Regeln für den Einsatz Künstlicher Intelligenz festgelegt. Der Beschluss solle sicherstellen, dass KI-Systeme sicher seien und Grundrechte einhielten, teilte der Rat der EU-Staaten damals mit. Bevor die neuen Regeln tatsächlich gelten, müssen sich die EU-Staaten noch mit dem Europaparlament auf eine Linie verständigen.

Zu großer Fokus auf das Risiko?

Das Gesetz setzt auf globale Standards. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen die Anforderungen sein. Für Regelverstöße sind hohe Strafen vorgesehen.

«Die Studie zeigt: Der Entwurf der KI-Verordnung der EU ist zu risikofixiert und an zu vielen Stellen noch unklar. Ein solches Regelwerk funktioniert in der Praxis nicht und bringt unnötige Hürden für die Wirtschaft», sagte Bayerns Digitalministerin Judith Gerlach (CSU). Für die Untersuchung wurden in einer Datenbank registrierte KI-Anwendungen von Unternehmen in Deutschland entsprechend der EU-Regeln bewertet.

appliedAI-Geschäftsführer Andreas Liebl warb für eine Überarbeitung der Regeln zur Risikoklassifizierung: «Während wir definitiv eine gute Regelung für den Einsatz riskanter KI-Systeme brauchen, dürfen wir nicht die Vorteile dieser Systeme vergessen und uns einseitig auf das Risiko fokussieren.» Hinzu komme, dass jede Art von Unsicherheit in Kombination mit hohen Strafen dazu führe, dass Unternehmen übervorsichtig entscheiden werden und womöglich viel zu viele Anwendungen ausschließen.

Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computer-Tomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Auch selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlisten von Streamingdiensten arbeiten ebenfalls mit KI.