News & Aktuelles
05. August 2025
Mehr Transparenz und Sicherheit bei KI-Nutzung

Seit dem 2. August müssen Entwickler von Künstlicher Intelligenz (KI oder englisch AI) neue Richtlinien des sogenannten AI-Acts der Europäischen Union befolgen.
Diese Richtlinien zielen darauf ab, die Transparenz und Sicherheit bei der KI-Nutzung zu erhöhen. Anbieter von KI müssen nun offenlegen, wie ihre Anwendungen funktionieren und mit welchen Datensätzen ihre KI trainiert wird. Die Durchsetzung des AI-Acts ist Aufgabe der Mitgliedsstaaten. Verstöße gegen diese Vorgaben können mit Geldstrafen von bis zu 7 % des weltweiten Unternehmensumsatzes geahndet werden. Am Beispiel der Deutschen Telekom, die selbst KI anbietet und anwendet könnte eine Strafe bei Missachtung bis zu 8 Mrd Euro betragen.
Bleibt zu hoffen, dass die Anbieter von KI dieses Drohszenario auch als solches verstehen und die Mitgliedsstaaten diese Regelung im Sinne der Nutzerinnen und Nutzer schnell umsetzen, damit wir die Künstliche Intelligenz für die Menschen nutzen können und diese nicht nur im Sinne der Anbieter gegen diese verwendet wird.
Zum AI-Act:
Am 1. August 2024 ist die europäische Verordnung über künstliche Intelligenz (AI-Act) in Kraft getreten. Sie zielt darauf ab, die verantwortungsvolle Entwicklung und Verwendung künstlicher Intelligenz in der EU zu fördern.
Sie ist insbesondere auf die potenziellen Risiken von KI für die Gesundheit, die Sicherheit und die Grundrechte der Bürgerinnen und Bürger ausgerichtet.
Mit der KI-Verordnung wird ein einheitlicher Rahmen für alle EU-Länder eingeführt, der auf einer zukunftsgewandten Begriffsbestimmung für KI und einem risikobasierten Ansatz beruht:
Minimales Risiko: Die meisten KI-Systeme, z. B. Spamfilter und KI-gestützte Videospiele, unterliegen keinen besonderen Verpflichtungen, doch Unternehmen können freiwillig zusätzliche Verhaltenskodizes aufstellen.
Besondere Transparenzverpflichtungen: Systeme wie Chatbots müssen ihre Nutzer*innen deutlich darauf hinweisen, dass sie es mit einer Maschine zu tun haben, und bestimmte durch KI erzeugte Inhalte müssen als solche gekennzeichnet werden.
Hohes Risiko: Für KI-Systeme, die als hochriskant eingestuft werden (z. B. KI-basierte medizinische Software oder KI-Systeme für die Personaleinstellung), gelten strenge Anforderungen, z. B. im Hinblick auf Risikominderungssysteme, hochwertige Datensätze, klare Informationen für die Nutzer*innen, menschliche Aufsicht usw.
Unannehmbares Risiko: KI-Systeme, von denen eine klare Bedrohung für die Grundrechte der Menschen ausgeht, sind verboten. Dies gilt z. B. für Systeme, die Behörden oder Unternehmen eine Bewertung des sozialen Verhaltens ermöglichen (Social Scoring).
Die EU will im Bereich der sicheren KI eine weltweite Führungsrolle übernehmen. Durch die Entwicklung eines starken Regelungsrahmens, der auf Menschenrechten und Grundwerten basiert, kann die EU ein KI-Ökosystem aufbauen, das allen Beteiligten Vorteile bringt.
Durch den starken Regelungsrahmen ist ein erster und wichtiger Schritt getan. Als Fachgewerkschaft werden wir uns auch für eine stärkere Mitbestimmung für die Betriebsräte bei KI einsetzen. Dazu bedarf es auch einer Änderung des Betriebsverfassungsgesetzes, denn die oftmals reiner Informationsrechte reichen keinesfalls mehr. Außerdem muss der Begriff Betrieb in eine digitale Arbeitswelt gestellt werden. Unser Ziel ist auch ein besserer Schutz für Beschäftigte.
Ursprünglich veröffentlicht unter https://www.dpvkom.de
Das Kommentieren und Lesen von Kommentaren ist nur für bestätigte Mitglieder möglich.