- 27. Dezember 2023
- Veröffentlicht durch: Andreas Rossbach
- Kategorie: NEWS
EU AI Act: Zwischen Überregulierung und Risikominimierung
Von Andreas Rossbach, Team Lead Corporate Communications Europe & Israel, Acronis
Mitglied des Leitungskreises der AG CommTech, Themen-Cluster Wirkungsmessung
Der Einsatz von KI in der Kommunikation und im Marketing bietet viele Chancen, aber auch Risiken. Was die politische Einigung zum AI Act bedeutet und worüber Kommunikatorinnen und Kommunikatoren nachdenken sollten – dazu hat sich AG CommTech Mitglied Andreas Rossbach Gedanken gemacht.
Nach langen Diskussionen, verständigten sich die EU-Staaten im Dezember 2023 auf einen politischen Kompromiss zum EU Artificial Intelligence Act (EU AI Act), das weltweit erste umfassende Gesetz zur künstlichen Intelligenz. Der endgültige formale Beschluss wird dieses Jahr erwartet.
Passend dazu erklärte Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder: „ (…)Trotz des auf dem Papier erzielten grundlegenden Kompromisses besteht die bedeutende Herausforderung darin, diese Vereinbarung in praxisgerechte Regeln zu überführen, die eine solide Basis für den verantwortungsbewussten Umgang mit KI schaffen. Die Gefahr, die Anwendung und Entwicklung von KI in Europa zu behindern, anstatt sie zu fördern, bleibt durch Überregulierung weiterhin bestehen (…)“
Risikokategorien als Orientierungshilfe
Der AI Act widmet sich neben der Begriffsdefinition von Künstlicher Intelligenz, auch der Einstufung in Risikogruppen. Gegenwärtig werden vier Risikokategorien vorgeschlagen:
- Ein inakzeptables Risiko
- Ein hohes Risiko
- Ein begrenztes Risiko
- Ein niedriges Risiko
Systeme, die darauf abzielen, Menschen auszubeuten oder zu unterdrücken, würden gemäß dem AI-Act in die Kategorie der inakzeptablen Risiken fallen und wären folglich verboten, sobald der AI-Act in Kraft tritt. Ebenso fallen in diese Kategorie Social Scoring-Systeme, die Menschen aufgrund ihrer Handlungen und Äußerungen bewerten, sowie Systeme, die biometrische Daten in Echtzeit analysieren können KIs, die in die anderen Risikogruppen 2,3 und 4 sind, sind grundsätzlich erlaubt, allerdings müssen die Systeme, je nach Risiko, eine Reihe von Bedingungen erfüllen.
Vier Tipps für Kommunikations- und Marketingverantwortliche
Zunächst ist gemäß der Risikopyramide der EU zu prüfen, ob der Einsatz von KI in einem problematischen Bereich geplant ist, um geeignete Testprotokolle zu implementieren. Wenn beispielsweise die Kommunikationsabteilung in einem Unternehmen KI-Tools für die Generierung von Content einsetzt, könnten falsche Informationen, Rechtschreibfehler, Gender-Stereotypen und andere Probleme auftreten. Derartige Risiken lassen sich jedoch durch entsprechende Maßnahmen minimieren.
Des Weiteren sind Testprotokolle, „gesunder Menschenverstand“ und „kritisches Hinterfragen“ zwingend erforderlich, unabhängig von der Risikostufe, wann immer KI-Tools eingesetzt werden. Denn bis die Hersteller dazu verpflichtet sind, wird es noch einige Zeit dauern, währenddessen jedoch können Fehler auftreten. Es mag zwar verlockend sein, Tausende Pressemitteilungen oder Produktbeschreibungen per Knopfdruck zu generieren, jedoch birgt dies Risiken, wenn sie ohne Überprüfung veröffentlicht werden.
Obwohl KI-gestützte Datenanalysen rasch Erkenntnisse liefern und somit gleichermaßen für Kommunikationsabteilungen und Unternehmen von Interesse sind, bleibt gleichzeitig unsicher, wie mit den generierten Daten umgegangen wird. Daher ist es derzeit nicht ratsam, umfassende Unternehmensdaten den Tools zur Verfügung zu stellen, da die Sicherstellung der Vertraulichkeit noch nicht gewährleistet ist.
Schließlich betont die EU die Notwendigkeit von Transparenz, selbst bei geringen Risiken, nicht umsonst. Daher sollten Kommunikations- und Marketingabteilungen bereits jetzt konsequent AI-gestützte Inhalte klar kennzeichnen (siehe u.a. auch DRPR Richtline). In einer Ära, in der Algorithmen dazu neigen, auch inhaltslose Informationen zu verstärken und uns in filterblasenartige Informationsumgebungen einzusperren, stellt diese Transparenz einen essenziellen Datenpunkt dar. Dieser ermöglicht zumindest eine kritische Interpretation. Es ist absehbar, dass das Transparenzgebot in irgendeiner Form eingeführt wird. Daher ist es sinnvoll, sich bereits jetzt auf Transparenz einzustellen.