Impulspapier: KI-Agents in der Kommunikation: Was ist machbar? Wo sind die Grenzen?

Impulspapier: KI-Agents in der Kommunikation – Was ist machbar? Wo sind die Grenzen?
Künstliche Intelligenz

KI-Agents in der Kommunikation: Was ist machbar? Wo sind die Grenzen?

Ein wissenschaftlich fundiertes Impulspapier zu Einsatzfeldern, Risiken, Governance und Einführungsfahrplan

📅 Februar 2026
📄 AG CommTech

Jetzt kostenlos herunterladen

Die wichtigsten Erkenntnisse

Nur 12 % der PR-Professionals nutzen KI-Agenten heute tatsächlich – das Hauptproblem ist nicht technische Machbarkeit, sondern vertrauenswürdige Integration in den Workflow.

KI-Agents sind kein Ja/Nein-Thema: Autonomie, Datenzugriff und Aktionsraum sind die drei Stellhebel, mit denen Nutzen und Risiko gleichzeitig gesteuert werden.

Autonome externe Kommunikation bleibt Hochrisiko – Halluzinationen, Prompt-Injection-Angriffe und Datenschutzkomplexität machen menschliche Freigaben unverzichtbar.

Der EU AI Act normiert ab 2026 Transparenzpflichten für KI-generierte Inhalte – Kommunikationsabteilungen müssen Governance-Strukturen und Disclosure-Regeln jetzt aufbauen.

Die Rolle der Kommunikatorin verschiebt sich: vom Content-Produzenten zum „Agenten-Steward” – mit Governance-Kompetenz, Qualitätsmanagement und ethischer Urteilsfähigkeit.

Ausgangslage

Von KI als Schreibassistenz zu KI als Agent

Kommunikationsabteilungen stehen unter einem doppelten Druck: steigender Output-Bedarf bei gleichzeitig höheren Anforderungen an Präzision, Transparenz und Reputationsschutz. Die Diskussion verschiebt sich von „KI als Schreibhilfe” zu „KI als Agent” – Systemen, die Ziele in mehreren Schritten verfolgen, Tools einsetzen (Suche, Datenbanken, CMS, Kalender) und Teile einer Kommunikations-Workflow-Kette eigenständig abarbeiten können.

Das Impulspapier ordnet Agents in vier Reifegrade ein: Stufe A (Assistenz ohne Tool-Zugriff), Stufe B (Recherche-Agent mit freigegebenen Wissensquellen), Stufe C (Workflow-Agent mit Tool-Zugriff und API-Aktionen) und Stufe D (teilautonome externe Veröffentlichung). Mit jeder Stufe steigt der Nutzen – aber auch der Governance-Bedarf.


6 Einsatzfelder

Was heute machbar ist – und mit welchem Risiko

Monitoring & Frühwarnung (hohe Machbarkeit, mittleres Risiko): Agenten können Medien- und Social-Streams zusammenfassen, Themencluster bilden und Issue-Radare erzeugen. Risiko: Ironie kann missverstanden, manipulative Narrative überbetont werden.

Research & Faktenarbeit (mittlere bis hohe Machbarkeit, mittleres Risiko): Agenten mit RAG-Anbindung an interne Wissensquellen liefern verlässlichere Fakten. Halluzination bleibt Grundrisiko – faktische Aussagen brauchen immer ein Prüfprinzip.

Content-Produktion (hohe Machbarkeit, hohes Risiko): Drafting, Variantenbildung, Übersetzungen. Die kritische Frage ist nicht „ob Texte entstehen”, sondern ob sie wahr, rechtssicher und reputationsrobust sind.

Stakeholder- & Journalistenarbeit (mittlere Machbarkeit, mittleres bis hohes Risiko): Medienlisten, Pitch-Fit-Analyse, personalisierte Entwürfe – nur verantwortbar, wenn Datenquellen sauber und Rechtsgrundlagen geklärt sind.

Crisis-Comms (mittlere Machbarkeit, sehr hohes Risiko): Agenten eignen sich für Simulation und Vorbereitung – Szenarien, Q&A-Kataloge, Stakeholder-Reaktionen. Autonome externe Krisenkommunikation ist wegen sofortiger Reputationswirkung hochriskant.

Interne Kommunikation (hohe Machbarkeit, mittleres bis hohes Risiko): FAQ-Beantwortung, Policy-Auskunft, personalisierte Inhalte. Memory-Funktionen können jedoch Datenschutzprobleme erzeugen, wenn personenbezogene Daten aus verschiedenen Systemen unbemerkt zusammengeführt werden.


Betriebsmodell

Die 6-Stationen-Produktionsstraße für sichere Agenten

Das Impulspapier beschreibt ein Referenz-Betriebsmodell mit klaren Stationen: 1. Bounded Autonomy – zuerst definieren, was der Agent nicht darf. 2. Daten-Grounding – Agenten dürfen kreativ formulieren, nicht kreativ bei Fakten sein; alle Quellen müssen nachvollziehbar sein. 3. Tool-Whitelists – jeder Tool-Zugriff ist ein potenzielles Risiko und muss explizit freigegeben werden. 4. Menschliche Freigaben – keine externe Publikation, keine rechtlich sensiblen Claims, keine Krisenkommunikation ohne explizites Approval. 5. Logs & Versionierung – Eingaben, genutzte Quellen, Tool-Calls und Freigaben müssen protokolliert werden. 6. Kontinuierliches Monitoring – nach dem Deployment mit engen Pilot-Gruppen, klaren KPIs und definierten Stop-Rules starten.


Grenzen & Risiken

Was Kommunikationsverantwortliche wissen müssen

Halluzinationen: Flüssiger Text ist kein Qualitätsindikator – gerade der überzeugende Stil kann Fehlannahmen kaschieren. RAG reduziert das Risiko, eliminiert es aber nicht.

Prompt Injection: Sobald Agenten externe Inhalte lesen (Web, E-Mail, Social Streams), können versteckte Anweisungen in Datenquellen Tool-Aktionen auslösen. Untrusted Content darf nie direkt Steuerinformation sein.

Datenschutz: Memory-Funktionen und systemübergreifende Tool-Zugriffe können personenbezogene Daten auf schwer vorhersehbare Weise verknüpfen. Datenminimierung, Zweckbindung und Betroffenenrechte müssen technisch verankert sein.

EU AI Act: Ab 2026 gelten Transparenzpflichten für KI-generierte Inhalte, Kennzeichnungspflichten für synthetische Medien und Offenlegungsregeln für öffentlichkeitswirksame Texte. „Wir nutzen KI” reicht nicht – es braucht konkrete Regeln, wann und wie Disclosure erfolgt.


Einführungsfahrplan

Low-Regret statt Big Bang

Der erste Pilot sollte drei Bedingungen erfüllen: hohe Wiederholfrequenz (damit Nutzen messbar wird), gute Prüfbarkeit (klare Qualitätskriterien) und begrenzter Schaden bei Fehlern (kein irreversibler extern sichtbarer Output). Empfehlung: zuerst „Assistive/Research Agents”, dann schrittweise „Action Agents”.

Für die Messung empfiehlt das Papier drei KPI-Cluster: Effizienz (Zeit bis zum First Draft, Throughput), Qualität (Korrekturquote, Fact-Error-Rate, Brand-Tone-Compliance) und Risiko (Eskalationsrate, Policy-Violations, Sensitive-Data-Flags). Agenten nicht als Einzellösung einkaufen, sondern als Betriebsfähigkeit bewerten – gemeinsam mit IT, Security und Legal.

Was dieses Impulspapier leistet

Realistische Einordnung

Wissenschaftlich fundierte Übersicht über sechs Einsatzfelder mit ehrlicher Einschätzung von Machbarkeit und Risiko – ohne Hype und ohne übertriebene Skepsis.

Governance-Rahmen

Ein konkretes 6-Stationen-Betriebsmodell und drei operative Ebenen (Policy, Controls, Guardrails) geben Kommunikationsabteilungen einen direkt anwendbaren Rahmen.

Rechtliche Orientierung

Klare Einordnung der EU-AI-Act-Pflichten, DSGVO-Risiken und Prompt-Injection-Gefahren – mit praktischen Konsequenzen für den Kommunikationsalltag.

Autoren & Mitwirkende
+
Jörg Forthmann
AG CommTech / IMWF

Impulspapier jetzt kostenlos herunterladen

Füllen Sie das Formular aus und erhalten Sie das vollständige Impulspapier „KI-Agents in der Kommunikation: Was ist machbar? Wo sind die Grenzen?” als PDF.