- 14. April 2026
- Veröffentlicht durch: bandup media UG
- Kategorien:

KI-Agents in der Kommunikation: Was ist machbar? Wo sind die Grenzen?
Ein wissenschaftlich fundiertes Impulspapier zu Einsatzfeldern, Risiken, Governance und Einführungsfahrplan
Auf einen Blick
Die wichtigsten Erkenntnisse
Nur 12 % der PR-Professionals nutzen KI-Agenten heute tatsächlich – das Hauptproblem ist nicht technische Machbarkeit, sondern vertrauenswürdige Integration in den Workflow.
KI-Agents sind kein Ja/Nein-Thema: Autonomie, Datenzugriff und Aktionsraum sind die drei Stellhebel, mit denen Nutzen und Risiko gleichzeitig gesteuert werden.
Autonome externe Kommunikation bleibt Hochrisiko – Halluzinationen, Prompt-Injection-Angriffe und Datenschutzkomplexität machen menschliche Freigaben unverzichtbar.
Der EU AI Act normiert ab 2026 Transparenzpflichten für KI-generierte Inhalte – Kommunikationsabteilungen müssen Governance-Strukturen und Disclosure-Regeln jetzt aufbauen.
Die Rolle der Kommunikatorin verschiebt sich: vom Content-Produzenten zum „Agenten-Steward” – mit Governance-Kompetenz, Qualitätsmanagement und ethischer Urteilsfähigkeit.
Von KI als Schreibassistenz zu KI als Agent
Kommunikationsabteilungen stehen unter einem doppelten Druck: steigender Output-Bedarf bei gleichzeitig höheren Anforderungen an Präzision, Transparenz und Reputationsschutz. Die Diskussion verschiebt sich von „KI als Schreibhilfe” zu „KI als Agent” – Systemen, die Ziele in mehreren Schritten verfolgen, Tools einsetzen (Suche, Datenbanken, CMS, Kalender) und Teile einer Kommunikations-Workflow-Kette eigenständig abarbeiten können.
Das Impulspapier ordnet Agents in vier Reifegrade ein: Stufe A (Assistenz ohne Tool-Zugriff), Stufe B (Recherche-Agent mit freigegebenen Wissensquellen), Stufe C (Workflow-Agent mit Tool-Zugriff und API-Aktionen) und Stufe D (teilautonome externe Veröffentlichung). Mit jeder Stufe steigt der Nutzen – aber auch der Governance-Bedarf.
Was heute machbar ist – und mit welchem Risiko
Monitoring & Frühwarnung (hohe Machbarkeit, mittleres Risiko): Agenten können Medien- und Social-Streams zusammenfassen, Themencluster bilden und Issue-Radare erzeugen. Risiko: Ironie kann missverstanden, manipulative Narrative überbetont werden.
Research & Faktenarbeit (mittlere bis hohe Machbarkeit, mittleres Risiko): Agenten mit RAG-Anbindung an interne Wissensquellen liefern verlässlichere Fakten. Halluzination bleibt Grundrisiko – faktische Aussagen brauchen immer ein Prüfprinzip.
Content-Produktion (hohe Machbarkeit, hohes Risiko): Drafting, Variantenbildung, Übersetzungen. Die kritische Frage ist nicht „ob Texte entstehen”, sondern ob sie wahr, rechtssicher und reputationsrobust sind.
Stakeholder- & Journalistenarbeit (mittlere Machbarkeit, mittleres bis hohes Risiko): Medienlisten, Pitch-Fit-Analyse, personalisierte Entwürfe – nur verantwortbar, wenn Datenquellen sauber und Rechtsgrundlagen geklärt sind.
Crisis-Comms (mittlere Machbarkeit, sehr hohes Risiko): Agenten eignen sich für Simulation und Vorbereitung – Szenarien, Q&A-Kataloge, Stakeholder-Reaktionen. Autonome externe Krisenkommunikation ist wegen sofortiger Reputationswirkung hochriskant.
Interne Kommunikation (hohe Machbarkeit, mittleres bis hohes Risiko): FAQ-Beantwortung, Policy-Auskunft, personalisierte Inhalte. Memory-Funktionen können jedoch Datenschutzprobleme erzeugen, wenn personenbezogene Daten aus verschiedenen Systemen unbemerkt zusammengeführt werden.
Die 6-Stationen-Produktionsstraße für sichere Agenten
Das Impulspapier beschreibt ein Referenz-Betriebsmodell mit klaren Stationen: 1. Bounded Autonomy – zuerst definieren, was der Agent nicht darf. 2. Daten-Grounding – Agenten dürfen kreativ formulieren, nicht kreativ bei Fakten sein; alle Quellen müssen nachvollziehbar sein. 3. Tool-Whitelists – jeder Tool-Zugriff ist ein potenzielles Risiko und muss explizit freigegeben werden. 4. Menschliche Freigaben – keine externe Publikation, keine rechtlich sensiblen Claims, keine Krisenkommunikation ohne explizites Approval. 5. Logs & Versionierung – Eingaben, genutzte Quellen, Tool-Calls und Freigaben müssen protokolliert werden. 6. Kontinuierliches Monitoring – nach dem Deployment mit engen Pilot-Gruppen, klaren KPIs und definierten Stop-Rules starten.
Was Kommunikationsverantwortliche wissen müssen
Halluzinationen: Flüssiger Text ist kein Qualitätsindikator – gerade der überzeugende Stil kann Fehlannahmen kaschieren. RAG reduziert das Risiko, eliminiert es aber nicht.
Prompt Injection: Sobald Agenten externe Inhalte lesen (Web, E-Mail, Social Streams), können versteckte Anweisungen in Datenquellen Tool-Aktionen auslösen. Untrusted Content darf nie direkt Steuerinformation sein.
Datenschutz: Memory-Funktionen und systemübergreifende Tool-Zugriffe können personenbezogene Daten auf schwer vorhersehbare Weise verknüpfen. Datenminimierung, Zweckbindung und Betroffenenrechte müssen technisch verankert sein.
EU AI Act: Ab 2026 gelten Transparenzpflichten für KI-generierte Inhalte, Kennzeichnungspflichten für synthetische Medien und Offenlegungsregeln für öffentlichkeitswirksame Texte. „Wir nutzen KI” reicht nicht – es braucht konkrete Regeln, wann und wie Disclosure erfolgt.
Low-Regret statt Big Bang
Der erste Pilot sollte drei Bedingungen erfüllen: hohe Wiederholfrequenz (damit Nutzen messbar wird), gute Prüfbarkeit (klare Qualitätskriterien) und begrenzter Schaden bei Fehlern (kein irreversibler extern sichtbarer Output). Empfehlung: zuerst „Assistive/Research Agents”, dann schrittweise „Action Agents”.
Für die Messung empfiehlt das Papier drei KPI-Cluster: Effizienz (Zeit bis zum First Draft, Throughput), Qualität (Korrekturquote, Fact-Error-Rate, Brand-Tone-Compliance) und Risiko (Eskalationsrate, Policy-Violations, Sensitive-Data-Flags). Agenten nicht als Einzellösung einkaufen, sondern als Betriebsfähigkeit bewerten – gemeinsam mit IT, Security und Legal.
Nutzen
Was dieses Impulspapier leistet
Realistische Einordnung
Wissenschaftlich fundierte Übersicht über sechs Einsatzfelder mit ehrlicher Einschätzung von Machbarkeit und Risiko – ohne Hype und ohne übertriebene Skepsis.
Governance-Rahmen
Ein konkretes 6-Stationen-Betriebsmodell und drei operative Ebenen (Policy, Controls, Guardrails) geben Kommunikationsabteilungen einen direkt anwendbaren Rahmen.
Rechtliche Orientierung
Klare Einordnung der EU-AI-Act-Pflichten, DSGVO-Risiken und Prompt-Injection-Gefahren – mit praktischen Konsequenzen für den Kommunikationsalltag.
Mitwirkende
Autoren & Mitwirkende
AG CommTech / IMWF
Download
Impulspapier jetzt kostenlos herunterladen
Füllen Sie das Formular aus und erhalten Sie das vollständige Impulspapier „KI-Agents in der Kommunikation: Was ist machbar? Wo sind die Grenzen?” als PDF.
