- 30. Mai 2024
- Veröffentlicht durch: Andree Blumhoff
- Kategorie: NEWS
Generative KI für Research & Analyse
Die rasante Entwicklung im Bereich der Künstlichen Intelligenz (KI) hat bereits in den letzten Jahren zu grundlegenden Veränderungen in vielen Branchen geführt. Doch mit dem Fortschritt im Bereich generativer KI – oft als iPhone-Moment beschrieben – beschleunigt sich die Transformation nochmal immens. Insbesondere PR, Kommunikation und Marketing werden durch die Einführung und Anwendung von Custom Generative Pre-trained Transformers (GPTs) revolutioniert. Diese Technologie ermöglicht es Organisationen, maßgeschneiderte KI-Lösungen zu entwickeln, die auf ihre spezifischen Bedürfnisse und Daten zugeschnitten sind.
Dabei ist KI ist kein neues Thema in der Media Intelligence-Branche, sondern seit Jahren unter den Stichworten „Automatisierung von PR“, “Big Data” und “CommTech” in den Fokus gerückt. Hier wird bei der Datenvorverarbeitung und zur Unterstützung der Redakteure und Analysten schon seit Jahren mit sogenannter “diskriminativer AI” und weiteren Verfahren zur automatischen Textklassifikation und Informationsextraktion gearbeitet, die durch maschinelles Lernen trainiert werden. Dazu gehören NLP-Modelle (Natural Language Processing) wie fastText, spaCy, BERT und Polyglot, die automatisch die semantische Struktur von Inhalten offenlegen, um Entitäten, Themen und Tonalitäten bzw. das Sentiment von Aussagen zu bestimmen.
Exkurs
Für das Entity-Matching, d.h. die eindeutige automatische Identifikation von Eigennamen wie Organisationen, Personen und Orte kann z.B. fastText oder spaCy genutzt werden. Eigennamen werden von diesen AIs auf Basis von Wörterbüchern bzw. Wissensnetzwerken maschinell erkannt und disambiguiert. spaCy ist eine beliebte Open-Source-Bibliothek für die natürliche Sprachverarbeitung (NLP) und Analyse in der Programmiersprache Python. Disambigierung beschreibt dabei die eindeutige Bestimmung durch die Nutzung weiterer Kontextinformationen, um z.B. zu bestimmen, ob es sich um den Apple-Chef handelt oder schlicht um einen Apfel.
Ähnlich funktioniert auch das Sentiment-Matching, das mit Methoden des maschinellen Lernens verfeinert wird. Ein Modell, das in unserer Branche weit verbreitet ist, ist Google BERT (Bidirectional Encoder Representation from Transformers), eine von Google entwickelte und im Jahr 2018 vorgestellte Technik des maschinellen Lernens, die eine hohe Genauigkeit und Validität in der richtigen Bestimmung der Bewertung erzielt.
Das Revolutionspotenzial der Large Language Models
Generative KI wie ChatGPT und Google Gemini revolutionieren die Anwendungsmöglichkeiten aber deutlich, um auf der Basis großer Datenmengen nicht nur Klassifikationsaufgaben zu übernehmen, sondern auch neue Inhalte zu generieren. Sie alle basieren ebenfalls auf maschinellem Lernen bzw. Deep Learning und einem neuronalen Sprachmodell – den sogenannten Large Language Models wie OpenAI’s GPT-4, Google’s LaMDA und PaLM oder Meta’s LLaMA -, um auf Basis riesiger Trainingsmengen Fragen und Texte zu verstehen und Inhalte wie Texte, Bilder, Musik und Sprache zu generieren. Und das ist das Revolutionäre – mit dem Nutzer in einen natürlichsprachigen Dialog zu treten, um Anfragen zu verstehen und Antworten in natürlicher Sprache zu geben. Wie auf der Enterprise, wenn Jean-Luc Picard mit dem Bordcomputer spricht.
Quelle: https://datasolut.com/was-ist-ein-large-language-model/
Wie das dahinter liegende Transformermodell funktioniert, hat die Financial Times in einer Digital Story sehr anschaulich beschrieben: https://ig.ft.com/generative-ai/
ChatGPT weist eine bemerkenswerte Fähigkeit zur Sprachverarbeitung auf und ist in der Lage, eine Vielzahl von natürlichsprachlichen Verständnisaufgaben zu bewältigen. Im Vergleich mit bisher genutzten Modellen wie Googles BERT zeigt ChatGPT in vielen Fällen vergleichbare oder bessere Leistungen. Der Einsatz und die Integration stehen dabei in einem eher komplementären Verhältnis. Zur Bewertung und zum Vergleich der Leistung der Modelle kommen standardisierte Methoden wie der GLUE-Benchmark (General Language Understanding Evaluation) zum Einsatz. Dieser ist ein Satz von neun natürlichsprachlichen Verständnisaufgaben, die entwickelt wurden, um die Fähigkeit von Modellen zur Sprachverarbeitung zu bewerten. Diese Aufgaben umfassen beispielsweise Textklassifikation, Entitätserkennung, semantische Ähnlichkeit und Sentiment.[1]
Eine KI für jeden Anlass
Neben ChatGPT erweitern, erleichtern und beschleunigen viele weitere spezialisierte AI-Tools die Anwendungsmöglichkeiten, insbesondere in den Bereichen Konzeption, Auswertung, Visualisierung, Interpretation und Reporting. Bisher war dies ein hochgradig manueller, zeitaufwändiger und komplexer Akt. Generative AI macht es nun möglich, dass auch Laien schnell in der Lage sind, im Dialog mit der KI Daten auszuwerten und zu interpretieren. Während sich im Bereich der Datenauswertung, Visualisierung und Interpretation neben dem ChatGPT Code Interpreter bzw. Advanced Data Analyis auch AI-Tools wie Graphy[2], Datasquirrel[3] und Highcharts[4] spezialisiert haben, zeigen für die Anwendung im Bereich Reporting und Präsentation AI-Tools wie Gamma[5], Tome[6] und StoryD[7] beeindruckende Fähigkeiten.
Maßgeschneiderte KI-Assistenten für Unternehmen
Diverse Unternehmen entwickelten in den letzten Monaten firmeneigene, interne GPTs und KI-Assistenten für einen optimalen Einsatz im geschützten Unternehmensumfeld. Ein internes GPT wird mit dem firmeneigenen Wissen und Dokumenten gefüttert. So entsteht eine zentrale Wissensdatenbank, auf die Mitarbeiter jederzeit per Chat-Schnittstelle zugreifen können. Damit wird der Chatbot zur ersten Anlaufstelle bei allen möglichen Fragen, ohne ständigen Wechsel von einem Tool zum anderen. Zu den Unternehmen, die sich in den letzten Monaten ihre eigenen GPTs – auch aufgrund datenschutzrechtlicher Bedenken mit der vollen Kontrolle über Firmendaten und maximaler Sicherheit – zugelegt haben, gehören z.B. die OttoGroup (ogGPT), die Drogeriekette DM (dmGPT), E.ON (Eon GPT), Siemens (Industrial Copilot), Bosch (BoschGPT), KPMG (KaiChat), PwC (mit Harvey AI), Merck (myGPT), Salesforce (Einstein GPT), Bloomberg (BloombergGPT) oder Mercedes Benz (Direct Chat).[8]
Um diesen datenschutzrechtlichen Sicherheitsanforderungen gerecht zu werden, führte auch OpenAI für ChatGPT neue Enterprise- und Teams-Tarife ein. Und seit Anfang November 2023 macht OpenAI mit Einführung von Custom GPTs potenziell jeden zum App-Entwickler und Programmierer. Mit dem GPT-Konfigurator ist praktisch jeder in der Lage, seinen eigenen Chatbot zu bauen, ohne eine Zeile Code zu schreiben. Doris Weßels, Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel, bezeichnete diese Entwicklung so, “als wäre eine neue Raketenstufe gezündet worden”.[9] Damit eröffnen sich beeindruckende Möglichkeiten für die tägliche Kommunikationsarbeit, aber auch für Research und Analytics, indem Zugriff auf multimodale Werkzeuge mit kombinierter Nutzung, z.B. von Websuche, Daten- und Bildanalyse gewährt wird. Der Fokus liegt hier auf der Fähigkeit, Daten mit einem KI-Assistenten systematisch zu untersuchen und auszuwerten, um Erkenntnisse, Muster und Zusammenhänge zu gewinnen.
Eine neue Ära der Informationsverarbeitung
Die Integration von Custom GPTs in die Unternehmenskommunikation und Media Intelligence führt zu einer grundlegenden Veränderung in der Art und Weise, wie Unternehmen Informationen verarbeiten und nutzen. Der Einsatz dieser Technologien beim Aufbau einer zentralen Wissensdatenbank vereinfacht den Zugriff auf relevante Informationen erheblich. Sie ermöglichen es, Prozesse zu automatisieren, Entscheidungsfindungen zu verbessern und neue Formen der Kunden- und oder Mitarbeiterinteraktion zu entwickeln.
Diese Entwicklungen markieren einen wichtigen Wendepunkt in der Medien- und Kommunikationsbranche und eröffnen neue Horizonte für die zukünftige Entwicklung von Geschäftsstrategien und Kommunikationsmaßnahmen.
Über den Autor:
Andree Blumhoff ist Group Head Media Analysis und Mitglied des Business Development Teams bei pressrelations. Dort fokussiert er sich auf Trends in den Bereichen Research & Analytics, CommTech und Anwendung von Künstlicher Intelligenz. Seine berufliche Laufbahn begann mit einer Ausbildung zum Bankkaufmann, gefolgt von einem Studium der Kommunikationswissenschaft, Wirtschaftswissenschaft und Philosophie an der TU Dresden. Mit über 20 Jahren Erfahrung in der akademischen und angewandten Kommunikationsforschung sowie Produktentwicklung hat er in der Vergangenheit wichtige Positionen bei PRIME research – F.A.Z.-Institut (nun Cision Insights), PMG Presse Monitor und ARGUS DATA INSIGHTS innegehabt.
Kontakt: andree.blumhoff@pressrelations.de
[1] Vgl. Qihuang, Zhong & Ding, Liang & Liu, Juhua & Du, Bo & Tao, Dacheng. (2023). Can ChatGPT Understand Too? A Comparative Study on ChatGPT and Fine-tuned BERT. https://doi.org/10.48550/arXiv.2302.10198
[2] https://graphy.app/
[3] https://datasquirrel.ai/
[4] https://www.highcharts.com/
[5] https://gamma.app/
[6] https://tome.app/
[7] https://www.storyd.ai/
[8] Vgl. dazu auch Handelsblatt, 12.04.2024: „Was firmeneigene Versionen von ChatGPT wirklich bringen“ https://www.handelsblatt.com/technik/ki/unternehmens-gpts-wann-sich-firmeneigene-ki-und-chatbots-wirklich-lohnen/100031616.html
[9] Vgl. dazu auch Handelsblatt, 27.11.2023: „So werden ChatGPT-Nutzer auch zu Programmierern“ https://www.handelsblatt.com/technik/ki/kuenstliche-intelligenz-so-werden-chatgpt-nutzer-auch-zu-programmierern/29508024.html