Von ChatGPT über Copilot bis Gemini – künstliche Intelligenz (KI), bzw. KI-Chatbots sind im Arbeitskontext aktuell nicht wegzudenken und bleiben seit der Einführung von ChatGPT Ende 2022 brandaktuell. Umso weniger überraschen die Masse an Tipps und Tricks, Leitfäden und Anwendungsbeispiele, welche sich eindringlich mit der effizienten Texterstellung durch jene KI-Chatbots beschäftigen und somit die Frage aufwerfen, ob und wie man KI für die Texterstellung effektiv einsetzen kann.
In diesem Artikel gehen wir auf diese Frage ein, geben einen Einblick in die Funktionsweise der gängigsten Modelle aus dem KI-Kosmos und vergleichen Stärken und Schwächen, um Ihnen so einen perfekten Einstieg in das Thema KI in Bezug auf die Contenterstellung zu liefern.
Es gibt viele unterschiedliche KI-Modelle und Architekturen. Da wir uns für die Texterstellung mit der Verarbeitung von Sprache beschäftigen, sind für unseren Leitfaden KI-Modelle interessant, die mit Sprache arbeiten, sogenannte Large Language Models (LLM).
Wie der Name bereits verrät, verarbeiten LLMs große Mengen an sprachlichen Eingaben, wie Texte, Artikel oder auch Programmiersprache. Grundlage bildet eine Deep-Learning-Architektur, welche kontextabhängige Beziehungen in Texten lernen kann und somit darauf trainiert ist, die menschliche Sprache zu verstehen und zu verarbeiten. Dadurch können sie komplexe Aufgaben, wie Übersetzungen, Frage-Antwort-Szenarien oder das Schreiben von Artikeln wie diesem, bewältigen. Ein spezieller Typ dieser LLMs ist ein sogenannter “Generative Pre-trained Transformer”, kurz GPT. Größter Vertreter eines solchen Modells ist ChatGPT, welches die Abkürzung bereits im Namen trägt. Diese speziellen Typen des Large Language Models werden mit einer großen Menge von Textdateien trainiert und nutzen diese Informationen, um auf das Eingegebene zu reagieren. Dank dieser Kombination ist bspw. ChatGPT in der Lage, auf Nutzereingaben zu reagieren und diese zu verarbeiten.
Auch wenn KI-Content bereits täuschend echt dem menschlichen Inhalt gleicht, so gibt es doch einige Limitationen, welche Sie für ein wirklich gutes Ergebnis im Hinterkopf behalten sollten.
Ein sogenannter “Prompt” beschreibt die Benutzereingabe an den KI-Chatbot, um eine Aktion zu initiieren. Da auf dieser Benutzereingabe die Antwort der KI basiert, bestimmen Tonalität und Struktur maßgeblich den generierten Output und können so zu unterschiedlichen Antworten führen.
“Halluzinationen” beschreiben im Kontext von KI einen Zustand, in welchem der KI-Chatbot eine selbstbewusste, aber faktisch falsche Antwort auf einen Prompt liefert. Für diesen Zustand gibt es diverse Gründe, von einem unzureichend detaillierten Prompt bis hin zu ungenauen Trainingsdaten. Gerade für die Erstellung von genauen und faktischen Artikeln ist eine solche Ungenauigkeit ein erhebliches Risiko und führt zu mangelnder Glaubhaftigkeit.
Das Context Window oder zu deutsch “Sichtfenster” beschreibt die Menge oder den Bereich an Text, den ein LLM auf einmal verarbeiten kann. Gerade in Bezug auf das Halluzinieren von KI-Chatbots ist die Genauigkeit des Prompts eine Möglichkeit, dem Problem zu begegnen. Doch Vorsicht: Auch das aktuell ausgeklügelste Modell kann nur eine begrenzte Anzahl an Informationen verarbeiten – eine 250-seitige Doktorarbeit sprengt also auch hier den Rahmen und kann als Prompt schlichtweg nicht verarbeitet werden.
Es gibt zig Möglichkeiten zum perfekten Prompt und auch online tummeln sich etliche Tipps & Tricks. Für den Einstieg in das Thema möchten wir Ihnen hier die zwei wichtigsten Grundsätze mitgeben, um Ihnen wertvolle Zeit und Korrekturschleifen zu ersparen.
Unter Kontext wird alles verstanden, das über die konkrete Anweisung oder Fragestellung hinausgeht. Nur durch geeigneten Kontext kann das KI-Modell seine Parameter so einstellen, dass es auf den Input einen geeigneten Output generiert. Fokussieren Sie sich daher auf genaue Anforderungen und lassen Sie irrelevante Hintergrundinformationen wegfallen. Besonders gut funktioniert es auch, wenn Sie dem KI-Chatbot eine Rolle zuweisen.
Haben wir nun den Kontext, so geht es nun darum, das Aussehen des Outputs anzuweisen. Dazu sollten alle Anforderungen benannt werden, die an das Ergebnis gestellt werden. Hierzu gehören Medium, Länge, Aussehen des Outputs und die Zielgruppe.
So kann ein geeigneter Rahmen aussehen:
Ist der Output nicht zufriedenstellend, so können Sie im zweiten Schritt die Angaben präzisieren und auch um eine Begründung bitten. So können Sie Ihre Anfrage unkompliziert nachjustieren.
KI kann natürlich keine Jobs im Marketing ersetzen, jedoch bietet die Nutzung auch unter Berücksichtigung der Limitationen einen idealen Sparringspartner in Sachen Content, Text und Inspiration. Im Folgenden möchten wir Ihnen daher konkrete Use-Cases in Bezug auf SEO an die Hand geben.
Sie möchten mehr zum Thema KI für SEO Texte erfahren? Hier finden Sie alle Infos.
Doch auch in Bezug auf Content leidet KI an Schwächen, wie die empirische “Content KI-Studie” von eology beweist. Diese testete 134 Use Cases und 4 Hypothesen zu sprachwissenschaftlichen und zielgruppenrelevanten Bewertungskriterien mit ChatGPT 3.5, 4 und Google Bard.
KI-Chatbots bzw. LLMs werden mit großer Menge an Textdateien trainiert, um so eine eigens generierte Antwort zu schaffen. Da wir hier über die Wiederverwendung fremden Materials sprechen, stellt sich auch hier die Frage des Urheberrechts als auch des Daten- und Geschäftsgeheimnisses, wenn man diese Modelle im Arbeitskontext nutzen möchte.
Laut eines Interviews von Dr. Thorsten Troge, Rechtsanwalt und Partner bei TAYLOR WESSING zu “Rechtlichen Fallstricken von GenAI am Beispiel ChatGPT”, ist die Frage der Urheberschaft im Detail rechtlich noch ungeklärt, eine Kennzeichnungspflicht für KI-generierte Inhalte besteht aktuell jedoch nicht.
Werden generierte Texte jedoch als Basis zur Erstellung neuer Werke, also als Inspiration genutzt, so kommt ein eigener Urheberschutz des Nutzers/Erstellers in Betracht. Generell sollte man sich vor der Nutzung eingehend mit den Nutzungsbedingungen des Anbieters von generativer KI auseinandersetzen, um eine Verletzung des Urheberrechts auszuschließen.
Da die KI-Chatbots mit riesigen Datenmengen trainiert werden, ist nicht abschließend geklärt, welche dieser Daten genau genutzt werden. So könnte es zu dem Risiko kommen, dass auch sensible Daten in die Prompts eingegeben werden und von den Chatbots verarbeitet werden. Auch im Arbeitskontext kann dies durchaus ein Risiko darstellen, da sensible Informationen durch das Versenden an die KI-Chatbots weitergegeben werden können.
Zusammengefasst lässt sich sagen, dass KI-Chatbots eine hilfreiche und zeitsparende Unterstützung sein können, jedoch weder die menschliche Überprüfung noch die menschliche Kreativität ersetzen.
In Bezug auf die Rechtsthematik sollten Sie sich daher noch einmal besonders intensiv informieren, da sich hier die gesetzlichen Rahmenbedingungen noch im Wandel befinden und durch den immer größer werdenden Hype um das Thema sicher noch einige Änderungen in der Gesetzgebung zu erwarten sind.
Nutzen Sie KI-Chatbots als Unterstützung und hilfreichen Sparringspartner, jedoch nie als eigenständigen Textersteller. Bleiben Sie achtsam und aufmerksam in der Überprüfung der Texte und erfreuen Sie sich an der Unterstützung und kreativen Ergänzung.