Skip to main content

KI in der Content-Erstellung: Chancen & Herausforderungen

6. Juli 2023

Mit der Veröffentlichung von ChatGPT im November 2022 nahm die Anwendung von künstlicher Intelligenz zur Texterstellung so richtig Fahrt auf. Nach etwa einem halben Jahr, in dem die Claneo-Redaktion ChatGPT und vergleichbare Tools intensiv getestet hat, können wir nun ein vorläufiges Fazit ziehen. Die Texterstellung mithilfe von KI bietet durchaus Chancen, birgt jedoch auch Risiken. In diesem Artikel gehen wir sowohl auf erfolgreiche Tests als auch auf sieben kritische Punkte zum Thema KI-Texte ein.

So haben wir KI-Tools für die Content-Erstellung getestet

Die KI-basierte Texterstellung wurde vor allem in den Content-Teams (DACH & International) sowie vom Team Agenturkommunikation erprobt. Die internationale Redaktion hatte dabei speziell den Nutzen der Tools für Übersetzungen, Lokalisierungen und Transkreationen im Blick.

Andere Teams von Claneo sind ebenfalls dabei, KI für ihren jeweiligen Aufgabenbereich zu testen und die Chancen und Herausforderungen zu identifizieren.

Den Großteil unserer Tests führten und führen wir mit ChatGPT durch. Zunächst nutzten wir die GPT-3.5-Version, inzwischen verwenden wir ChatGPT Plus mit GPT-4 und Browser-Plugin. Ebenfalls eingehend getestet haben wir Jasper in Kombination mit der SurferSEO-Integration, neuroflash vom gleichnamigen Hamburger Start-up und einige weitere Tools mit vergleichbaren Funktionen. Recht schnell zeigte sich, dass ChatGPT aktuell das beste Preis-Leistungs-Verhältnis für unsere Anwendungsfälle bietet.

Für spezielle Aufgaben wie Rechtschreibprüfung, Kommasetzung, Paraphrasierung und Übersetzungen sind diverse weitere Tools schon länger bei uns im Einsatz, sie kamen in Kombination mit den Sprachmodellen zum Einsatz. Auch die Bilderstellung per KI durften wir für einige Kund:innen testen, wobei sich Midjourney als Favorit herauskristallisierte.

Experimentiert haben wir mit verschiedenen Textarten – z. B. mit Ratgebern, Blogposts, Kategorie- und Produkttexten – sowie mit Titles, Descriptions, Teasern und sonstiger Short Copy. Die Themenbereiche waren breit gestreut: von Food und Fashion bis hin zu Finance und Versicherungen. Das Team Agenturkommunikation testete gezielt die Erstellung von Social-Media-Posts und nutzte die Tools unter anderem als Formulierungshilfe für Workshop-Titel und -Beschreibungen. Darüber hinaus unterstützt ChatGPT im Content Marketing bereits bei Brainstormings, der Content-Konzeption sowie der Content-Produktion und Datenauswertung.

Was hat aus Sicht der Content-Teams gut funktioniert?

Als hilfreich erwiesen sich ChatGPT & Co. aus Sicht der Redaktionen vor allem beim Brainstorming und beim Erstellen von Gliederungen. Das Schreiben von Texten funktionierte besser, wenn der Aufbau Schritt für Schritt erfolgte: z. B. indem wir das KI-Tool zunächst eine Outline für den Text erstellen und anschließend Kapitel für Kapitel schreiben ließen. Eine Nachbearbeitung des Outputs war dennoch in jedem Fall notwendig. Darauf gehen wir gleich noch ein.

Das Einbinden von Keywords in die Texte funktionierte grundsätzlich. Allerdings beherrscht die künstliche Intelligenz nicht von Haus aus die Kniffe, die menschliche Redakteur:innen nutzen, um Schlüsselwörter möglichst natürlich zu integrieren. Den Tools die entsprechende Anleitung dazu zu geben, ist eine Aufgabe für sich.

Wünsche bzgl. der Strukturierung oder Formatierung führte ChatGPT in der Regel problemlos aus. So können z. B. bestimmte Wörter gefettet oder kursiv gesetzt oder Listen und Tabellen erzeugt werden. Auch HTML-Tags können mitgeliefert werden. Zwar sind das Dinge, für die man vielleicht lieber auf andere Tools ausweicht, doch die Option zu haben, ist grundsätzlich nicht verkehrt. (Mehr oder weniger) passende Emojis – nützlich z. B. für LinkedIn-Posts – setzte ChatGPT auf Anfrage ebenfalls anstandslos in den Text ein.

Was die Themen angeht, zeigte sich, dass der Output in der Regel eher verwendbar war, wenn der Text nicht zu einem Nischen-, sondern zu einem „Mainstream-Thema“ verfasst wurde. Vermutlich performen die Tools in den Bereichen besser, in denen ihnen umfangreiche Trainingsdaten zur Verfügung standen.

Brauchbar waren die KI-Texte oft auch dann, wenn es bei den Inhalten nicht so stark aufs Richtig oder Falsch ankam. So kann ChatGPT beispielweise einen ansprechenden Blogartikel über die 10 schönsten Ziele an der polnischen Ostseeküste schreiben – schließlich ist das (bis auf Informationen zu Öffnungszeiten etc.) letztlich Meinungssache. An seine Grenzen kommt das Tool jedoch, wenn man es etwa um eine Anleitung zur korrekten Versteuerung der Berufsunfähigkeitsrente bittet: Hier vermischen sich Fakten mit Falschinformationen, was Laien nicht unbedingt auffällt, weil zunächst alles plausibel klingt. Das liegt in der Funktionsweise der Tools begründet, auf die wir gleich noch eingehen.

Hier klicken, um mehr über unsere Content-Workshops zu erfahren.

Auf diese Herausforderungen sind wir gestoßen

Auch wenn es beeindruckend ist, wozu aktuelle Sprachmodelle bereits in der Lage sind: Es gibt gewisse Einschränkungen, denen wir bei der Arbeit mit ChatGPT, Jasper und anderen KI-Tools immer wieder begegnet sind. Wer annimmt, dass gute Texte ab jetzt per Knopfdruck, innerhalb weniger Minuten und quasi umsonst erstellt werden können, übersieht wahrscheinlich einige Herausforderungen und Gefahren. Auf sieben kritische Punkte gehen wir im Folgenden detailliert ein.

  1. Prompt Engineering ist aufwändig

Wie ein menschlicher Redakteur ein gutes Briefing benötigt, um einen Text nach bestimmten Vorgaben zu erstellen, benötigt ein KI-Tool einen guten Prompt. So heißt der Input, der in das Tool eingegeben wird.

Für Prompt Engineering – also das Entwickeln der Prompts, die für das fragliche Projekt den gewünschten Output erzeugen – braucht es nicht nur Kenntnisse über die Prompt-Frameworks, die sich bewährt haben, sondern auch viel Erfahrung. Außerdem ist bei jedem neuen Projekt eine Testphase notwendig, in der Prompts ausprobiert und verfeinert werden. „Rezepte“ für Prompts werden derzeit fleißig von verschiedenen Expert:innen im Internet geteilt. Auch wir haben uns von ihnen inspirieren lassen und einige nützliche Tipps entdeckt. Dennoch zeigt sich, dass sich die Anleitungen nie 1:1 auf andere Projekte übertragen lassen.

Durch den Aufwand für die Prompt-Entwicklung entstehen bereits Kosten, bevor der erste Text erstellt werden kann. Wird im Anschluss eine große Menge an Texten mit nur geringfügig veränderten Prompts erzeugt, kann sich das rechnen – sofern sichergestellt ist, dass der so erstellte Content wirklich Mehrwert bietet. Einen 300 Wörter langen Prompt zu erstellen, um damit einen einzigen Artikel von 600 Wörtern Länge zu generieren, bedeutet hingegen unterm Strich keine allzu große Zeitersparnis.

  1. KI-Tools „halluzinieren“ und stellen falsche Zusammenhänge her

Als Halluzinieren bezeichnet man die Eigenschaft von KI-Tools, Falschinformationen glaubhaft als Tatsache darzustellen. Mitunter geben sie auch Kausalitäten an, wo es gar keine gibt. Für Menschen, die sich im entsprechenden Themengebiet nicht auskennen, klingen die Angaben schlüssig – doch wer Hintergrundwissen hat, entlarvt die Fehler schnell.

Warum stellen die Tools zum Teil falsche Behauptungen auf? Weil sie es nicht besser wissen. Genau genommen fehlt ihnen schlichtweg die Fähigkeit, etwas zu wissen. ChatGPT ist ein Sprachmodell, kein Wissensmodell. Es berechnet lediglich – basierend auf den Daten, mit denen es trainiert wurde – welches Wort im jeweiligen Kontext am wahrscheinlichsten als nächstes in einem Text auftaucht. Und sind die Trainingsdaten lücken- bzw. fehlerhaft oder haben sie einen Bias, schlägt sich das im Output nieder. Es sind bereits Plugins verfügbar, die ChatGPT hier ein wenig „auf die Sprünge helfen“, doch aktuell sind die Schwächen des Tools in diesem Bereich noch offensichtlich.

Fest steht: Jede Information, die ich als KI-Anwenderin nicht selbst verifizieren kann, muss ich prüfen. Während Redakteur:innen den Schreibprozess mit einer gründlichen Recherche bei vertrauenswürdigen Quellen beginnen, entsteht bei der Anwendung von KI-Tools im Nachhinein Aufwand für den Faktencheck und eventuelle Korrekturen. Der ist umso höher, je komplexer das Thema ist. Gerade im sogenannten YMYL-Bereich („your money or your life“) – also bei sensiblen Themen wie Gesundheit oder Finanzen – ist es wichtig, den Output fachlich zu prüfen. Schon aus einer moralischen Verpflichtung heraus, aber auch im Eigeninteresse der publizierenden Institution.

Ohne eine zumindest oberflächliche Recherche lässt sich übrigens auch kein guter Prompt erstellen. Tatsächlich entsteht also sowohl vor als auch nach der Texterstellung Rechercheaufwand.

  1. KI-Texte sollten sprachlich überarbeitet werden

Die sprachliche Qualität des Outputs hängt vom verwendeten Sprachmodell und vom Thema ab. GPT-4 liefert zum Teil schon deutlich bessere Ergebnisse als der Vorgänger GPT-3.5. Mitunter ist jedoch auch bei GPT-4 die Qualität noch unzureichend. Bei Nischenthemen verfügt die KI offenbar nicht über genügend Trainingsdaten, um zuverlässig vorhersagen zu können, welche Wörter im Text auftauchen müssten. Oft entstehen dann oberflächliche Texte voller Phrasen, die Lesenden keinen Mehrwert bieten. So müssen die Texte zusätzlich zur inhaltlichen Prüfung ein Redigat durchlaufen, das je nach Ausgangssituation durchaus aufwändig sein kann.

Hinzu kommt: Wer sich regelmäßig mit KI-Texten beschäftigt, lernt erfahrungsgemäß schnell, Formulierungen oder Textstrukturen zu identifizieren, die „typisch KI“ sind. Das gilt insbesondere, wenn der Schreibstil von dem abweicht, was man von dem Autor oder der Autorin gewohnt ist. Auf LinkedIn mag das halb so schlimm sein, auf Ihrer Unternehmenswebseite sollte aber möglichst nicht zu erkennen sein, dass die Texte mithilfe künstlicher Intelligenz erzeugt wurden. Schließlich haben Sie den Expertenstatus – nicht die KI.

  1. Wir geben sensible Informationen aus Kund:innenbriefings nicht an KI-Tools weiter

Die Briefings, die wir von unseren Kund:innen zur Texterstellung erhalten, behandeln wir selbstverständlich vertraulich. Zwar wären die Informationen in den Briefings nützlich für die Verfeinerung der Prompts. Doch die Unternehmen, die KI-Tools zur Verfügung stellen, behalten sich in der Regel vor, den Input der Anwender:innen für ihre eigenen Zwecke zu nutzen. Die Folgen wären nicht abzusehen, auf jeden Fall aber potenziell geschäftsschädigend für unsere Kund:innen. Schließlich enthalten die Briefings beispielsweise vertrauliche Details aus Kommunikationsstrategien oder sensible Informationen über Produkte, die noch nicht auf dem Markt sind.

  1. KI-Texte generieren kann auch die Konkurrenz

Top-Platzierungen in der Suchmaschine erreicht man, indem man eine bessere Antwort auf die Suchanfrage liefert als der Wettbewerb. Durch immer neue Updates des Algorithmus und Qualitätsrichtlinien wie E-E-A-T oder das Helpful Content System versucht Google – meist erfolgreich – die Spreu vom Weizen zu trennen. Würde nun jedes Unternehmen auf Knopfdruck generierte Texte auf seiner Website veröffentlichen, ohne Zeit in das Prompt-Design zu stecken oder den Output nachzubearbeiten, würde sich der Content höchstens noch geringfügig von anderen KI-Inhalten unterscheiden. Schlechte Voraussetzungen, um sich von der Konkurrenz abzusetzen.

Es spricht grundsätzlich nichts dagegen, sich bei der Texterstellung von künstlicher Intelligenz helfen zu lassen. Voraussetzung ist zum einen, dass Anwender:innen wissen, worauf sie beim Prompten der Tools und bei der Nachbearbeitung des Outputs achten müssen. Zum anderen muss jemand sicherstellen, dass die Texte inhaltlich korrekt sind – z. B. die entsprechende Fachabteilung im Unternehmen. Auch Google hat diesbezüglich inzwischen klargemacht, dass es KI-Content nicht automatisch als Spam wertet, sondern dass letztlich der Mehrwert für Nutzende darüber entscheidet, ob die Inhalte von der Suchmaschine als „helpful“ betrachtet werden.

Im Idealfall sollte Ihre Unternehmens-Website aber auch Wissen sichtbar machen, auf das keine herkömmliche KI Zugriff hat. Denn das sind die Inhalte, die Sie wirklich von der Konkurrenz abheben. Überlassen Sie die Themenfindung und die Content-Qualität also nicht vollständig der künstlichen Intelligenz. Entwickeln Sie strategisch Inhalte, die Ihren Thought Leadership in Szene setzen – beispielsweise Berichte, die Sie auf Basis selbst erhobener Daten erstellen. Damit tun Sie etwas für Ihre digitale PR und sind gleichzeitig besser gewappnet für das Szenario, dass die Relevanz von Suchergebnisseiten in Zukunft abnehmen und es vielmehr um die Platzierung als Quelle in KI-generierten Textergebnissen gehen wird.

  1. KI-Anwendung birgt ein rechtliches Risiko

Ob Urheberrecht oder Datenschutz: Viele rechtliche Fragen rund um die Nutzung von künstlicher Intelligenz sind bisher nicht geklärt. Meist hängt die Rechtslage davon ab, in welchem Land sich die Situation abspielt – und allein das ist manchmal eine schwierig zu beantwortende Frage, z. B. wenn Tool-Anbieter und -Anwenderin in unterschiedlichen Ländern sitzen.

Derzeit bewegt man sich bei der KI-Nutzung also oft in einer rechtlichen Grauzone. Wenn die Rechtsprechung aber mit den rasanten Entwicklungen aufholt, könnten bestimmte Entscheidungen zum Nachteil derjenigen sein, die die fragliche Anwendung bereits in ihre Prozesse integriert haben. Erste Schritte zur Regulierung sind gemacht: Mit dem „Artificial Intelligence Act“ legt die Europäische Kommission ein Regelwerk für die Nutzung künstlicher Intelligenz vor. Das zwischenzeitliche Verbot von ChatGPT in Italien hat gezeigt, wie schnell sich die rechtlichen Rahmenbedingungen ändern können.

Potenziell problematisch für Anwender:innen sind die Nutzungsbedingungen der Unternehmen, die KI-Services bereitstellen. Üblich ist, dass sie sich im Gegenzug für die Nutzung gewisse Rechte zusichern lassen: etwa, mit dem User-Input ihr Tool zu optimieren. Denkbar sind aber noch weitere Festlegungen. Wer keine juristischen Fachkenntnisse hat, wird kaum abschätzen können, was womöglich mit dem eigenen Input passiert und welche Folgen das haben könnte. Aus Agentursicht kommt der bereits erwähnte Punkt hinzu: Wir verwalten vertrauliche Daten anderer Unternehmen und können darum erst recht nicht das Risiko eingehen, KI-Tools damit zu „füttern“.

  1. Noch bedeutet der Einsatz von KI nicht immer eine Zeitersparnis

Wer jahrelange Erfahrung im Recherchieren, Schreiben und Redigieren hat, kann sehr schnell guten Content produzieren. „Guter Content“ – in Bezug auf SEO-Content, den wir als Agentur für Unternehmen erstellen, bedeutet unter anderem, dass eine Keyword-Optimierung erfolgt und in der Regel zahlreiche Briefingvorgaben zu berücksichtigen sind – z. B. im Hinblick auf Tone of voice, erwünschte oder unerwünschte Wordings, die korrekte Ansprache der Zielgruppe, Gendern, Zeichenbegrenzungen bei bestimmten Content-Elementen oder die Textstruktur. Hinzu kommt eine strategisch sinnvolle interne Verlinkung. Wer als Content-Manager:in ein Projekt eine Weile betreut, kennt sich irgendwann nicht nur bestens im Briefing und auf der Website des jeweiligen Kund:innen aus, sondern baut nach und nach auch selbst Fachwissen in dem Themenbereich auf. All das erhöht die Effizienz bei der Content-Erstellung.

Diesen Erfahrungsschatz einer KI in Form eines Prompts mitzugeben, ist umso aufwendiger, je anspruchsvoller das Projekt ist – und es lohnt sich nur, wenn sich die Content-Erstellung mithilfe des Prompts skalieren lässt. Eine Chance für Unternehmen könnte es sein, mit internen Daten eine eigene KI zu trainieren. Für die aktuell verbreiteten Modelle, die mit Inhalten aus dem Netz trainiert werden, gilt jedoch: Geübte Redakteur:innen sind zum jetzigen Zeitpunkt oft noch schneller fertig, wenn sie direkt mit der Recherche und Texterstellung loslegen, anstatt zunächst einen Prompt zu entwickeln und im Nachgang Zeit in den Faktencheck und das Redigat zu investieren.

Anders mag es bei Personen aussehen, die sich mit dem Schreiben eher schwertun oder den Umgang mit Kund:innenbriefings nicht gewohnt sind. Dass auch sie nun sehr schnell gut klingende Texte erstellen können, trägt sicher einiges zu dem Hype um ChatGPT bei. Inhaltliche oder stilistische Schwächen, die der Output mitunter aufweist, werden in der Begeisterung von weniger geübten Texter:innen leider manchmal übersehen. Deshalb sollten insbesondere bei den erwähnten YMYL-Themen Redakteur:innen eingesetzt werden, die verlässlich recherchieren und präzise schreiben können – und die wissen, wo die Grenzen von KI-Tools liegen.

Fazit

Dass sich guter Content heute manchmal noch schneller ohne KI-Tool erstellen lässt als mit, ist natürlich eine Momentaufnahme. Die Tools werden sich weiterentwickeln und wahrscheinlich immer besseren Output liefern. Einige Probleme, die aktuell auftreten, werden voraussichtlich durch Plugins gelöst werden können. Es wird auch zunehmend mehr Klarheit bei rechtlichen Fragestellungen geben: zum einen durch staatliche Regulierung, zum anderen, weil Vertragspartner:innen miteinander abstimmen werden, inwieweit der Einsatz von künstlicher Intelligenz beim Erbringen bestimmter Leistungen zulässig ist.

Prompt-Entwicklung und alles andere, was man im Umgang mit KI-Tools benötigt, wird in Zukunft ganz selbstverständlich zum Handwerkszeug von Texter:innen, Grafikdesigner:innen und anderen Kreativen gehören. Deshalb sollten sich insbesondere diejenigen, die von der Content-Erstellung leben, entsprechende Fähigkeiten aneignen. Die Kombination aus Prompt-Engineering-Skills, klassischer Redaktionsarbeit und Fachwissen in einem bestimmten Themengebiet ist die optimale Mischung für guten Content im KI-Zeitalter.

Artikel teilen

Christina Horst

Christina ist Senior-Content-Managerin bei Claneo. Sie unterstützt B2C- und B2B-Kund:innen aus dem DACH-Raum bei der Content-Erstellung und gibt Workshops für das Upskilling von SEO-Redaktionsteams. Bei Claneo ist sie unter anderem für die Tests von AI-Tools für die Content-Erstellung verantwortlich.

Weitere Artikel


You found us - now let us help you to be found!

Jetzt Kontaktformular ausfüllen.
Wir melden uns bei Ihnen so schnell wie möglich zurück.


Quadrate und Foto von lächelnder Mitarbeiterin
Quadrate und Foto von lächelnder Mitarbeiterin