Benötigte Lesezeit: 4 Minuten
Im Jahr 2014 berichtete die Los Angeles Times über ein Erdbeben, nur drei Minuten nachdem das Ereignis stattgefunden hatte. Verfasst wurde die Nachricht nicht durch einen Journalisten, sondern durch einen Algorithmus. Diese maschinelle Verarbeitung von Sprache ist eine von drei KI-basierten Technologien, die Content-Experten kennen sollten.
Wer sich mit künstlicher Intelligenz und Content auseinandersetzt, sollte sich auf drei zentrale Begriffe konzentrieren:
- Natural Language Processing (NLP) – maschinelle Verarbeitung natürlicher Sprache
- Natural Language Generation (NLG) – maschinelle Generierung natürlicher Sprache
- Computer Vision – maschinelles Sehen
Alle drei sind spezifische Einsatzbereiche des maschinellen Lernens und beeinflussen direkt die Content-Erstellung. Im Rahmen einer intelligenten Content Strategie kann der Einsatz von NLP, NLG und Computer Vision Zeit und Kosten sparen sowie die Effizient steigern. Das klingt innovativ, ist jedoch ein alter Hut. Die Nachrichtenagentur Reuters automatisiert bereits seit 2006 die Erstellung datengetriebener Kurztexte über Sport, Wetter oder Finanzen. Heute verwenden die New York Times, Forbes und viele andere Herausgeber intelligente Content-Technologien. Der Fachbegriff dafür lautet automatisierter Journalismus oder roboter-generierte Artikel.
Automatisierte Texterstellung im E-Commerce
Auch im Online-Handel werden automatisch erstellte Produkt- oder Kategorietexte bereits seit mehreren Jahren veröffentlicht. Dadurch können sich Redakteure auf die Recherche von komplexeren Beiträgen konzentrieren. Anbieter wie AX-Semantics oder textOmatic haben sich auf die automatisierte Textproduktion für den E-Commerce spezialisiert. Voraussetzungen sind eine sich wiederholende Content-Grundstruktur und zur Verfügung stehende Daten, welche die Kerninformationen des Textes repräsentieren. Das können zum Beispiel die Spielergebnisse der Fußball Weltmeisterschaft, Aktienkurse oder Produktinformationen sein.
Aus Daten werden Geschichten mit NLG
Natural Language Generation (NLG) ist das technische Stichwort hinter der automatisierten Content-Erstellung. Gemeint ist damit die Generierung von Zusammenfassungen, Analysen, Updates oder transaktionalen Texten durch Computer. NLG wird beispielsweise vom amerikanischen Unternehmen Narrative Science eingesetzt, um komplexe Daten über das Kundenverhalten in Geschichten umzuwandeln und darauf basierende Handlungsempfehlungen aufzuzeigen. So werden Zahlen und Statistiken zu Informationen, die für jeden Mitarbeiter einfach zu verstehen sind und keine weitere Erklärung benötigen. Entscheidungen können dadurch schneller und genauer getroffen werden. Ann Rockley formuliert es auf der Webseite des Content Marketing Instituts wie folgt:
“Intelligente Inhalte erfordern nicht mehr, dass der Mensch alle Inhalte bearbeiten muss. Stattdessen bewegt sich intelligenter Content in Richtung eines fortschrittlichen Publishing-Prozesses, der sich auf Daten und Metadaten stützt, Content-Bemühungen über Abteilungs-Silos hinweg koordiniert und Technologien intelligent nutzt – einschließlich zunehmend künstlicher Intelligenz und maschinellem Lernen.”
Die Grundregeln für Content-Automatisierung
Den eben zitierten Text habe ich aus dem Englischen mit Hilfe von Google Translate übersetzt und damit eine maschinelle Übersetzung generiert. Natural Language Processing – die Verarbeitung natürlicher Sprache durch Computer – ist die technische Basis hierfür und verwandt mit NLG. Digitale Sprach-Assistenten wie Alexa oder Siri basieren auf NLP, ebenso wie Chatbots. Wer versucht sich mit solchen Programmen via Facebook Messenger oder Google Assistant zu unterhalten, erkennt schnell die Grenzen der Technologie. Sinnvolle Dialoge zwischen Mensch und Maschine gehören zur größten technischen Herausforderungen in diesem Bereich. Auch automatische Übersetzungen sind längst nicht perfekt und benötigen nach wie vor Korrekturen durch den menschlichen Experten.
Es gilt: Je strukturierter, kürzer und datengetriebener ein Text ist, desto eher kann ein Computer diesen verarbeiten. Ist ein Beitrag jedoch länger, komplexer und kreativer, sinkt das Potenzial für die Automatisierung.
Mehr Konsistenz mit maschinellem Sehen
Natürlich bestehen Inhalte nicht nur aus Text, sondern auch aus Bildern oder Videos. Computer Vision ähnelt NLP, wenn es darum geht Muster und Ähnlichkeiten in großen Datenmengen zu identifizieren. Das ist hilfreich, wenn es um die Recherche nach Bildmaterialen geht, etwa bei Anbietern wie Getty Images oder Shutterstock. Dies kann mitunter ein langwieriger Prozess sein, insbesondere wenn das Visual mit einer Corporate Identity übereinstimmen muss.
Maschinelles Sehen erkennt in einer Menge von Fotos visuelle Merkmale die sich wiederholen und erlernt so z.B. die Bildsprache einer Marke. Das Berliner Unternehmen EyeEm ist Vorreiter auf diesem Gebiet: Hier trainieren Experten einen eigens entwickelten Algorithmus einzigartige, visuelle Kennzeichen zu identifizieren. Bei der Suche nach konsistenten Fotos durch einen Redakteur, hilft diese Technologie dann passende Aufnahmen in der Bilddatenbank zu identifizieren und schlägt ausschließlich kohärente Fotos vor. EyeEm machte bereits im November 2016 Schlagzeilen, als das AI-getriebene Unternehmen das Print-Magazin „Machina“ veröffentlichte, welches vollständig durch künstliche Intelligenz kuratiert wurde.
Content wird durch den Einsatz maschinellen Sehens konsistenter und kann schneller erstellt werden. Das Absegnen einer Landingpage – etwa durch einen Art Director – entfällt und damit die oft langwierige Abstimmung zwischen Abteilungen. Weitere Use-Cases sind denkbar, etwa die automatisierte Identifikation von Instagram-Influencern deren Bildsprache zur eigenen Marke passt. Grundlage für den Einsatz maschinellen Sehens ist eine vorhandene Sammlung konsistenter (Vor-) Bilder und die Bereitschaft, den Algorithmus wiederholt zu testen und zu trainieren.
Mein Fazit: Content und alle dazugehörigen Prozesse können von künstlicher Intelligenz profitieren. NLP, NLG und maschinelles Sehen steigern die Effizienz und erhöhen die Konsistenz innerhalb einer intelligenten Content Strategie. Jedoch nur, wenn menschliche Experten die richtige Datenbasis zur Verfügung stellen und gezielt Inhalte identifizieren, die ein hohes Automatisierungspotential aufweisen.
Quellen:
- Photo DALLE 2
- https://contentmarketinginstitute.com/2016/07/automation-future-content-creation/
- https://en.wikipedia.org/wiki/Automated_journalism
- https://contentmarketinginstitute.com/what-is-intelligent-content/
- https://creators.vice.com/en_us/article/z4qaq3/ai-curated-print-magazine-image-recognition
- https://narrativescience.com
- https://www.theverge.com/2017/5/14/15637588/salesforce-algorithm-automatically-summarizes-text-machine-learning-ai
- https://medium.com/stories-from-eyeem/how-we-trained-an-algorithm-to-predict-what-makes-a-beautiful-photo-e8de8bccd642
.