Null zu Eins. Algorithmen und Content Marketing

Ein selbstlernendes algorithmisches Sys­tem verstärkt sich mit jeder Information selbst. Das kann sehr nützlich sein, solange die Kontrolle über das System erhalten bleibt. Mindestens genauso wichtig ist, dass der Al­go­rith­mus nicht von fehlerhaften oder diskri­mi­nie­ren­den Grund­an­nah­men ausgeht, weil er sonst – für die Betroffenen intransparent – „sozial sortiert“[1].

Letzte­res kommt übrigens häu­figer vor, wie Stichproben oder Zufalls­be­fun­de zei­gen. Vor allem, in den USA und anderen (außer-)europäischen Ländern, wo viel mehr Algorithmen zum Ein­satz kom­men als in Deutschland. Hier wie dort fehlt es an Lang­zeit­studien. Nicht zuletzt, weil einige Institu­tio­nen, Erzeuger und Ver­wender von Al­go­rithmen gar keine Transparenz erzeugen wol­­len oder aus technischen Gründen und mangelhafter Verantwortlichkeit gar nicht mehr geben können („Blackbox Algorithmus“). Algo­rith­men sollten transparent, erklärbar, überprüfbar und korrigierbar, sein, um Teilhabegerechtigkeit zu ermöglichen.[2] Zahlreiche Projekte von Stiftungen, Initiativen, engagierten Algo­rith­mik-Ethikern oder Digitalisierungskritikern nehmen an genau diesem Punkt ihre wichtige Arbeit auf. Denn selbst­ver­ständlich betrifft der Einsatz von Verfahren, die auf Algorithmen basieren, so­ge­nannte ADM-Prozesse („Al­go­­rithmic Decision Making“) längst die ge­sam­te Gesellschaft.

Codes haben Konsequenzen

Ob wir Kredite erhalten, hochbezahlte Stellen­an­ge­bote sehen können, teure KFZ Ver­siche­rungstarife be­zahlen müssen, schnell einen Arzttermin bekommen, Landesgrenzen ohne Kon­trollen passieren können, minutenlang in der Warteschleife von Callcentern verharren, Kur­genehmigungen erhalten, Inhalte in Suchmaschinen lesen können oder eben nicht – das und vieles mehr bestimmen Algorithmen auf weite Teile vor oder ent­scheiden ganz. Auf die Probleme innerhalb der gesell­schaft­lichen Diskursbildung – Stichwort Echokammern – brauche ich hier nicht einzugehen. Fakt ist aber auch: Algo­rith­men gehören zu unserer offenen, wissens- und netz­werk­basierten Gesellschaft dazu. Sie bergen nicht nur große Risiken, sondern auch große Chancen. Ohne Algorithmen gäbe es keine Com­puter, kein Smart­phone und kein Internet. Sie schaffen Angebote und Services, auf die nur wenige unter uns verzichten möchten. Automatische Über­set­zungen, Recht­schreibe­pro­gram­me, Navi­ga­tionsgeräte, Wet­tervorher­sa­ge, Dia­gnostiken und vie­les andere mehr.

Mustererkennung und Prognosenbildung

Algorithmen können gewaltige Datenmengen nach Mustern analy­sieren und damit zutreffende Prognosen ab­ge­ben. Je besser ein algorithmisches System die Vorlieben einer Person kennt, desto exakter kann dieses Vorhersagen über sie treffen. Dennoch überrascht, wie wenige Variablen ausreichen, um menschliche Entscheidungen vorherzusagen. In einer Studie von Facebook, an der über 85.000 Freiwillige teilnahmen, wurde untersucht, wie viele Like-Angaben (Klicks) erforderlich sind, um richtige, maschinell erzeugte Aussagen über die Dispo­sition und das Verhalten einer Person zu treffen. Bei 70 Likes lag der Algo­rith­mus besser als die Prognosen der eigenen Freunde. Bei 150 Likes schlug der Algorithmus Fami­lienangehörige und bei über 300 Likes schließlich auch Ehepartner.[3]

Maschinen lernen Bilderlesen

Seit maschi­nelles Lernen Posts, Stim­men und Bilder sinnhaft auswerten kann, entsteht ein riesiges Potential an verwertbaren Daten. Die Auswertung von Fotos in sozialen Me­dien wird das nächste große Ding der wachsenden Daten­ver­wer­tungs­in­du­strie. Denn in Bildern, Hashtags, Emojis und Likes schlum­mert ein noch nicht gehobener Schatz. Immerhin rund 300.000.000 Fotos werden allein auf Instagram täglich hoch­geladen, von WhatsApp oder Face­book nicht zu reden. Dank der ma­schinell gestützten visuellen Les­bar­keit sind der Dekodierung visueller Information praktisch keine Gren­zen mehr gesetzt. Unter dieser Perspektive erhält das unter dem Hastag „Food­porn“ beliebte Foto­grafieren und Posten von Mahl­zeiten andere Vorzeichen. Hier ein Foto von deftiger Schweinshaxe, dort ein Burger mit Bierchen, Smiley, zahlreiche Likes. Was ist schon dabei, wenn die ganze Welt weiß, dass mir Erdbeereis mit viel Sahne schmeckt, mag man einwenden? Erst einmal wenig, aber wenn dieses Faktum verbunden mit biometrischen Gesund­heitsdaten über Versicherungstarife bei Krankenkassen entschei­det, erhält es eben doch Bedeutung. Was im Einzelfall nur eine Vorliebe oder eine geschmackliche Präfe­renz sein mag, gewinnt hochge­rechnet Brisanz, weil es tiefe Ein­blicke in Verhalten und dessen Beeinflussung ge­währt.

Hassliebe Tracking

Wir haben uns daran gewöhnt, dass unser Einkaufs­verhal­ten im stationären Handel (z.B. durch Kundenkarten), besonders aber im Internet Gegenstand intensivster Auswer­tung ist. Der Einsatz algorithmi­scher Verfahren scheint unter bestimm­ten Prämissen mehr und mehr akzeptiert. Etwa, wenn wir uns davon erhoffen, individuell zugeschnittene Angebote zu erhal­ten. Viele Men­schen ahnen zwar, dass das Tracking auch seine Schattenseiten birgt, sie sind sich jedoch kaum be­wusst, wie viel die von ihnen hinter­lasse­nen Spuren aussagen.

„Etwa 90 Prozent der EU-BürgerInnen haben Sorge um ihre Sicherheit im Netz und sprechen sich für […] einfacheren Schutz gegen Nachverfolgung (Tracking) […] aus. Auf der anderen Seite aber bekundet nur noch ein Drittel der Deutschen (zwei Jahre zuvor waren es noch über 40 Prozent) Unbehagen, dass ihre persönlichen Daten im Netz (teils unbemerkt) gesam­melt werden. Und obwohl die meisten Menschen mittlerweile wissen, dass sie eigentlich sorgsam mit den eigenen Daten umgehen sollten, klafft eine große Lücke zwischen Wissen und Handeln.“ [4]

Selbstverständlich nutzt auch Content Marketing alle gän­gi­gen Ver­fahren des Trackings und der Personalisierung.Code und Content stehen im Content Marketing in einer wech­sel­seitigen Zweck­bezieh­ung. Über­zeugt davon, den Usern wichtige und rele­vante, statt rein werb­liche Inhalte bereitzu­stellen, haben Un­ter­nehmen, Agen­turen und anderen Organisa­tionen diese Prozesse unter­schiedlich weit per­fek­tioniert. Hauptquellen für die Sammlung von Daten zur personalisierten Ansprache sind: Standort, Demographie, Sei­ten­surf­ver­halten (abgerufener Con­tent), Kampagnenauswertung, Such­histo­rie, Personawissen, Customer Journey, Endgerät, Unter­nehmen, Browser. Diese Kategorien wurden 2017 in einer Umfrage unter Marketeers in den USA als die zehn wichtigsten Kategorien angegeben. Prinzipiell dürfen sie auch für Marketeers in Deutschland gelten.

Macht der Metadaten

Dabei sind die Metadaten in der Regel inter­es­santer als der dahinter befindliche reale User in personam: „Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.“[5] Sei es, dass sie zu idealtypischen Kunden in sogenannten Personas Verwendung finden, sei es, dass die reale Kundenhistorie immer nuancierter wird. Die Zeichen stehen auf Detektion. Wann? Wo? Wie? und Womit? erreiche ich meine Ziel­gruppen am besten? Denn jeder dieser Parameter beherbergt große Unterschiede hinsichtlich der Wirksamkeit von Con­tent. Ob ich einen kulti­gen Indie-Bier-Post im Bett lese oder unter­wegs in der Nähe des Wohnorts, gleich neben der hippen Kneipe, zahlt sich im Content Marketing sprich­wörtlich aus. Analoges gilt für B2B.

Die Customer Journey, also die Ein­kaufs­reise mit all ihren denkbaren realen und digitalen Stationen (Customer Touch­points) passt sich bestmöglich auf die unterschiedlichen Segmente an. Neuer Besucher, wieder­keh­render Besu­cher oder angemeldeter Kunde – stets geht es da­rum, das mut­maß­liche Vorhaben (Intent Recognition) best­mög­lich zu er­ken­nen, um prognostisch darauf zu reagieren. Je zu­tref­fender die Vorannahmen, desto besser die User Experi­ence.

Es dürfte nicht überraschen, dass mit der Segmentierung eine massive Filterung der bereitge­stell­ten Informationen einhergeht. Auch die dynamisierte Preisgestaltung wird durch sie unterstützt. Einer Umfrage in den USA zufolge dienen als Hauptinstrumente der Personalisierung bislang noch E-Mails (71 Prozent), Homepages (45 Prozent) und Landing-Pages (37 Prozent). Demgegenüber fallen Navigation (18 Prozent) oder Preisgestaltung (14 Prozent) erkennbar ab, doch mit technischer Optimierung dürfte sich das rasch ändern.[6] Lediglich 12 Prozent sind mit ihren aktuellen Perso­nali­sie­rungs­strategien „sehr zufrieden“ (zwei Prozent) bzw. “zu­frie­den“ (zehn Prozent).[7] Der erkennbare Raum für Ver­besse­rungen wird genutzt werden.

Algorithmus und Marke

Das Beispiel des onlinebasierten Personal Shop­ping Services Outfittery lohnt nähere Betrachtung. 2012 gegründet, funk­tioniert das Ge­schäfts­modell so:

 „Kunden beantworten auf www.outfittery.de zunächst einige Fra­gen zu Kleidungsstil, Größen und Preispräferenzen. Ein persönlicher Stylist stellt daraufhin eine Auswahl an Kleidungs­stücken zusammen, die dem Kunden bequem zur Anprobe nach Hause geschickt wer­den. Um die idealen Outfits auszuwählen, werden die Stylisten von Algorithmen unterstützt. Was dem Kunden gefällt, behält er, den Rest schickt er kostenfrei zurück. Das Ziel […]: Einkaufen für Männer so entspannt wie möglich zu machen und durch eine Kombination aus persönlichem Service und intelligenter Technologie für jeden die perfekte Auswahl zu bieten.“[8]

Je stärker sich Kunden darauf verlassen, dass ein Algorithmus eine Entscheidung trefflicher gestaltet als sie selbst, desto mehr Entlastung erfahren sie. Anstatt den Samstag mit Kla­mot­ten­suche zu verbringen, können sie bequem auf ein Überra­schungs­paket warten. OUTFITTERY ist kein Einzelfall. Sogenannter ku­ra­tierter Abo-Commerce wächst, zumindest in der USA.

„Regelmäßige Bezieher von Rasierklingen, Tierfutter oder Windeln aus dem Internet nähren ein neues Wachstums­segment: den Abo-Commerce. Seit 2011 hat sich der Markt jedes Jahr mehr als verdoppelt; 15 Prozent aller Onlineshopper in den USA beziehen bereits Produkte via Abo.“[9]

Die Ergebnisse der Abo-Commerce-Studie (durchgeführt unter 5.000 Abonnenten in den USA) zeigten zwar, dass die Kün­digungs­rate mit über 40 Prozent sehr hoch, sprich die Loyalitäts­werte sehr gering sind. Indes, Kunden, die mit einem Produkt oder Service zufrieden sind, werden durch algorithmisch opti­mier­te Dienste durchaus ge­hal­ten und an die für gut befundene Marke gebunden. Warum weitersuchen, wenn ich mit dem bis­he­ri­gen Angebot zufrieden bin? Wieso Zeit investieren, die anders besser genutzt werden kann? Je öfter Empfehlung und Auswahl an einen Algo­rithmus dele­giert werden, desto stärker wächst die Wahrschein­lichkeit, dass die Auswahl mit den Vorlieben zusammentrifft. Erklärtes Ziel ist es denn auch, möglichst direkt Kundendaten zu sammeln. Konsequent umgesetzt findet sich dieser Gedanke in den verschiedenen Modellen der Direct-to-Consumer (DTC) oder Direct Brands.

Wer glaubt, dass das doch alles nicht so schlimm sei und letztlich ja jeder selbst entscheide, ob er seine Daten preisgebe oder nicht, argumentiert entweder gezielt unterkomplex oder mag sich tatsächlich über mögliche Nebenwirkungen keine Gedanken machen.

Einen ausführlichen Blogpost zum Thema Direct Brands finden Sie hier


[1] David Lyon zitiert nach Stalder: https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/

[2] https://www.bertelsmann-stiftung.de/en/publications/publication/did/digitale-oeffentlichkeit, https://algorules.org/de/startseite

[3] Zitiert nach Yuval Noah Harari, Homo Deus. Eine Geschichte von Morgen, München 2017, 357

[4] Zivilgesellschaft, 48

[5] Stalder

[6] https://www.evergage.com/wp-content/uploads/2016/06/2016-Trends-in-Personalization-Survey-Report-Evergage-final.pdf, Evergage, 2018, 15

[7] Evergage, 2018, 9

[8] Outfittery, Pressemitteilung

[9]https://www.mckinsey.com/de/~/media/McKinsey/Locations/Europe%20and%20Middle%20East/Deutschland/Branchen/Konsumguter%20Handel/Akzente/Ausgaben%202018/Akzente_2-18_gesamt.ashx,