Die Stimme der Kunden – das Mantra im Marketing wird Realität

Wer kennt nicht den Leitsatz im #Marketing, die „Bedürfnisse des Kunden erkennen, seine Stimme hören“. Mit der Sprachsuche ist er nun Wirklichkeit geworden. Mein vorheriger Artikel hat sich mit den Bots und deren Einbindung in Marketingkampagnen beschäftigt. Als Fortsetzung geht es nun um Voice Search und die sich daraus ergebenden Konsequenzen für das Marketing.

Der hohe Anspruch liegt bei dieser Technik in der natürlich sprachlichen Eingabe: Vor 10 Jahren kannte die Sprachsteuerung ungefähr 70.000 Vokabeln, heute sind es mehrere Millionen. Nach Angaben von Google und Bing erfolgt schon jetzt jede vierte Suche durch Sprechen und nicht durch Tippen. ComScore prognostiziert bis ins Jahr 2020 sogar 50 Prozent.

Drei Grundmotive für die Nutzung

Alle Tech-Unternehmen haben die Bedeutung der Sprachsuche erkannt. Deshalb entwickelten sie die Assistenten so intelligent und reaktionsfähig wie möglich weiter, um ihre Marktanteile auszubauen. Die enorm gestiegene Qualität – sowohl bei der Spracherkennung als auch bei der Sprachausgabe – ist der Grund, warum die Nutzung so stark gestiegen ist. Denn die exzellente Logik der Assistenten wie Siri, Alexa und Co. schafft den Mehrwert zwischen Spracheingabe und – ausgabe für die Kunden.

Dabei werden drei Motive unterschieden:

1.      Das informationale Interesse des Kunden (Fakten, Hintergründe)

2.      Das navigationale Interesse des Kunden (Überblick oder Optionen erhalten)

3.      Das transaktionale Interesse des Kunden (der tatsächliche Kauf)

Das informationale Interesse „Wann wurde J.F. Kennedy geboren?“ oder „Wann findet das Festival XY statt?“ kann die Maschine ohne Probleme recherchieren und ausgeben. Frage ich jedoch „Warum wurde J.F. Kennedy ermordet?“ oder „Wie kam es zum Boxeraufstand?“ zeigen Misere, in der die Systeme stecken: Will man nicht immer nur den Wikipedia-Eintrag hören, ist die Quelle nicht eindeutig zu erkennen. Darüber hinaus ist es schwierig, relevante Fakten beim Zuhören zu filtern.

Ähnlich schwierig ist es beim navigationalen Interesse: Bei der Abfrage „In welchem Kino läuft Film XY?“ bekomme ich eine lange Liste mit vielen Parametern vorgelesen. Will ich aber nur die Spielzeit, die Sprachfassung etc. wissen. Das heißt für mich als Kunden, dass ich jede Abfrage einzeln starten muss.

Bei transaktionalen Interessen weiß ich bei Alexa, dass ich nur bei Amazon bestellen kann. Ich weiß jedoch auch dann nicht, welcher Anbieter dahintersteckt, bzw. ob es dieses Produkt auch gebraucht zu kaufen gibt.

Das Sterben der Zwischenhändler

Was können heutzutage Zwischenhändler, was z.B. Google nicht ebenso kann? Eigentlich nichts – prinzipiell ist der Mehrwert und die Convenience für den Kunden nicht mehr vorhanden. Denn diese bestanden hauptsächlich darin, dass die Plattformen über Datensammlungen die eigene Recherche erspart haben.

Deshalb dienen die Händler wie Hotel-, Autokauf- und alle anderen Vermittlerseiten wie Preisalarm etc. nur als Übergangstechnologie für kleine Anbieter, die über Voice Search ersetzt werden.

In Zukunft wird es für den Nutzer noch leichter – egal was er benötigt: Google, Siri Alexa und Co. können es erledigen.

Das Vorgaukeln sozialer Interaktion

Die bisherigen Ausführungen klingen zwar technisch, werden von den Nutzern jedoch nicht als Technologie erlebt. Denn die Weiterentwicklung der natürlichen Spracheingabe und -ausgabe suggeriert eine soziale Situation – eine Vermenschlichung des Computers.

Ein weiterer Vorteil besteht darin, dass das Gerät ohne Widerspruch die Befehle ausführt. Der Kunde muss nicht diskutieren und hat das Gefühl, einen unsichtbaren Butler zu haben, der ihm lästige Aufträge abnimmt.

Die Fehlerquote bei der Spracherkennung von Google liegt – bis auf die vorher geschilderten Probleme – nur noch bei 8 Prozent. Vor zwei Jahren waren es noch 25 Prozent – eine Folge des Natural Language Understanding (NLU = Verarbeitung natürlicher Sprache).

Alleine die Verbreitung auf 3,9 Milliarden Apple-, Android- und Windows-Geräten zeigt, dass die Sprachsuche schon heute zu den am meisten verwendeten #KI (Künstlichen Intelligenz)-Technologien gehört.

Die One-Customer-Fokus-Gruppe

Noch nie war es so einfach, den Kunden zu erreichen und von dem, was er sagt zu lernen. Die Marke Tide erfährt zum Beispiel, dass der Kunde nach einer bestimmten Fleck- und Stoffkombination sucht, die völlig neu ist. Kommen die Suchen häufiger vor, kann daraus eventuell ein neues Produkt entstehen. So hat jeder einzelne Kunde die Möglichkeit mit seiner Stimme Einfluss auf die Produktentwicklung zu nehmen.

Und das ist das Wertvollste, was alle Marketer aus der Sprachsteuerung gewinnen können: Daten! Diese #Daten werden von intelligenten Unternehmen für die Weiterentwicklung und die Eroberung neuer Märkte und Kunden genutzt! Ein weiterer Vorteil ist die einfache Evaluierung der Marketingaktivitäten, denn die Analyse zeigt relativ schnell, ob neue Produkte funktionieren oder nicht.

Grenzen für den Handel?

In Deutschland ist BMW der erste Automobilhersteller, der durch Alexa die Steuerung von Fahrzeugfunktionen von zu Hause per Sprachsteuerung ermöglicht. So dirigiert Alexa den Kunden auch zur nächsten Pizzeria oder zum Shopping-Center.

Momentan sind die Sprachsteuerungen verschiedener Marken noch eher ein Gimmick. Layne Harris, Leiter der Innovationstechnologie der digitalen Markenagentur 360i, ist der Ansicht, dass vorausdenkende Marken die Technologie schon jetzt in Anspruch nehmen sollten.

Patrón Spirits als erfolgreiches Beispiel nutzte Alexa für sein „Cocktail Lab“. Dort waren 50 Barkeeper auf der ganzen Welt an der Herstellung neuer Tequila-Getränke beteiligt. 350.000 Verbraucher haben am „Cocktail Lab“ teilgenommen, mehr als 10 Prozent kamen über Alexa und laden sich noch heute mehr als andere Nutzer neue Tequila-Rezepte herunter.

Spannend wird es für Marken wie H&M, Zara, Primark und Co, die ihr eigenes Sortiment führen, das es eben nur dort gibt. Sie werden auf die Ladengeschäfte nach wie vor angewiesen sein. Darüber hinaus stellt sich die Frage, ob Kunden tatsächlich ein „rotes T-Shirt von H & M“ oder eher „ein rotes T-Shirt unter 10 Euro“ ordern. Diese Marken funktionieren auf den Voice-Plattformen nur bedingt, denn Sie benötigen die Inspiration, um den Kaufanreiz auszulösen.

Konsequenzen für das Marketing

Sprachsteuerung wird nach Meinung von Fachleuten zu einem Schlüsselelement in der Marketingstrategie. Inwieweit man dabei ohne Bildschirm auskommt ist fraglich. Denn Bilder sind die wichtigsten Elemente im digitalen Marketing. Sogenannte Voice First Geräte werden in erster Linie Tastatur, Maus und Finger ersetzen. Bei deren Verwendung bestimmen die Kenntnisse des Nutzers die Grenze. Denn er muss vorher genau wissen, was er will: eine Aufgabe erledigen, Fakten erfahren etc. Und darin besteht die Problematik: die Verständniswelten von Mensch und Maschine müssen in Einklang gebracht werden. Wenn der Kunde nicht genau weiß, was er will, wird es für ihn bequem, das gleiche Essen beim gleichen Lieferanten zu bestellen oder die gleiche Musik zu hören. Für die Inspiration, das Neue gibt es keine Chancengleichheit.

Es kann sogar umgekehrt passieren – und die Wahrscheinlichkeit ist hoch -, dass sich die Kunden mit ihren Sprachverständnis-Kompetenzen der Sprach-Erkennung anpassen. So muss mancher Texter in der Werbeagentur umdenken. Der gesprochene Text vom Sprachassistenten wird anders wahrgenommen als ein geschriebener. Der Vorteil ist allerdings, dass die Botschaft damit für den Empfänger auch stärker als bisher erlebt wird.

Mit Hilfe der Sprachsuche werden häufig lokale Anbieter gesucht, wie das Beispiel BMW zeigt. Damit tun sich auch große Chancen für lokale Unternehmen auf. Ob Voice Marketing zum großen Tech-Trend wird?

“Right now we’re creating the horse and carriage of voice technology,” said Patrón’s Parker. “Give it another 18 to 24 months, and we’ll be building Maseratis.”

Bildquelle: Coloubox ID # 28905768

 

Künstliche Intelligenz: Was Star Wars mit dem neuen Home Pod von Apple zu tun hat!

Während wir in Deutschland noch erklären müssen, was ein (Chat)Bot ist, legen Google, Amazon und Apple richtig los. Sprachgesteuerte Lautsprecher sind erst der Anfang! Schon heute werden über 20% der mobilen Anfragen bei Google erfolgreich über die Stimme gesteuert! Die digitalen Assistenten erobern unsere Welt? Oder sind wir doch noch nicht so weit? Und welches Marketing-Potenzial bietet diese Art der #Künstlichen Intelligenz

Erklärungsversuch über den Hype-Zyklus

Der Hype-Zyklus von Gartner beschreibt die unterschiedlichen Phasen der öffentlichen Aufmerksamkeit, die eine neue Technologie bei der Einführung durchläuft. Die Vorhersagen sind fast alle eingetroffen, angefangen von Augmented Reality bis zum 3-D-Druck!

Sieht man die Entwicklung bzw. die Vermarktung der Sprachassistenten oder der „Voice Search“ als den technologischen Auslöser (Phase 1) an, stößt gerade der Echo-Lautsprecher von Amazon auf ein großes Interesse. Mit seinem Sprachassistenten Alexa wurden alleine im vierten Quartal 2016 über 4,2 Millionen Exemplare verkauft. Der Marktanteil liegt laut eMarketer in diesem Jahr bei 70 Prozent!

Momentan befinden wir uns in Phase 2: es überstürzen sich die Berichte, ein übertriebener Enthusiasmus macht sich breit und die oft unrealistischen Erwartungen führen dazu, dass die Nutzer versuchen, die Sprachassistenten und die Künstliche Intelligenz mit verwirrenden Fragen auszutricksen. Es ist jedoch klar, dass diese Technologien noch ihre Kinderkrankheiten haben.

Erste Berichte machen sich bereits breit, dass Alexa, Siri und Cortana die Erwartungen nicht erfüllen können (Phase 3), Gartner nennt es das „Tal der Enttäuschungen“, bei dem die Berichterstattung irgendwann abnimmt.

In Phase 4 gewinnen wir durch realistischen Einschätzungen den „Pfad der Erleuchtung“, indem wir die Grenzen aber auch den Nutzen der neuen Technologie annehmen. In dieser Phase findet eine starke Weiterentwicklung statt.

In Phase 5 wird die Technologie immer solider und bereits in der zweiten und dritten Generation vermarktet. Sie erreicht damit das „Plateau der Produktivität“. Und dies wird laut Gartner noch ungefähr 2 Jahre dauern.

Von Star Wars zum Home Pod

Der Androide Data aus Star Trek oder der goldige Star-Wars-Protokolldruide C3PO – in vielen Filmen findet man intelligente, künstliche Geschöpfe! Deshalb ist es für uns auch nicht ungewöhnlich, mit künstlichen Geschöpfen wie Computern zu kommunizieren. Es macht sie für uns menschlicher, persönlicher. So engagiert zum Beispiel das Unternehmen Microsoft ein Team aus Drehbuchautoren, Lyrikern und Schriftstellern, um für seine digitale Assistentin Cortana die größtmögliche menschliche Komponente heraus zu kitzeln. Doch wie menschlich darf es denn sein?

Durch Untersuchungen hat der Robotiker Masahiro Mori festgestellt, dass es bei zu großer Menschenähnlichkeit der Computer zu einer starken Akzeptanzlücke kommt (Uncanny Valley). Die Betrachter finden teilweise völlig künstliche Figuren sympathischer als diejenigen, die besonders menschenähnlich gestaltet sind.

Der Erfolg von Yoda aus Star Wars ist auf seine teilweise unvollkommene Sprache zurückzuführen:  „Euch lebend zu sehen, mein Herz aufs Wärmste erfreut“. Fragt man nun Cortana von Microsoft, gibt Sie unumwunden zu, dass sie kein Mensch ist. Deshalb ist sie auch eine „Bürgerin des Internets“ und hat keinerlei politische Präferenzen. Oder wird der Film „Her“ doch Wirklichkeit, in welchem sich ein Briefautor in die weibliche Stimme seines Betriebssystems verliebt?

Der neue HomePod mit der Assistentin Siri von Apple spielt, wie der Echo von Amazon auch, auf Zuruf Top-Hits aus einem bestimmten Jahr, den Soundtrack eines Films oder auch nur eine Musikrichtung. Während Apple dabei auf den hauseigenen Dienst Apple Music zugreift, ist es beim Echo Amazon Music.

Wo liegen Zukunft und Potenzial von Siri, Alexa und Co.?

Alexa von Amazon, Siri von Apple, Cortana von Microsoft und Google Home sind ständig mit dem Internet verbunden, erzählen Witze, beantworten Fragen und man kann mit ihrer Hilfe sein vernetztes Zuhause steuern. Auf Zuruf wird zum Beispiel das Licht an- und ausgeschaltet, demnächst kann man auch seine Pizza bestellen. Durch die ständige Weiterentwicklung sind der Phantasie keine Grenzen gesetzt.

Das ist jedoch nicht alles: Schaut man sich die Hightech-Messe CES an, weiß man, was den Verbraucher in Zukunft erwartet. Schon in diesem Jahr haben ca. 700 internationale Unternehmen Geräte präsentiert, die mit Alexa entweder funktionieren, oder in die der Sprachassistent bereits eingebaut ist. So hat die Firma LG einen Kühlschrank mit Künstlicher Intelligenz entwickelt. Sie sorgt dafür, dass ich mich mit meinem Kühlschrank über Rezepte unterhalten kann oder meine Milch bei Amazon Fresh nachbestellen kann. Die Firma Whirlpool lässt mit Alexa demnächst seine Waschmaschinen steuern und raten Sie mal, wo ich dann die Möglichkeit habe, mein Waschpulver nachzubestellen?

Die Prognosen sind unglaublich: Das Marktforschungsinstitut Gartner geht davon aus, dass in den nächsten vier Jahren rund sieben Milliarden Geräte durch Alexa und Co. miteinander verbunden sind. Und diese Geräte sind dank Künstlicher Intelligenz über die Sprache zu steuern. Die Fragen und Antworten befinden sich dann in den Cloudsystemen – zum Beispiel von Amazon – die anhand der Daten auch Weiterentwicklungen vorantreiben. Doch hier stellt sich die nächste Frage: Wie sieht es mit dem Datenschutz aus? Denn die Geräte können über die Sprachsteuerung auch Gespräche mithören! Ist unsere Politik überhaupt darauf vorbereitet, zeitnah entsprechende Gesetze zu verabschieden, die all das regulieren? Zurzeit klingt das bei der Bundesbeauftragten für Datenschutz nicht so, sie bewertet die Geräte nur kritisch. Doch das reicht nicht aus, der technologische Fortschritt lässt sich nicht stoppen, sondern muss geregelt werden! Wie sagt Yoda in Star Wars? „Tue es oder tue es nicht. Es gibt kein Versuchen.“