Benötigte Lesezeit: 2 Minuten
Claire Underwood ist eine Stilikone: Rund 80.000 Menschen suchen jeden Monat nach den Outfits der weiblichen Hauptrolle aus der Netflix-Serie “House of Cards”. Doch die Suche nach dem einen Kleid, dass dem Nutzer persönlich gefällt, ist schwierig. Allein die Eingabe des richtigen Suchbegriffes in eine Suchmaschine ist zeitaufwendig und führt nicht zum gewünschten Produkt. Kann visuelle Suche dieses Problem lösen?
Ein Objekt aus einem Foto zu finden, ohne über weitere Hintergrundinformationen zu verfügen, ist eine Qual. Keyword-Eingaben in Google á la “Schuhe Claire Underwood, Staffel 3, Episode 4, Szene mit dem Bürgermeister” führen in der Regel nicht zu genau dem Bild, dass man finden möchte. Im Gegenteil, der gesamte Suchprozess ist aufwendig, frustrierend und erfordert mehrfache Wiederholung.
Die traditionelle Bildersuche sieht aus wie folgt:
- Der Nutzer findet ein inspirierendes Bild, über welches er Details herausfinden möchte. Das kann ein Landschaftsfoto auf Instagram sein, oder das Outfit einer Serienfigur im Fernsehen.
- Mit dem Smartphone wird ein Foto vom Foto gemacht – ein Screenshot. Dieser wird dann zunächst im digitalen Ordner verstaut und wartet dort geduldig, bis zu einem langweiligen Sonntagabend.
- Dann hat der Nutzer Zeit, sich mit seinen Schätzen zu beschäftigen und auf die Suche zu gehen. Angefangen mit der Identifikation von möglichen Hinweisen im Bild selbst. Das kann ein Markenname, der Name der Schauspielerin oder Serie, ein Ortsschild oder jede andere Information sein, die beim Finden hilfreich ist.
- Die Suchmaschine der Wahl unterstützt den Recherchierenden: Manche versuchen es via Google Textsuche, manche gehen direkt zum favorisierten Online-Shop und andere laden das Bild in der Google Bildersuche hoch.
- Oft wird viel Zeit verwendet, um die Keywords zu verfeinern und sich durch viele Seiten zu klicken. Mit dem Ergebnis, dass exakt dieses Produkt nicht aufzufinden ist.
- In einigen Fällen ist die Recherche jedoch erfolgreich und der Nutzer landet auf der Produktseite und kann das gewünschte Objekt erwerben.
Dass dieser Prozess ineffizient ist, belegt eine Studie des amerikanischen Unternehmens Slyce: 74% der US-Amerikaner sagen, dass textbasierte Suche nicht hilft, das richtige Produkt zu finden. Warum quälen wir uns mit einem Vorgehen, dass uns nicht zum Ziel führt?
Inzwischen gibt es Technologien, die den Prozess des Findens abkürzen und erleichtern. Visuelle Suchfunktionen, etwa in den Apps von Pinterest, Amazon oder asos überspringen Schritt drei, vier, fünf und bauen eine Brücke vom Screenshot zur Produktseite. Das Foto wird nach dem Hochladen durch einen Algorithmus analysiert und mit dem Katalog des Online-Shops abgeglichen. In Sekundenschnelle werden dem Nutzer ähnliche Produkte angezeigt. Einfach, bequem und schnell. Doch es gibt Einschränkungen.
Die Grenzen der visuellen Suche
Gerade Mode ist für Maschinen sehr schwer zu identifizieren. Ein Kleidungsstück sieht stets anders aus, abhängig davon, wer es trägt. Die Parameter auf dem Foto ändern sich, je nach Körperform oder Größe des Tragenden, dem Licht, dem Wind etc.
Daher kann zu diesem Zeitpunkt kein visueller Suchalgorithmus Kleidung mit 100%iger Treffsicherheit identifizieren. Das Ergebnis sind ähnliche Produkte, aber eben nicht das exakte Ebenbild. Handelt es sich jedoch um einen Gegenstand wie einen Tisch, ein Buch oder eine Etagere, sind die visuellen Suchergebnisse bereits ausgezeichnet.
Mein Fazit: Mit der fortschreitenden Entwicklung dieser Technologie wird die Qualität der Suchergebnisse weiter zunehmen. In wenigen Jahren werden wir mit visueller Suche Zugriff auf eine Vielzahl von Informationen aus unserem Umfeld erlangen. Textsuche gehört spätestens dann der Vergangenheit an.
Quellen:
www.digiday.com/marketing/cheatsheet-know-visual-search/
Google AdWords