Zusammenfassung

Google stellt eine Reihe von Verbesserungen der KI-gestützten Suche mit MUM-Technologie vor.

Auf der jährlichen Search On-Veranstaltung am 29. Oktober zeigte Google mehrere Beispiele dafür, wie künstliche Intelligenz die Interaktion der Nutzer mit der Suche verändern kann. Dabei handelte es sich insbesondere um die MUM-Technologie.

Google kündigte neue Anwendungen für MUM an, darunter die multimodale Suche in Google Lens, relevante Themen für Videos und andere Suchfunktionen. Diese Ankündigungen ändern zwar nicht die Funktionsweise der Suchmaschine als Ganzes, aber sie bieten den Nutzern neue Möglichkeiten, nach Informationen zu suchen, und den Inhabern von Websites in den SERPs vertreten zu sein.

Gerade darin liegt der spannende Punkt: Die Suche wird nicht plötzlich völlig neu erfunden, aber sie wird feiner, kontextbezogener und ein Stück weit geduldiger. Wer heute Inhalte erstellt, sollte deshalb genauer hinschauen, wie Fragen gestellt, Themen eingegrenzt und Informationen miteinander verknüpft werden.

MUM

Google hat die Multitask Unified Model (MUM)-Technologie auf seiner I/O-Entwicklerkonferenz im Mai 2021 vorgestellt.

Wie BERT basiert auch MUM auf der Transformer-Architektur, aber die neue Technologie ist viel leistungsfähiger (um den Faktor 1.000) und kann mehrere Aufgaben gleichzeitig ausführen, um den Benutzern relevantere Ergebnisse zu liefern. Das Unternehmen bezeichnete dies als „neuen Meilenstein im Verständnis von Informationen“.

MUM kam erstmals testweise im Juni zum Einsatz, wobei das Unternehmen in der Lage war, in Sekundenschnelle mehr als 800 Varianten von Impfstoffnamen in mehr als 50 Sprachen zu identifizieren.

Die neuen Ankündigungen auf der Search On zeigen das multimodale Potenzial von MUM noch besser auf.

Für die Praxis heißt das vor allem: Google versucht, nicht nur einzelne Wörter zu verstehen, sondern Absichten, Zusammenhänge und verschiedene Eingabeformen zusammenzubringen. Ein Foto, eine Suchanfrage und ein Videoausschnitt können so stärker ineinandergreifen als bisher.

MUM-bezogene Verbesserungen in Google Lens

Google hat einen neuen Ansatz für die visuelle Suche vorgestellt, der MUM und die Google Lens-Technologie kombiniert. Insbesondere die Verwendung von MUM hat die Multimodalität bei der Suche ermöglicht, bei der ein Benutzer sowohl visuelle (Foto) als auch textbasierte Informationen (Anfrage) eingeben kann.

Als Beispiel hat ein Nutzer ein Bild von einem unbekannten Teil eines Fahrrads gemacht und gefragt, wie man es reparieren kann. Google war in der Lage, die Anfrage mit einem bestimmten Moment im Video in Verbindung zu bringen, so dass der Nutzer die benötigten Informationen finden konnte, ohne erst manuell nach Fahrradteilen suchen zu müssen.

In einem anderen Fall hat der Nutzer ein Bild eines Musters auf einem Hemd aufgenommen und Google gebeten, dasselbe Muster auf den Socken zu finden.

Diese Funktion wird Anfang 2022 verfügbar sein.

Solche Beispiele wirken auf den ersten Blick fast spielerisch, zeigen aber ziemlich deutlich, wohin die Reise geht. Die Suche wird weniger zur reinen Stichwortmaschine und mehr zu einem Werkzeug, das Inhalte in unterschiedlichen Formen zusammenführt.

Relevante Themen für Videos

Google nutzt MUM auch, um relevante Themen anzuzeigen, die nicht direkt in einem Video erwähnt wurden und dabei entsprechende Suchanfragen bzw. andere relevante Videos vorzustellen. Diese Funktion wird in den kommenden Wochen in der englischen Suche eingeführt. Es wird zunächst für YouTube-Videos zur Verfügung stehen, und in Zukunft sollen weitere hinzukommen.

Das ist besonders interessant für alle, die mit Video-Content arbeiten. Denn nicht nur das Gesagte zählt, sondern auch das, was thematisch mitschwingt. Wer Inhalte klar strukturiert und sauber einordnet, erhöht damit die Chance, in solchen thematischen Zusammenhängen aufzutauchen.

Neue Suchfunktionen, die MUM verwenden werden

Google hat auch mehrere neue Suchfunktionen vorgestellt, die auf anderen Technologien beruhen, aber in Zukunft mit MUM erweitert werden sollen. Dazu gehören beispielsweise:

  • Things to know: zeigt verschiedene Aspekte eines Themas und hilft dabei, schneller in die passende Richtung zu kommen.
  • Refine this search: grenzt eine ursprüngliche Anfrage ein und macht die Suche präziser.
  • Broaden this search: weitet eine Suche aus, wenn der erste Trefferraum zu eng ist.

Things to know
Diese Funktion listet verschiedene Aspekte eines Themas auf, für das sich der Benutzer interessiert. So können die Nutzer sehen, was andere Leute zu diesem Thema suchen und die gewünschten Informationen schneller finden.

In einem Beispiel zeigte Google bei der Suchanfrage „Acrylmalerei“ andere Variationen der Suchanfrage, die den Nutzer zuerst interessieren könnten, wie z. B. Schritt-für-Schritt-Anleitungen oder Malen mit Acrylfarben mit Haushaltsutensilien.

Auch diese Funktion wird in den kommenden Monaten eingeführt werden.

„Refine this search“ (Suche verfeinern) und „Broaden this search“ (Suche ausweiten)

Diese Funktionen ermöglichen es den Nutzern, die gesuchten Informationen zu erhalten, indem sie die ursprüngliche Anfrage einschränken oder erweitern. Diese Funktionen werden in den kommenden Monaten in der englischen Suche eingeführt.

FunktionWas sie leistetPraktischer Nutzen
Things to knowZeigt thematische UnterpunkteSchnelleres Verständnis eines Themas
Refine this searchGrenzt die Suche einPräzisere Ergebnisse
Broaden this searchWeitet die Suche ausMehr Kontext und weitere Perspektiven

Unterm Strich macht Google mit MUM einen weiteren Schritt in Richtung einer Suche, die nicht nur reagiert, sondern mitdenkt. Für Nutzer ist das bequem. Für Website-Betreiber bedeutet es vor allem, Inhalte so aufzubereiten, dass sie klar, anschlussfähig und inhaltlich sauber sind. Genau dort entscheidet sich künftig noch stärker, ob ein Thema sichtbar wird oder im Hintergrund bleibt.

Weitere Algorithmen SEO-News