Erst kürzlich berichteten wir von FLoC, der neuen Remarketing-Lösung von Google. Nun war die Google I/O Keynote bis vor kurzem in vollem Gange und präsentierte eine Vielzahl an neuen zukünftigen Features und Produkten, darunter Updates für Google Search, Google Shopping, Google Maps, Android Datenschutzfunktionen und viele mehr.

Google hat die I/O Keynote letztes Jahr komplett abgesagt, somit gab es in diesem Jahr vieles nachzuholen. Die Konferenz fand in diesem Jahr ausschließlich virtuell und für jeden Teilnehmer kostenlos statt. Wir haben eine Auswahl an Updates der Google Entwicklerkonferenz für Sie zusammengefasst.

Google Search Updates

Die Google Suche erhält einige große Updates. Google arbeitet an neuen Tools, um die Suchergebnisse zu verbessern und den Nutzern mehr Suchoptionen zu bieten. Ein Beispiel, das während der Keynote verwendet wurde, war die Aufnahme eines Fotos von einem Paar Stiefel und die Frage, ob man damit den Mount Fuji besteigen kann. Das System analysiert zunächst die Stiefel auf dem Foto und liefert anschließend die gewünschte Antwort.

Google fügt allen englischen Suchergebnissen weltweit “Über dieses Ergebnis” hinzu und liefert damit wichtige Informationen und Kontext für verschiedene Websites und Dienste. Das Ziel ist es, wertvolle, hilfreiche und genaue Informationen aus vertrauenswürdigen Quellen bereitzustellen.

Für komplexe Suchanfragen hat sich Google folgendes überlegt. Die Lösung: MUM, eine Technologie, die sich Multitask Unified Model nennt.

Was ist Google MUM?

Google stellte fest, dass Nutzer im Durchschnitt 8 Suchanfragen für komplexe Aufgaben stellen. Dazu nannte Pandu Nayak, Google Fellow und Vice President Search, ein Beispiel. Sie haben in der Vergangenheit den Mount Adams erklommen. Jetzt wollen Sie im nächsten Herbst den Mount Fuji besteigen und wissen, was Sie anders machen müssen, um sich vorzubereiten.

Natürlich kann Google bei dieser komplexen Anfrage helfen, was jedoch einer wohl durchdachten, aufwändigen Mehrfachsuche vom Nutzer bedarf. Ein echter Wanderexperte hätte wahrscheinlich direkt die passende Antwort parat, die alle Gegebenheiten berücksichtigt.

MUM generiert Sprache und ist multimodal

Hier setzt MUM an. Ähnlich der Google Technologie BERT (2019), basiert MUM auf einer Transformer-Architektur, welche jedoch um ein tausendfaches leistungsfähiger ist. Die MUM-Technologie versteht und generiert Sprache und ist darüber hinaus multimodal.

Das bedeutet im Klartext, dass es Informationen über Text und Bilder hinweg versteht. Dadurch entwickelt es ein umfassenderes Verständnis von Informationen und Weltwissen. MUM lernt und arbeitet auch mit sprachübergreifenden Quellen und nutzt Quellen, beispielsweise verfasst in japanischer Sprache, um Suchanfragen zu beantworten.  Bzgl. des oben genannten Beispiels der Bergwanderung könnte MUM verstehen, dass die Gegebenheiten dieser zweier Berge miteinander vergleichen werden, sodass Informationen über die Höhe und über den Weg relevant sein könnten. Darüber hinaus versteht es, dass eine Vorbereitung Dinge, wie körperliche Fitness oder Ausrüstung, bedarf. Die Technologie könnte auch hervorheben, dass sich die Berge bzgl. der Höhenmetern kaum unterscheiden, aber im Herbst Regenzeit ist, sodass wetterfeste Kleidung benötigt wird.

Die Multimodalität der Technologie bedeutet, dass Nutzer ein Bild der Wanderschuhe machen und fragen könnten, ob sie damit auf den Mount Fuji wandern könnten. MUM versteht das Bild in Kombination mit der Frage und kann somit mitteilen, ob die Wanderschuhe gut geeignet sind. Im nächsten Schritt können Nutzer auf eine Seite mit einer Liste empfohlener Wanderausrüstung geleitet werden. Apropos Shopping. Google hat eine weitere Funktion gelauncht, die das Shoppingerlebnis maßgeblich erleichtern kann.

Die Google I/O Keynote 2021 - Android 12, Google Search und vieles mehr.

Die diesjährige Google I/O Keynote – Updates zu Search, Android 12 und vielen mehr. Quelle: Google YouTube

Google Lens: Shoppen und Übersetzen leicht gemacht

Das Einkaufen mit Google wird immer besser. Nutzer können Google Lens verwenden, um ein Foto oder einen Screenshot zu untersuchen, um damit nach Produkten zu suchen, die sie online kaufen können. Wenn sie zum Beispiel ein Foto von jemandem machen, der ein Paar Schuhe trägt, das sie gerne hätten, kann Google Lens die Schuhe identifizieren und den Nutzern sagen, wo Sie sie kaufen können.

An der Funktion, von Videos aus zu Produkten zu gelangen, wird aktuell noch gearbeitet und folgt in Kürze. Allerdings wird eine neue Funktion jetzt schon Imstande sein, Benachrichtigungen über Preissenkungen zu senden und automatisch Vergünstigungen (Rabattcodes etc.) zu verwenden, die auf Nutzer zu treffen. Informationen dazu zieht sich Google aus gespeicherten (vollen) Warenkörben, die folglich durch einen nicht durchgeführten Kauf, offen sind. Der Suchmaschienenriese verkündete darüber hinaus, künftig mit Shopify zusammen zu arbeiten, um Nutzern noch mehr Händler innerhalb von Google Shopping zu bieten.

Google Lens bietet zusätzlich folgende Funktionen: Man kann direkt über Speisekarten nach ähnlichen Gerichten suchen, über ein Bild eine Nummer anrufen, Wörter übersetzen, oder den Text vom Bild kopieren. Mit Google Lens können Nutzer Hilfestellung, Erklärungen und Videos bei komplizierten Aufgaben wie Mathematik erhalten.

Google Maps erhält Feinschliff

Google Maps erhält ebenfalls eine Reihe neuer Funktionen. Mit der Google Maps Live-Ansicht in Augmented Reality erhalten Nutzer nun mehr Informationen über Unternehmen. Dazu müssen diese ihr Smartphone Aufrecht halten und die Kamera z. B. auf ein Restaurant richten.

Die neue Live-Ansicht zeigt nun Bewertungen an, hebt Straßenschilder hervor und funktioniert eventuell auch in Innenräumen. Bereits seit dieser Woche ist die Funktion verfügbar, jedoch nur in ausgewählten Ländern. Dies ist ein Versuch, die Navigation und das Entdecken neuer Städte zu erleichtern. Darüber hinaus erhält Google Maps eine detailliertere Straßenkartenansicht, die Maps ein realistischeres Aussehen verleiht.

Die Suchergebnisse in Google Maps werden sich auch automatisch an die Tageszeit anpassen. So werden zum Beispiel Cafés früh am Morgen größere Pins haben, oder Take-Away-Anbieter für die Mittagspause später am Tag. Geschäfte in der Umgebung zeigen nun an, wie belebt eine Nachbarschaft ist, anstatt nur anzuzeigen, wie belebt ein bestimmtes Geschäft ist.

Fazit zur Google I/O Keynote 2021

Die Liste der Google Updates, wie z. B. ein neues Facelift und aktualisierte Datenschutzfunktionen für Android, ist immens. Wir sind gespannt, wie gut sich die neuen Funktionen etablieren, wann und welche Funktionen in Deutschland erscheinen und darauf, was uns zukünftig erwartet. Eine Übersicht über alle Themen der diesjährigen Google I/O Keynote finden Sie hier auf dem Google Developer YouTube Kanal zum Selbstansehen.