Das Smartphone lernt sehen

Quelle

Jedes Smartphone verfügt heute über eine mehr oder weniger gute Kamera. Halt: Es sind in der Regel sogar zwei Kameras, eine an der Frontseite und eine auf der Innenseite, für Selfies. Google will die Kamera(s) nun auch zum Googeln benutzen. Richtig gelesen: Warum mühsam eintippen, was man auch mit der Smartphone-Kamera fotografieren kann. Das ist die Idee, die hinter einem wirklich interessanten Projekt steckt, das Google auf seiner Entwicklerkonferenz Google I/O gezeigt hat.

Google Lens: Das Smartphone erkennt Gegenstände und liefert Infos; Rechte: Google

Google Lens: Das Smartphone erkennt Gegenstände und liefert Infos

Fotografieren statt eintippen oder sprechen

Im Jahr 2009 hat Google schon mal eine erste Lösung für diese Idee gezeigt: Google Goggles hieß das damals. Wer zum Beispiel mit Goggles ein Filmplakat abfotografiert, bekommt Infos zum betreffenden Film. Oder kann sich die passende Musik anhören, nachdem er (oder sie) das Cover einer CD eingefangen hat. Entscheidend weiter entwickelt hat Google die Idee allerdings in den letzten Jahren nicht. Praktisch niemand kennt Google Goggles – und das sagt schon alles.

Die Idee ist aber trotzdem gut. Mittlerweile können Computer viel mehr, sie können noch schneller noch größere Datenmengen verarbeiten. Die Künstliche Intelligenz (KI) schreitet in Siebenmeilenstiefeln voran. Digitale Assistenten sind heute mehr oder weniger selbstverständlich. Heute funktioniert das so: Kamera draufhalten – und sich schlau machen. Nicht eintippen, was man wissen will, auch nicht sagen, klicken oder wischen, sondern fotografieren.

Google Lens ist vielseitig einsetzbar; Rechte: Google

Google Lens ist vielseitig einsetzbar

Betriebssystem der Zukunft kann sehen

Einfach das Smartphone sehen lassen, was man selbst gerade sieht – und darauf vertrauen, dass verwertbare Informationen kommen. Das ist die Idee hinter Google Lens. Eine neue Anwendung, die auf der Google I/O präsentiert wurde. Klingt nach einer Spielerei, ist aber ein äußerst mächtiges Werkzeug. Dass Google sein Google Lens präsentiert, zeigt, in welche Richtung Google marschiert. Das Betriebssystem der Zukunft kann nicht nur hören (Siri, Cortana, Now …), sondern auch sehen. Wie immer bei neuen Technologien wird das erst mal nur beschränkt funktionieren, aber man muss diesen Plan zu Ende denken.

Menschen sind faul. Wenn es wirklich funktioniert, dass man sein Smartphone etwas sehen (und erkennen) lässt, kann das alles verändern. Den aktuellen Standort kennt das Smartphone sowieso, der Kompass verrät, in welche Richtung man schaut. Ob man gerade vor einem Museum steht oder vor einem Springbrunnen, weiß Google also sowieso. Schaut das Smartphone gerade ein Gemälde an, kommen Infos dazu. Ist ein Gebäude zu sehen, kommen Infos dazu. Hält man die Kamera auf einen Besucher, wird verraten, wer das ist … Aber halt, das ist zwar technisch möglich, aber bestimmt nicht gewollt.

Ich muss es nicht extra erwähnen: Google bekommt dadurch noch sehr viel mehr Infos geliefert als jetzt schon. Gar nicht mal nur persönliche Informationen (was interessiert mich, was schaue ich mir an), sondern auch allgemeine: Ist es hell oder dunkel? Sind gerade viele Menschen dort, wo ich bin? Ist es laut oder eher leise? Parken die Autos um einen herum oder fahren sie? Ist der Sonnenschirm auf der Terrasse aufgespannt?

Es ist alles nur eine Frage der Rechenleistung, die zur Verfügung gestellt wird. Google Lens fließt erst mal in den Google Assistant und Google Fotos ein – wird also Bestandteil des virtuellen Butlers. Früher oder später wird die Funktion aber ganz sicher fester Bestandteil von Android werden. Im Google Pixel Smartphone hat der Assistent auch bereits eine zentrale Funktion.

Wer sich über Überwachungskameras aufregt, sollte sich die Mühe sparen. In Zukunft sind in jedem Moment 1.000 Mal mehr vernetzte Kameras um einen herum aktiv und fangen alles ein. Bei der NSA denkt man sicher schon darüber nach, was man damit alles anstellen kann.

Quelle