Kaum ein Sektor entwickelt neue Produkte so rasant wie die Tech-Branche. Woran tüfteln die großen Konzerne aktuell?
Nicht alle der in Patenten festgehaltenen Ideen erblicken auch tatsächlich irgendwann in Form von Produkten das Licht der Welt. Dennoch bieten Patente einen spannenden Einblick in die Bereiche, an denen die Tech-Unternehmen forschen. Denn geforscht wird viel: IBM, Google und Apple wurden allein 2020 gemeinsam fast 14.000 Patente bewilligt. Drei der vielversprechendsten Patente der Tech-Konzerne, die kürzlich von der US-Patentbehörde PTO veröffentlicht wurden, stellen wir hier vor.
Jederzeit bereit: IBMs virtueller Assistent
Auch wenn sich das Gerücht hartnäckig hält: Alexa, Siri und der Google Assistant hören nicht ununterbrochen zu. Die Anbieter integrieren in ihre Anwendungen ein „Wake Word“, also ein Wort, das den virtuellen Assistenten wortwörtlich aus dem Schlaf erwachen lässt. „Hey Siri“. Die restliche Zeit verbringt er in seliger Ruhe.
Das könnte sich zumindest bei IBM nun durch ein gerade veröffentlichtes Patent ändern: Darin beschrieben ist ein Computersystem, das ständig die Gespräche in einem Raum daraufhin analysiert, ob eine Anweisung ausgesprochen wurde. Hat das System einen Befehl erkannt, untersucht es, ob dieser vielleicht an eine zweite Person gerichtet wurde. Ist dem nicht so, geht das System davon aus, selbst gemeint gewesen zu sein – und führt den Befehl einfach selbst aus.
Foto: Getty
Das funktioniert ohne ein „Wake-Word“. Fragt Person A „Könntest du bitte den Tisch im Onlineshop bestellen?“ und Person B reagiert darauf nicht, dann könnte der Tisch vielleicht trotzdem ins Haus kommen. Geliefert durch die virtuelle Assistenz IBMs. Die Erfahrungen mit tausenden Irrungen von Smart Speakern zeigen, dass diese eben doch recht fehleranfällig sind.
Was daraus wird, ist aber nicht klar: Noch ist das Patent nicht bewilligt worden. Und mit dem neuen Ansatz ist IBM auch nicht ganz allein: Vergangenes Jahr mehrten sich Gerüchte, dass auch Google an einer ähnlichen Funktion ohne „Wake Word“ arbeitet.
Miriam Meckel und Léa Steinacker besprechen im ada-Podcast, wie die Mensch-Maschine-Kommunikation unser Verhalten verändert.
AR für die Speisekarte
Wer im Restaurant die Speisekarte studiert, kann sich die Gerichte nur anhand der Beschreibung oft nicht vorstellen. Google möchte das mit einem neuen Patent erleichtern: In der vorgestellten Anwendung ergänzt ein Augmented Reality-Overlay Gerichte auf der online aufgerufenen Speisekarte mit entsprechenden Fotos der Speisen. Der Entscheidungsprozess eines jeden Hungrigen, der von der Speisekarte bestellen möchte, soll so erleichtert werden.
In einem komplexen System aus Verlinkungen assoziiert die Anwendung den Ort des Restaurants mit dort aufgenommenen Fotos von Speisen und Beschreibungen, die auf Webseiten oder in Bilddatenbanken zu finden sind. Scrollt sich eine Person dann durch ein Menü mit Textbeschreibungen, öffnen sich dazu im AR-Modus die passenden Fotos, die das jeweilige Essen zeigen. Zusätzlich zu den Bildern der aufgelisteten Menüpunkte könnte die Anwendung auch Bewertungen von anderen Nutzer:innen mit einbeziehen.
Künftig leitet Google also nicht nur mit dem Kartenservice „Maps“ den Weg zum Restaurant, sondern hilft auch bei der Essensauswahl.
AR-Anwendungen durch Gesten lenken
Ein Schnipp mit den Fingern, ein Tippen mit dem Daumen und schon kann man mit den eigenen Händen eine ganze virtuelle Welt in Bewegung versetzen. Darauf lässt zumindest ein neues Patent von Apple hoffen, das die US-amerikanische Patentbehörde PTO gerade prüft. Nutzer:innen könnten demnach in Zukunft mit sogenannte „Mikrogesten“ Aktionen in einer Augmented-Reality-Umgebung direkt durch Handbewegungen durchführen.
Noch brauchen sie dafür zusätzliche Geräte wie Joysticks oder Touchscreens, die die Interaktion mit der virtuellen Umgebung erst möglich machen. Genau die sind aber fehleranfällig. Manchmal reagieren sie nicht wie gewünscht, außerdem sind sie abhängig von einer Energiequelle. Da ist die Freude schnell vorbei.
Apple will nun eine effizientere Mensch-Maschine-Schnittstelle herstellen. Dafür nehmen Kameras die Handbewegungen der Nutzer:innen auf. Diese Kameras können in ein am Kopf getragenes Gerät integriert oder verteilt im Raum platziert sein. Ein System entschlüsselt dann die Handposition und -bewegung und führt die gewünschten Vorgänge direkt im virtuellen Raum aus. Die Hand wird so zum effektiveren Joystick.
Die Erfindung könnte AR-Umgebungen völlig verändern. Denn dann wären Nutzer:innen in der Lage sich ganz unabhängig und ungehindert von Gegenständen frei im Raum zu bewegen. Die künstliche Realität käme so näher an die reale Erfahrung heran.
Titelbild: Getty Images