OpenAI setzt auf Audio und bereitet ein separates Gerät mit Sprachsteuerung vor

Von: Volodymyr Stetsiuk | heute, 01:03

OpenAI erweitert seine Arbeit an Audiomodellen und bildet ein einheitliches Team aus Ingenieuren, Produktmanagern und Forschern. Laut The Information bereitet das Unternehmen die Einführung eines persönlichen Geräts mit Sprachschnittstelle vor.

Was bekannt ist

In den USA sind Sprachassistenten dank intelligenter Lautsprecher bereits weit verbreitet. Meta hat fünf Mikrofone in Ray-Ban-Gläser integriert, um besser in lauten Umgebungen hören zu können. Google testet seit Juni "Audio Overviews" – eine Funktion, die kurze Zusammenfassungen von Suchergebnissen vorträgt. Tesla integriert den Grok-Chatbot von xAI in seine Autos, der Navigation, Klima und andere Funktionen per Sprache steuert.

Gleichzeitig arbeiten Startups an Audiogeräten. Entwickler des Humane AI Pin gaben Hunderte Millionen Dollar aus, bevor ihr bildschirmloses Gadget ein riskantes Beispiel für eine Markteinführung wurde. Das Friend AI-Pendant, das kontinuierlich Audio aufzeichnet und die Rolle eines virtuellen Freundes anbietet, hat wegen Datenschutzrisiken Bedenken aufgeworfen. Mehrere Unternehmen, darunter Sandbar und ein Startup von Eric Migicovsky (Gründer von Pebble), bereiten bis 2026 die Einführung von schlauen Ringen mit Sprachsteuerung vor.

Laut Quellen wird das neue Audiomodell von OpenAI in der Lage sein, natürlicher zu sprechen, Unterbrechungen im Gespräch zu verstehen und sogar gleichzeitig mit dem Benutzer zu antworten. Das Unternehmen erwägt auch, eine Familie von Geräten zu kreieren – möglicherweise einschließlich Brillen oder intelligenter Lautsprecher ohne Bildschirme. Jony Ive, ehemaliger Chefdesigner bei Apple, ist ebenfalls an OpenAIs Audioprojekten beteiligt. Eines seiner Prioritäten ist es, die Abhängigkeit von Bildschirmen durch neue Geräteformate zu reduzieren.

Quelle: The Information