OpenAIs S2S-Vorschau ist ausgereift, aber sie denkt immer noch in Schritten.
Sprache → Text → Modell → Text → Sprache.
So kommunizieren Menschen nicht.
Wir stellen Hydra vor.
Ein natives Sprach-zu-Sprache-Modell, das nicht auf das Abwechseln wartet, Emotionen nicht in Text umwandelt und nicht zusammenbricht, wenn man es mitten im Satz unterbricht.
Hydra denkt asynchron, spricht und hört gleichzeitig und bewahrt Emotionen, weil es niemals den Audio-Bereich verlässt.
Es ist noch in der Beta-Phase, aber der Wandel ist offensichtlich. Wenn Sie frühzeitigen Zugang möchten, der Link ist in den Kommentaren.
Hier ist eine Vorschau, wie das aussieht -
Ich freue mich, @useclick_ai zu starten - einen Cursor für deinen KI-Assistenten. Mein Ziel ist es, KI-Assistenten zu ermöglichen, mehr zu tun als nur zu chatten. Kontaktiere mich, um eine Demo auf deiner Plattform zu sehen!