OpenAIs S2S-Vorschau ist ausgereift, aber sie denkt immer noch in Schritten. Sprache → Text → Modell → Text → Sprache. So kommunizieren Menschen nicht. Wir stellen Hydra vor. Ein natives Sprach-zu-Sprache-Modell, das nicht auf das Abwechseln wartet, Emotionen nicht in Text umwandelt und nicht zusammenbricht, wenn man es mitten im Satz unterbricht. Hydra denkt asynchron, spricht und hört gleichzeitig und bewahrt Emotionen, weil es niemals den Audio-Bereich verlässt. Es ist noch in der Beta-Phase, aber der Wandel ist offensichtlich. Wenn Sie frühzeitigen Zugang möchten, der Link ist in den Kommentaren. Hier ist eine Vorschau, wie das aussieht -