OpenAI's S2S-preview is gepolijst, maar het denkt nog steeds in stappen. Spraak → tekst → model → tekst → spraak. Dat is niet hoe mensen met elkaar converseren. Introductie van Hydra. Een native spraak-naar-spraakmodel dat niet wacht op beurtwisseling, emoties niet in tekst afvlakt en niet vastloopt als je het halverwege een zin onderbreekt. Hydra redeneert asynchroon, spreekt en luistert tegelijkertijd, en behoudt emoties omdat het nooit het audiodomein verlaat. Het is nog steeds in bèta, maar de verschuiving is duidelijk. Als je vroege toegang wilt, is de link in de opmerkingen. Hier is een preview van hoe dat eruit ziet -