No quería hablar de este tema de nuevo, pero maldita sea, qué colossal error de cálculo por parte de OpenAI en todos los aspectos. El problema nunca fue trabajar o no trabajar con el gobierno. Deberías trabajar absolutamente con el gobierno. El problema subyacente surgió porque intentaron ser héroes en una situación muy, muy delicada, en un momento muy delicado. Hacer el héroe es extremadamente difícil, pero intentaron cronometrarlo. Publiqué sobre esto justo antes/después de que estaba sucediendo, que esto simplemente no tenía sentido (puedes leer mis publicaciones, todos me llamaron un morón). El cálculo de riesgo/recompensa estaba tan desviado y era unilateral. Esto ha tenido brutales efectos secundarios para OpenAI, incluyendo a Anthropic ganando *al menos* participación en la mente de los consumidores y algunas partes de la base de empleados *al menos* preocupados, si no profundamente confundidos. Publico esto no para criticar, sino para dar mi perspectiva, probablemente haya un estudio de caso de la Harvard Business School aquí.