Je ne voulais pas reparler de ce sujet, mais bon, quelle énorme erreur de calcul de la part d'OpenAI dans tous les domaines. Le problème n'a jamais été de travailler ou non avec le gouvernement. Vous devriez absolument travailler avec le gouvernement. Le problème sous-jacent est survenu parce qu'ils ont essayé d'être des héros dans une situation très, très délicate, à un moment très délicat. Jouer les héros est extrêmement difficile, mais ils ont essayé de bien chronométrer cela. J'en ai parlé juste avant/après que cela se produise, que cela n'avait tout simplement aucun sens (vous pouvez lire mes publications, tout le monde m'a traité de moron). Le calcul risque/récompense était tellement décalé et unilatéral. Cela a eu des effets secondaires brutaux pour OpenAI, y compris Anthropique gagnant *au moins* en notoriété auprès des consommateurs et de certaines parties de la base d'employés *au moins* préoccupés, sinon profondément confus. Je poste cela non pas pour critiquer, mais pour donner mon point de vue, il y a probablement une étude de cas de la Harvard Business School ici.