OpenAI está actualizando su acuerdo sobre el Acuerdo de Guerra Mundial, trazando una línea dura y admitiendo que el lanzamiento fue apresurado y mal comunicado. Compromisos a nivel de acuerdo > No hay vigilancia doméstica de ciudadanos estadounidenses. > No se permite el seguimiento usando datos personales comprados comercialmente. > No sirven de nada para agencias de inteligencia como la NSA sin un nuevo contrato. > No cumplir con órdenes inconstitucionales. > Despliegue más lento y cauteloso porque el técnico aún no está preparado para todo.
Sam Altman
Sam Altmanhace 19 horas
Aquí tienes una re-publicación de una publicación interna: Hemos estado trabajando con el DoW para añadir algunas incorporaciones en nuestro acuerdo y dejar muy claros nuestros principios. 1. Vamos a modificar nuestro acuerdo para añadir este texto, además de todo lo demás: "• De acuerdo con las leyes aplicables, incluyendo la Cuarta Enmienda de la Constitución de los Estados Unidos, la Ley de Seguridad Nacional de 1947 y la Ley FISA de 1978, el sistema de IA no podrá ser utilizado intencionadamente para la vigilancia doméstica de personas y nacionales estadounidenses. • Para evitar dudas, el Departamento entiende que esta limitación prohíbe el seguimiento, la vigilancia o la vigilancia deliberada de personas o nacionales estadounidenses, incluyendo la adquisición o el uso de información personal o identificable adquirida comercialmente." Es fundamental proteger las libertades civiles de los estadounidenses, y hubo tanto énfasis en esto, que queríamos dejar este punto especialmente claro, incluso en torno a la información adquirida comercialmente. Como todo lo que hacemos con el despliegue iterativo, seguiremos aprendiendo y perfeccionando sobre la marcha. Creo que es un cambio importante; nuestro equipo y el equipo de DoW hicieron un gran trabajo trabajando en ello. 2. El Departamento también afirmó que nuestros servicios no serán utilizados por agencias de inteligencia del Departamento de Guerra (por ejemplo, la NSA). Cualquier servicio prestado a esas agencias requeriría una modificación posterior de nuestro contrato. 3. Para mayor claridad: queremos trabajar a través de procesos democráticos. Debería ser el gobierno quien tome las decisiones clave sobre la sociedad. Queremos tener voz y un lugar en la mesa donde podamos compartir nuestra experiencia y luchar por los principios de la libertad. Pero tenemos claro cómo funciona el sistema (porque mucha gente ha preguntado, si recibiera lo que considero una orden inconstitucional, por supuesto preferiría ir a la cárcel antes que seguirla). Pero 4. Hay muchas cosas para las que la tecnología simplemente no está preparada, y muchas áreas en las que aún no entendemos los compromisos que requiere la seguridad. Trabajaremos en estos asuntos, poco a poco, con el DoW, con salvaguardas técnicas y otros métodos. 5. Una cosa que creo que hice mal: no deberíamos habernos apresurado a sacar esto el viernes. Los problemas son súper complejos y exigen una comunicación clara. De verdad intentábamos desescalar las cosas y evitar un resultado mucho peor, pero creo que simplemente parecía oportunista y descuidado. Una buena experiencia de aprendizaje para mí mientras nos enfrentamos a decisiones de mayor riesgo en el futuro. En mis conversaciones durante el fin de semana, reiteré que Anthropic no debería ser designado como SCR, y que esperamos que el DoW les ofrezca los mismos términos que hemos acordado. Mañana por la mañana organizaremos una reunión general para responder a más preguntas.
Opinión personal de Sam Altman: > control democrático debe quedarse en manos de gobiernos y personas, no de empresas privadas. > IA debe democratizarse para que los individuos ganen poder, no lo pierdan. > La protección de la privacidad es un pilar innegociable de la democracia. > Despliegue iterativo es fundamental para que la sociedad pueda adaptarse a medida que la tecnología evoluciona. > La educación pública amplia sobre la IA es urgente para que la democracia pueda mantenerse al día. > OpenAI tiene la responsabilidad de hablar abiertamente sobre riesgos, límites y beneficios. > La cooperación con los gobiernos es necesaria, pero hay que evitar acciones impulsadas por el pánico o drásticas. > existen amenazas reales, y las decisiones de la IA se juzgarán por el daño que ayudan a prevenir o que no logran prevenir.
41