El esfuerzo legal de Elon Musk para desmantelar OpenAI puede depender de cómo su filial con fines de lucro mejore o reste valor a la misión fundacional del laboratorio fronterizo de garantizar que la humanidad se beneficie de la inteligencia artificial general.
El jueves, un tribunal federal en Oakland escuchó a un ex empleado y miembro de la junta directiva decir que los esfuerzos de la compañía para impulsar los productos de IA en el mercado comprometían su compromiso con la seguridad de la IA.
Rosie Campbell se unió al equipo de preparación de AGI de la compañía en 2021 y dejó OpenAI en 2024 después de que su equipo se disolviera. Otro equipo centrado en la seguridad, el equipo Super Alignment, fue cerrado en el mismo período.
«Cuando me uní, era muy común que la gente hablara sobre AGI y cuestiones de seguridad, y estaba muy centrado en la investigación», testificó. «Con el tiempo, se volvió más como una organización centrada en el producto».
Durante el interrogatorio, Campbell reconoció que probablemente se necesitaba una financiación significativa para el objetivo del laboratorio de construir AGI, pero dijo que crear un modelo de computadora súper inteligente sin las medidas de seguridad adecuadas no encajaría con la misión de la organización a la que se unió originalmente.
Campbell señaló un incidente en el que Microsoft implementó una versión del modelo GPT-4 de la compañía en India a través de su motor de búsqueda Bing antes de que el modelo fuera evaluado por la Junta de Seguridad de Implementación (DSB) de la compañía. El modelo en sí no presentaba un gran riesgo, dijo, pero la compañía necesitaba «sentar precedentes sólidos a medida que la tecnología se vuelve más poderosa. Queremos contar con buenos procesos de seguridad que sepamos que se siguen de manera confiable».
Los abogados de OpenAI también hicieron que Campbell admitiera que, en su «opinión especulativa», el enfoque de seguridad de OpenAI es superior al de xAI, la empresa de inteligencia artificial que fundó Musk y que fue adquirida por SpaceX a principios de este año.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
OpenAI publica evaluaciones de sus modelos y comparte públicamente un marco de seguridad, pero la compañía se negó a comentar sobre su enfoque actual para la alineación de AGI. Dylan Scandinaro, su actual jefe de Preparación, fue contratado de Anthropic en febrero. Altman dijo que la contratación le permitiría «dormir mejor esta noche».
Sin embargo, el despliegue de GPT-4 en India fue una de las señales de alerta que llevaron a la junta sin fines de lucro de OpenAI a despedir brevemente al CEO Sam Altman en 2023. Ese incidente tuvo lugar después de que empleados, incluido el entonces científico jefe Ilya Sutskever y la entonces CTO Mira Murati, se quejaran del estilo de gestión reacio al conflicto de Altman. Tasha McCauley, miembro de la junta en ese momento, testificó sobre las preocupaciones de que Altman no fuera lo suficientemente comunicativo con la junta para que funcionara su estructura inusual.
McCauley también discutió un patrón ampliamente reportado en el que Altman engaña a la junta. En particular, Altman mintió a otro miembro de la junta sobre la intención de McCauley de destituir a Helen Toner, un tercer miembro de la junta que publicó un libro blanco que incluía algunas críticas implícitas a la política de seguridad de OpenAI. Altman tampoco informó a la junta sobre la decisión de lanzar ChatGPT públicamente, y los miembros estaban preocupados por su falta de divulgación de posibles conflictos de intereses.
«Somos una junta sin fines de lucro y nuestro mandato era poder supervisar las organizaciones con fines de lucro que están debajo de nosotros», dijo McCauley al tribunal. «Nuestra principal forma de hacerlo era que nos cuestionaran. No teníamos un alto grado de confianza en absoluto para confiar en que la información que nos transmitían nos permitiera tomar decisiones de manera informada».
Sin embargo, la decisión de despedir a Altman llegó al mismo tiempo que una oferta pública de adquisición dirigida a los empleados de la empresa. McCauley dijo que cuando el personal de OpenAI comenzó a ponerse del lado de Altman y Microsoft trabajó para restaurar el status quo, la junta finalmente cambió de rumbo y los miembros se opusieron a que Altman renunciara.
El aparente fracaso de la junta sin fines de lucro para influir en la organización con fines de lucro va directamente al argumento de Musk de que la transformación de OpenAI de una organización de investigación a una de las empresas privadas más grandes del mundo rompió el acuerdo implícito de los fundadores de la organización.
David Schizer, ex decano de la Facultad de Derecho de Columbia a quien el equipo de Musk le paga para actuar como testigo experto, se hizo eco de las preocupaciones de McCauley.
«OpenAI ha enfatizado que una parte clave de su misión es la seguridad y van a priorizar la seguridad sobre las ganancias», dijo Schizer. «Parte de eso es tomar en serio las reglas de seguridad; si algo necesita estar sujeto a una revisión de seguridad, debe suceder. Lo que importa es la cuestión del proceso».
Dado que la IA ya está profundamente arraigada en las empresas con fines de lucro, el problema va mucho más allá de un solo laboratorio. McCauley dijo que las fallas de la gobernanza interna en OpenAI deberían ser una razón para adoptar una regulación gubernamental más estricta de la IA avanzada…[if] todo se reduce a que un director ejecutivo tome esas decisiones, y tenemos el bien público en juego, eso es muy subóptimo”.
Cuando compra a través de enlaces en nuestros artículos, podemos ganar una pequeña comisión. Esto no afecta nuestra independencia editorial.



