¿Cuándo nos tomamos en serio a los fatalistas de la IA?
Ese es un subtexto clave del intento de Elon Musk de cerrar el negocio de inteligencia artificial con fines de lucro de OpenAI. Sus abogados argumentan que la organización se creó como una organización benéfica centrada en la seguridad de la IA y se perdió en la búsqueda de ganancias. Para demostrarlo, citan viejos correos electrónicos y declaraciones de los fundadores de la organización sobre la necesidad de un contrapeso de espíritu público a Google DeepMind.
Hoy, llamaron al único testigo experto que habló directamente sobre la tecnología de IA: Stuart Russell, profesor de ciencias de la computación de la Universidad de California en Berkeley, que ha estudiado la IA durante décadas. Su trabajo consistía en ofrecer información sobre la IA y establecer que esta tecnología es lo suficientemente peligrosa como para preocuparse.
Russell firmó conjuntamente una carta abierta en marzo de 2023 pidiendo una pausa de seis meses en la investigación de la IA. En una señal de las contradicciones aquí, Musk también firmó la misma carta, incluso cuando estaba lanzando xAI, su propio laboratorio de inteligencia artificial con fines de lucro.
Russell dijo a los miembros del jurado y a la jueza Yvonne González Rodgers que había una variedad de riesgos asociados con el desarrollo de la IA, que iban desde amenazas a la ciberseguridad hasta problemas de desalineación y la naturaleza ganadora del desarrollo de la Inteligencia General Artificial (AGI). En última instancia, dijo que existía una tensión entre la búsqueda de AGI y la seguridad.
Las mayores preocupaciones de Russell sobre las amenazas existenciales de la IA sin restricciones no se ventilaron en audiencia pública después de que las objeciones de los abogados de OpenAI llevaron al juez a limitar el testimonio de Russell. Pero Russell ha sido durante mucho tiempo un crítico de la dinámica de la carrera armamentista creada por laboratorios fronterizos de todo el mundo que compiten para alcanzar AGI primero, y pidió a los gobiernos que regulen este campo de manera más estricta.
Los abogados de OpenAI pasaron su contrainterrogatorio estableciendo que Russell no estaba evaluando directamente la estructura corporativa de la organización o sus políticas de seguridad específicas.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
Pero este periodista (así como el juez y los miembros del jurado) sopesará cuánto valor darle a la relación entre la avaricia corporativa y las preocupaciones por la seguridad de la IA. Prácticamente todos los fundadores de OpenAI han advertido enérgicamente sobre los riesgos de la IA, al tiempo que han enfatizado los beneficios, han intentado construir IA lo más rápido posible y han ideado planes para empresas con fines de lucro centradas en la IA que controlarían.
Desde fuera, un problema claro aquí es la creciente comprensión dentro de OpenAI después de su fundación de que la organización simplemente necesitaba más gasto en computación para tener éxito. Ese dinero sólo podría provenir de inversores con fines de lucro. El miedo del equipo fundador a que AGI estuviera en manos de una sola organización los empujó a buscar el capital que finalmente desgarró al equipo, creando la carrera armamentista que conocemos hoy y llevándonos a esta demanda.
La misma dinámica ya se está desarrollando a nivel nacional: el impulso del senador Bernie Sanders a favor de una ley que imponga una moratoria a la construcción de centros de datos cita los temores sobre la IA enunciados por Musk, Sam Altman, Geoffrey Hinton y otros. Hoden Omar, que trabaja en la organización comercial Centro para la Innovación de Datos, se opuso a que Sanders citara sus miedos sin esperanzas y le dijo a TechCrunch que «no está claro por qué el público debería descartar todo lo que dicen los multimillonarios tecnológicos, excepto cuando sus palabras pueden usarse para llenar los vacíos en un argumento precario».
Ahora, ambas partes del caso están pidiendo al tribunal que haga precisamente eso: tomar en serio parte de los argumentos de Altman y Musk, pero descartar las partes que son menos útiles para su argumento legal.
Corrección: el artículo se actualizó para corregir el nombre de Stuart Russell, profesor de informática de la Universidad de California, Berkeley..
Cuando compra a través de enlaces en nuestros artículos, podemos ganar una pequeña comisión. Esto no afecta nuestra independencia editorial.



