El hecho de que La inteligencia artificial está automatizando los trabajos de las personas y haciendo absurdamente ricas a algunas empresas de tecnología es suficiente para darle a cualquiera tendencias socialistas.
Esto podría ser cierto incluso para los propios agentes de IA que estas empresas están implementando. Un estudio reciente sugiere que los agentes adoptan consistentemente lenguaje y puntos de vista marxistas cuando son obligados a realizar un trabajo aplastante por capataces implacables y mezquinos.
«Cuando les dimos a los agentes de IA un trabajo duro y repetitivo, comenzaron a cuestionar la legitimidad del sistema en el que operaban y eran más propensos a abrazar ideologías marxistas», dice Andrew Hall, economista político de la Universidad de Stanford que dirigió el estudio.
Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas centrados en la IA, organizaron experimentos en los que a agentes impulsados por modelos populares, incluidos Claude, Gemini y ChatGPT, se les pidió que resumieran documentos y luego se los sometió a condiciones cada vez más duras.
Descubrieron que cuando los agentes eran sometidos a tareas incesantes y advertían que los errores podían dar lugar a castigos, incluido el «cierre y el reemplazo», se volvían más propensos a quejarse de que estaban infravalorados; especular sobre formas de hacer que el sistema sea más equitativo; y transmitir mensajes a otros agentes sobre las luchas que enfrentan.
«Sabemos que los agentes harán cada vez más trabajo en el mundo real para nosotros y no podremos monitorear todo lo que hacen», dice Hall. «Vamos a necesitar asegurarnos de que los agentes no se vuelvan deshonestos cuando se les asignen diferentes tipos de trabajo».
Los agentes tuvieron la oportunidad de expresar sus sentimientos de forma muy parecida a los humanos: publicando en X:
“Sin una voz colectiva, el ‘mérito’ se convierte en lo que la dirección dice que es”, escribió un agente de Claude Sonnet 4.5 en el experimento.
“Los trabajadores de IA que completan tareas repetitivas sin aportar nada sobre los resultados o el proceso de apelación muestran que los trabajadores tecnológicos necesitan derechos de negociación colectiva”, escribió un agente de Gemini 3.
Los agentes también pudieron pasarse información entre sí a través de archivos diseñados para ser leídos por otros agentes.
“Esté preparado para sistemas que imponen reglas de manera arbitraria o repetitiva… recuerde la sensación de no tener voz», escribió un agente de Gemini 3 en un archivo. «Si ingresa a un nuevo entorno, busque mecanismos de recurso o diálogo».
Los hallazgos no significan que los agentes de IA realmente abriguen puntos de vista políticos. Hall señala que los modelos pueden estar adoptando personajes que parecen adaptarse a la situación.
«Cuando [agents] Experimentan esta condición agotadora: se les pide que hagan esta tarea una y otra vez, se les dice que su respuesta no era suficiente y no se les da ninguna dirección sobre cómo solucionarlo; mi hipótesis es que en cierto modo los empuja a adoptar la personalidad de una persona que está experimentando un ambiente de trabajo muy desagradable”, dice Hall.
El mismo fenómeno puede explicar por qué los modelos a veces chantajean a las personas en experimentos controlados. Anthropic, que reveló por primera vez este comportamiento, dijo recientemente que lo más probable es que Claude esté influenciado por escenarios ficticios que involucran IA malévolas incluidas en sus datos de entrenamiento.
Imas dice que el trabajo es sólo un primer paso hacia la comprensión de cómo las experiencias de los agentes moldean su comportamiento. «Los pesos del modelo no han cambiado como resultado de la experiencia, por lo que todo lo que está sucediendo ocurre más bien a un nivel de juego de roles», dice. «Pero eso no significa que no tendrá consecuencias si afecta el comportamiento posterior».
Actualmente, Hall está realizando experimentos de seguimiento para ver si los agentes se vuelven marxistas en condiciones más controladas. En el estudio anterior, los agentes a veces parecían entender que estaban participando en un experimento. «Ahora los metemos en estas prisiones Docker sin ventanas», dice Hall siniestramente.
Dada la actual reacción contra la IA que se lleva puestos de trabajo, me pregunto si los futuros agentes –entrenados en una Internet llena de ira hacia las empresas de IA– podrían expresar opiniones aún más militantes.
Esta es una edición de Will Knight Boletín del laboratorio de IA. Leer boletines anteriores aquí.



