Usando chatbots de IA Incluso solo 10 minutos puede tener un impacto sorprendentemente negativo en la capacidad de las personas para pensar y resolver problemas, según un nuevo estudio realizado por investigadores de Carnegie Mellon, MIT, Oxford y UCLA.
Los investigadores encargaron a personas que resolvieran varios problemas, incluidas fracciones simples y comprensión lectora, a través de una plataforma en línea que les pagaba por su trabajo. Realizaron tres experimentos, en cada uno de los cuales participaron varios cientos de personas. Algunos participantes tuvieron acceso a un asistente de IA capaz de resolver el problema de forma autónoma. Cuando de repente se les quitó el ayudante de IA, era mucho más probable que estas personas abandonaran el problema o fallaran en sus respuestas. El estudio sugiere que el uso generalizado de la IA podría aumentar la productividad a expensas del desarrollo de habilidades fundamentales para la resolución de problemas.
«La conclusión no es que debamos prohibir la IA en la educación o en los lugares de trabajo», dice Michiel Bakker, profesor asistente del MIT que participó en el estudio. «La IA claramente puede ayudar a las personas a desempeñarse mejor en el momento, y eso puede ser valioso. Pero deberíamos tener más cuidado sobre qué tipo de ayuda proporciona la IA y cuándo».
Hace poco me encontré con Bakker, que tiene el pelo caótico y una amplia sonrisa, en el campus del MIT. Originario de Holanda, trabajó anteriormente en Google DeepMind en Londres. Me dijo que un conocido ensayo sobre la forma en que la IA puede restar poder a los humanos con el tiempo lo inspiró a pensar en cómo la tecnología podría ya estar erosionando las capacidades de las personas. El ensayo resulta una lectura ligeramente sombría, porque sugiere que la pérdida de poder es inevitable. Dicho esto, tal vez descubrir cómo la IA puede ayudar a las personas a desarrollar sus propias capacidades mentales debería ser parte de cómo los modelos se alinean con los valores humanos.
«Es fundamentalmente una cuestión cognitiva: sobre la persistencia, el aprendizaje y cómo las personas responden a las dificultades», me dice Bakker. «Queríamos tomar estas preocupaciones más amplias sobre la interacción a largo plazo entre humanos y IA y estudiarlas en un entorno experimental controlado».
El estudio resultante parece particularmente preocupante, dice Bakker, porque la voluntad de una persona de persistir en la resolución de problemas es crucial para adquirir nuevas habilidades y también predice su capacidad de aprender con el tiempo.
Bakker dice que puede ser necesario repensar cómo funcionan las herramientas de inteligencia artificial para que, como un buen maestro humano, los modelos a veces prioricen el aprendizaje de una persona antes que resolver un problema por ella. «Los sistemas que dan respuestas directas pueden tener efectos a largo plazo muy diferentes de los sistemas que apoyan, entrenan o desafían al usuario», dice Bakker. Admite, sin embargo, que equilibrar este tipo de enfoque “paternalista” podría resultar complicado.
Las empresas de IA ya piensan en los efectos más sutiles que sus modelos pueden tener en los usuarios. La adulación de algunos modelos (o la probabilidad de que estén de acuerdo con los usuarios y sean condescendientes) es algo que OpenAI ha tratado de atenuar con las versiones más recientes de GPT.
Confiar demasiado en la IA parecería especialmente problemático cuando es posible que las herramientas no se comporten como se espera. Los sistemas de IA agentes son particularmente impredecibles porque realizan tareas complejas de forma independiente y pueden introducir errores extraños. Uno se pregunta qué están haciendo Claude Code y Codex con las habilidades de los codificadores que a veces pueden necesitar corregir los errores que introducen.
Recientemente recibí una lección sobre el peligro de descargar el pensamiento crítico en la IA. He estado usando OpenClaw (con Codex dentro) como ayuda diaria y descubrí que es notablemente bueno para resolver problemas de configuración en Linux. Sin embargo, recientemente, después de que mi conexión Wi-Fi seguía cayendo, mi asistente de inteligencia artificial sugirió ejecutar una serie de comandos para modificar el controlador que habla con la tarjeta Wi-Fi. El resultado fue una máquina que se negaba a arrancar sin importar lo que hiciera.
Quizás, en lugar de simplemente intentar resolver el problema por mí, OpenClaw debería haber hecho una pausa para enseñarme cómo solucionarlo por mí mismo. Como resultado, es posible que tenga una computadora (y un cerebro) más capaces.
Esta es una edición de Will Knight Boletín del laboratorio de IA. Leer boletines anteriores aquí.



