Anthropic acaba de anunciar una nueva característica llamada «dreaming» en la conferencia de desarrolladores de la compañía en San Francisco. Es parte de la infraestructura de agentes de IA lanzada recientemente por Anthropic y diseñada para ayudar a los usuarios a administrar e implementar herramientas que automatizan los procesos de software. Este aspecto de «soñar» clasifica la transcripción de lo que un agente completó recientemente e intenta obtener ideas para mejorar el desempeño del agente.
Las personas que utilizan agentes de IA a menudo los envían a viajes de varios pasos, como visitar algunos sitios web o leer varios archivos, para completar tareas en línea. Esta nueva función de «soñar» permite a los agentes buscar patrones en su registro de actividad y mejorar sus habilidades en función de esos conocimientos.
El nombre del artículo inmediatamente recuerda la novela de ciencia ficción fundamental de Philip K. Dick, ¿Sueñan los androides con ovejas eléctricas?que explora las cualidades que realmente separan a los humanos de las máquinas poderosas. Si bien nuestras actuales herramientas de IA generativa no se acercan en nada a las máquinas del libro, estoy listo para trazar la línea aquí y ahora: no más funciones de IA generativa con nombres que copian los procesos cognitivos humanos.
«Juntos, la memoria y los sueños forman un sistema de memoria sólido para agentes de mejora personal», se lee en la publicación del blog de Anthropic sobre el lanzamiento de esta investigación preliminar para desarrolladores. “La memoria permite a cada agente capturar lo que aprende como funciona. Soñar afina ese recuerdo entre sesionesextraer aprendizajes compartidos entre agentes y mantenerlos actualizados”.
Cortesía de Claude
Desde la chispa de la revolución de los chatbots en 2022, los líderes de las empresas de IA se han esforzado por nombrar aspectos de las herramientas de IA generativa en función de lo que sucede en el cerebro humano. OpenAI lanzó su primer modelo de “razonamiento” en 2024, donde el chatbot necesitaba tiempo para “pensar”. La compañía describió este lanzamiento en ese momento como “una nueva serie de modelos de IA diseñados para dedicar más tiempo a pensar antes de responder”. Numerosas startups también se refieren a sus chatbots como si tuvieran «recuerdos» sobre el usuario. En lugar del almacenamiento rápido que normalmente se conoce como “memorias” de una computadora, se trata de pepitas de información mucho más humanas: vive en San Francisco, disfruta de los partidos de béisbol por las tardes y odia comer melón.
Es un enfoque de marketing constante utilizado por los líderes de la IA, que han seguido apoyándose en marcas que desdibujan la línea entre lo que hacen los humanos y lo que pueden hacer las máquinas. Incluso la forma en que estas empresas desarrollan chatbots, como Claude, con “personalidades” distintas, puede hacer que los usuarios sientan como si estuvieran hablando con algo que tiene el potencial de una vida interior profunda, algo que quería Potencialmente tengo sueños incluso cuando mi computadora portátil está cerrada.
En Anthropic, esta antropomorfización va más allá de las simples estrategias de marketing. «También hablamos de Claude en términos normalmente reservados para los humanos (por ejemplo, ‘virtud’, ‘sabiduría’)», se lee en una parte de la constitución de Anthropic que describe cómo quiere que Claude se comporte. «Hacemos esto porque esperamos que el razonamiento de Claude se base en conceptos humanos por defecto, dado el papel del texto humano en la formación de Claude; y creemos que alentar a Claude a adoptar ciertas cualidades humanas puede ser activamente deseable». La empresa incluso emplea a un filósofo residente para intentar dar sentido a los «valores» del robot.



