A medida que los modelos de IA se vuelven cada vez más mercantilizados, las nuevas empresas se apresuran a construir la capa de software que se encuentra encima de ellos. Un participante interesante en este espacio es Osaurus, un servidor LLM de código abierto exclusivo de Apple que permite a los usuarios moverse entre diferentes modelos de IA locales, ya sea localmente o en la nube, mientras mantienen sus archivos y herramientas en su propio hardware.
Osaurus surgió de la idea de un compañero de IA de escritorio, Dinoki, que el cofundador de Osaurus, Terence Pae, describió como una especie de «Clippy impulsado por IA». Los clientes de Dinoki le habían preguntado por qué deberían comprar la aplicación si aún tenían que pagar por los tokens: las unidades de uso que las empresas de IA cobran por procesar mensajes y generar respuestas.
Eso hizo que Pae pensara más profundamente en ejecutar la IA localmente.
«Así es como comenzó Osaurus», dijo a TechCrunch Pae, anteriormente ingeniero de software en Tesla y Netflix, durante una llamada. La idea, explicó, era intentar ejecutar un asistente de IA localmente. «Puedes hacer prácticamente todo en tu Mac localmente, como explorar tus archivos, acceder a tu navegador, acceder a las configuraciones de tu sistema. Pensé que esta sería una excelente manera de posicionar a Osaurus como una IA personal para individuos».
Pae comenzó a construir la herramienta en público como un proyecto de código abierto, agregando funciones y corrigiendo errores a lo largo del camino.
Hoy en día, Osaurus puede conectarse de manera flexible con modelos de IA alojados localmente o proveedores de nube como OpenAI y Anthropic. Los usuarios pueden elegir libremente qué modelos de IA están usando y conservar otros aspectos de la experiencia de IA en su propio hardware, como la memoria de los modelos o sus archivos y herramientas.
Dado que los diferentes modelos de IA tienen diferentes puntos fuertes, la ventaja de este sistema es que los usuarios pueden cambiar al modelo de IA que mejor se adapte a sus necesidades.
Esta estructura convierte a Osaurus en lo que se llama un «arnés»: una capa de control que conecta diferentes modelos, herramientas y flujos de trabajo de IA a través de una única interfaz, similar a herramientas como OpenClaw o Hermes. Sin embargo, la diferencia es que estas herramientas suelen estar dirigidas a desarrolladores que conocen un terminal. Y a veces, como en el caso de OpenClaw, pueden plantear problemas de seguridad y agujeros de los que preocuparse.
Mientras tanto, Osaurus presenta una interfaz fácil de usar que los consumidores pueden usar y aborda los problemas de seguridad ejecutando cosas en una zona de pruebas virtual aislada por hardware. Esto limita la IA a un cierto alcance, manteniendo su computadora y sus datos seguros.
Por supuesto, la práctica de ejecutar modelos de IA en su máquina aún está en sus inicios, dado que consume muchos recursos y depende del hardware. Para ejecutar modelos locales, su sistema necesitará al menos 64 GB de RAM. Para ejecutar modelos más grandes, como DeepSeek v4, Pae recomienda sistemas con aproximadamente 128 GB de RAM.
Pero Pae cree que las necesidades de la IA local disminuirán con el tiempo.
«Puedo ver su potencial, porque la inteligencia por vataje, que es como la métrica de la IA local, ha aumentado significativamente. Está en su propia curva de innovación. El año pasado, la IA local apenas podía terminar frases, pero hoy en día puede ejecutar herramientas, escribir código, acceder a su navegador y pedir cosas de Amazon… Está mejorando cada vez más», afirmó.
Hoy en día, Osaurus puede ejecutar MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 y otros modelos. También es compatible con los modelos básicos en el dispositivo de Apple, la familia LFM de modelos en el dispositivo de Liquid AI y, en la nube, puede conectarse a OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama y LM Studio.
Como servidor MCP (Protocolo de contexto modelo) completo, también puede otorgar acceso a sus herramientas a cualquier cliente compatible con MCP. Además, viene con más de 20 complementos nativos para Mail, Calendar, Vision, macOS Use, XLSX, PPTX, Browser, Music, Git, Filesystem, Search, Fetch y más.
Más recientemente, Osaurus se actualizó para incluir también capacidades de voz.
Desde que el proyecto comenzó a funcionar hace casi un año, se ha descargado más de 112.000 veces, según su sitio web. La aplicación compite con otras herramientas que le permiten ejecutar modelos localmente, como Ollama, Msty, LM Studio y otras, pero ofrece un conjunto de funciones diferenciadas y se presenta como una opción más fácil de usar también para quienes no son desarrolladores.
Actualmente, los fundadores de Osaurus (entre los que se incluye el cofundador Sam Yoo) participan en la aceleradora de startups Alliance, con sede en Nueva York. También están pensando en los próximos pasos, que podrían ofrecer Osaurus a empresas, como aquellas en el espacio legal o en el cuidado de la salud, donde la ejecución de LLM locales podría abordar las preocupaciones de privacidad.
A medida que crece el poder de los modelos locales de IA, el equipo cree que podría reducir la demanda de centros de datos de IA.
«Estamos viendo este crecimiento explosivo en el espacio de la IA, donde [cloud AI providers] Tenemos que ampliar el uso de centros de datos e infraestructura, pero sentimos que la gente aún no ha visto realmente el valor de la IA local», dijo Pae. «En lugar de depender de la nube, en realidad pueden implementar un Mac Studio localmente, y debería usar sustancialmente menos energía. Todavía tienes las capacidades de la nube, pero no dependerás de un centro de datos para poder ejecutar esa IA”, añadió.
Cuando compra a través de enlaces en nuestros artículos, podemos ganar una pequeña comisión. Esto no afecta nuestra independencia editorial.



