🤯 ¿Te imaginas tener un modelo de razonamiento del nivel de o4-mini directamente en tu Mac y 100% privado? Pues ya no tienes que imaginártelo. OpenAI acaba de lanzar gpt-oss y está disponible de forma nativa en LM Studio con soporte completo para Apple Silicon. 🦾 Los nuevos gpt-oss-20b y gpt-oss-120b son los primeros modelos open weight de OpenAI bajo licencia Apache 2.0, diseñados específicamente para ejecutarse eficientemente en local. El gpt-oss-20b, con sus 21B parámetros totales pero solo 3.6B activos por token gracias a su arquitectura MoE (Mixture of Experts) cuenta con una versión cuantizada en MXFP4 que funciona dentro de 16GB de memoria. El modelo mayor, con 117B parámetros y 5.1B activos, alcanza casi la paridad con o4-mini en benchmarks, funcionando en 80GB de memoria. Y sí, están entrenados con la tecnología que OpenAI usa en o3 y otros modelos. 🍎 LM Studio ha colaborado con OpenAI para tener soporte desde el día de lanzamiento, contribuyendo implementaciones específicas para MLX y GGUF. Apple Silicon con el motor MLX de Apple para sus chips permite que estos modelos funcionen de manera extraordinariamente eficiente. El gpt-oss-20b consume algo más de 12GB de RAM y ofrece tres niveles de razonamiento: low, medium y high. En mi Mac Studio M1 Max, el modo "high reasoning effort" me está dando 41.21 tokens por segundo, un rendimiento que hace apenas unos meses era impensable para un modelo de esta capacidad en local. 🔧 Para usarlo, solo necesitas actualizar LM Studio a la versión 0.3.21 o superior, buscar "gpt-oss-20b" y descargarlo. Aunque seguro que te lo ofrecerá el splash screen de inicio. LM Studio detectará la memoria en tu Mac ofrecerá la versión 4 u 8 bits. Una vez descargado, lo cargas en el chat y ya tienes funcionando un modelo que rivaliza con sistemas comerciales. El modelo soporta 131k tokens de contexto, function calling, salidas estructuradas y mantiene toda la trazabilidad del chain-of-thought visible para debugging, aunque ese output no está pensado para usuarios finales. 🙏🏻 La realidad es que necesitas al menos 24GB de RAM para una experiencia fluida (16GB para el modelo + overhead del sistema operativo), pero con eso ya tienes acceso a capacidades de razonamiento que hasta hace poco solo estaban disponibles en la nube. Es impresionante ver cómo Apple Silicon, MLX y herramientas como LM Studio están democratizando el acceso a modelos avanzados, permitiendo que cualquier desarrollador pueda experimentar con IA de nivel empresarial directamente en su máquina, sin dependencias externas ni limitaciones de API. El futuro de la IA local ya está aquí en nuestros Macs. Y sí... esto se enseña en nuestra formaciones... ¿cómo no hacerlo? --------- Somos Apple Coding Academy. Formamos a empresas y desarrolladores desde la especialización para ser más competitivos y entendiendo el código. Si te gusta nuestro contenido, ve a nuestro perfil, dale a la 🔔 y síguenos. ☝🏼