En octubre de 2025, Thinking Machines Lab, la startup cofundada por antiguos líderes de OpenAI, lanzó su primer producto público llamado Tinker. La propuesta: ofrecer una interfaz (API) flexible que abstrae la complejidad de entrenar o afinar modelos de lenguaje (LLMs) a escala, mientras que los usuarios conservan control sobre los datos, algoritmos y pasos de entrenamiento.
Este lanzamiento marca un hito interesante en la evolución del ecosistema de IA: una apuesta hacia más apertura, modularidad y experimentación individual, frente a modelos “cerrados” o servicios rígidos con poca personalización. En este artículo exploraremos qué es Tinker, cómo funciona, quiénes ya lo están usando, sus ventajas y riesgos, y qué implicaciones podría tener para el futuro de la investigación en IA.
Origen e historia de Thinking Machines Lab
Para entender el contexto de Tinker, es útil repasar el fondo de la empresa que lo desarrolla.
Thinking Machines Lab fue fundada en 2025 por Mira Murati, ex-CTO de OpenAI, junto con otros investigadores con experiencia en IA profunda y entrenamiento de modelos.En julio de 2025 cerró una ronda de financiación de 2 mil millones de dólares, lo que le dio una valoración de aproximadamente 12 mil millones de dólares.
La compañía estructura su misión alrededor de tres ejes: ayudar a las personas a adaptar sistemas IA a sus necesidades específicas; construir cimientos robustos para modelos más capaces; y promover la ciencia abierta mediante publicación de investigación y código abierto.
- Antes de lanzar Tinker, Thinking Machines ya había publicado trabajos sobre técnicas de entrenamiento de redes, adaptaciones de modelos grandes e investigación relacionada a reducir la no determinismo en salidas de IA.
El respaldo financiero y humano, así como la reputación de sus fundadores, colocó a Thinking Machines bajo el radar incluso antes de revelar públicamente su primer producto.
¿Qué es Tinker?
Propósito y visión
Tinker es una API (servicio administrado) diseñada para que investigadores, desarrolladores o equipos de IA ajusten (fine-tune) modelos de lenguaje abiertos con flexibilidad y control, sin tener que preocuparse por la infraestructura de cómputo distribuido.
La idea central es permitir que los usuarios “escriban bucles de entrenamiento en Python” localmente, mientras que Tinker ejecuta esos bucles en clústeres internos optimizados, gestionando el escalado, asignación de recursos y recuperación de fallas.
De esta forma, los investigadores pueden concentrarse en la lógica algorítmica, los datos y la evaluación, sin tener que construir o mantener infraestructura de entrenamiento distribuido.
Arquitectura, API y modos de operación
Algunos elementos técnicos clave:
Tinker expone primitivas de bajo nivel como forward_backward, optim_step, sample y save_state para que los usuarios puedan componer sus propios bucles de entrenamiento, ya sea entrenamiento supervisado o aprendizaje por refuerzo (RL). Soporta el paradigma de LoRA (Low-Rank Adaptation), que permite adaptar un modelo grande mediante la adición de componentes ligeros (matrices de rango reducido), en lugar de modificar todos los pesos originales. Esto reduce costos y permite compartir infraestructura entre múltiples trabajos.
En cuanto a modelos compatibles, Tinker ya lista una buena variedad tanto de la familia Qwen (Alibaba) como de Llama (Meta), incluyendo modelos densos y modelos de mezcla de expertos (MoE, mixture-of-experts) como Qwen3-235B-A22B.El servicio se ejecuta en la infraestructura propia de Thinking Machines: se encargan de la planificación, asignación de recursos, recuperación ante fallos, etc. El usuario no necesita gestionar servidor ni GPUs directamente. Tinker permite descargar los pesos del modelo ajustado, lo que otorga libertad al usuario de ejecutar el modelo localmente o desplegarlo donde desee.
- En resumen: Tinker es como un “motor de ajuste fino como servicio”, pero con la flexibilidad para que los investigadores controlen cada paso del entrenamiento, evitando caer en una caja negra.
Casos de uso y adopción temprana
Aunque Tinker recién está en su fase de beta privada, ya hay grupos de investigación e instituciones que lo están utilizando, y los resultados preliminares han llamado la atención.Algunos ejemplos citados:
El equipo Goedel de la Universidad de Princeton ha empleado Tinker para entrenar modelos de teoremas matemáticos (theorem provers).
En Stanford, el grupo Rotskoff ha usado Tinker para ajustar modelos para razonamiento químico (por ejemplo, conversión entre fórmulas químicas e IUPAC).
En Berkeley, el grupo SkyRL ha ejecutado experimentos con aprendizaje reforzado asincrónico, múltiples agentes y uso de herramientas en múltiples turnos (multi-turn tool-use).
En Redwood Research, Eric Gan ha empleado Tinker para ajustar mediante RL modelos como Qwen3-32B en tareas de control de IA a largo plazo. Él comenta que Tinker le permitió “coax capabilities out of a model that simply wouldn’t be revealed using a simple API” (hacer que el modelo aprenda capacidades que no emergen usualmente).
Estos ejemplos muestran que Tinker no sólo es viable para ajustes simples con aprendizaje supervisado, sino que también permite experimentos más avanzados de RL, arquitectura híbrida o multiagente, algo que muchos servicios comerciales no permiten de forma tan abierta.
Ventajas y diferenciadores
¿Por qué Tinker está generando interés frente a otras opciones de ajuste fino existentes? Aquí algunas ventajas clave:
Flexibilidad y control algorítmico
- Muchos servicios de ajuste fino en la industria ofrecen interfaces “black-box” donde el usuario envía datos y recibe un modelo. Con Tinker, el usuario puede definir su propio bucle de entrenamiento, pérdida personalizada, estrategia de muestreo, etc. (Venturebeat)
- El gran dolor de cabeza de trabajar con modelos grandes es la orquestación de GPUs, escalado, fallas, sincronización, etc. Tinker se encarga de eso, permitiendo al investigador concentrarse en lo que importa: el experimento.
- Gracias a la técnica de LoRA, Tinker permite que múltiples trabajos compartan recursos de cómputo de forma eficiente, reduciendo costos en comparación con entrenamientos monolíticos.
- No solamente modelos “pequeños” o medianos: Tinker ya soporta modelos de gran escala, incluyendo modelos mixtos (MoE), lo cual es relativamente rara en servicios gestionados de ajuste fino.
- El usuario puede descargar los pesos ajustados y ejecutar o desplegar el modelo localmente o en su propia infraestructura. Esto evita quedar “atrapado” dentro de una plataforma cerrada. (WIRED)
- Junto con el lanzamiento, la compañía presentó un repositorio oficial llamado Tinker Cookbook, con ejemplos de uso, pipelines de pos-entrenamiento, técnicas comunes y mejores prácticas para ajustar modelos en diferentes dominios.
Estas características le dan a Tinker una posición intermedia entre una solución totalmente administrada y un entorno de investigación con control total, algo que muchos equipos de IA valoran.
Desafíos, riesgos y consideraciones
Por supuesto, no todo es color de rosa; Tinker también plantea retos y posibles riesgos:
- Acceso limitado (beta privada, lista de espera)
- Por ahora Tinker está en fase privada y requiere inscripción en lista de espera para acceder. Esto limita su uso generalizado en el corto plazo.
- Transiciones de precios
- Actualmente es “gratis para comenzar”, pero planean introducir un modelo de precios basado en uso en las próximas semanas. Usuarios intensivos podrían enfrentar costos elevados.
- Riesgos de seguridad y uso indebido
- Dada la potencia del ajuste fino, existe el riesgo de que actores maliciosos utilicen la plataforma para crear modelos con comportamientos dañinos (desinformación, generación de código malicioso, modelos sesgados, etc.). Thinking Machines dice que actualmente controlan el acceso y planean automatizar medidas para detectar uso indebido.
- Curva de aprendizaje
- Aunque Tinker abstrae la infraestructura, el usuario aún necesita conocimientos técnicos de entrenamiento de modelos, diseño de pérdida, muestreo, técnicas de RL, etc. No es un producto “plug-and-play” para no expertos.
- Competencia fuerte
- En el ámbito de ajuste fino y plataformas de IA hay varias alternativas (comerciales u open source). Tinker deberá destacar no solo por su potencial técnico, sino por estabilidad, comunidad y soporte.
- Escalabilidad y confiabilidad operacional
- La promesa de gestionar clústeres de GPUs, recuperación ante fallos, escalado automático, etc., es ambiciosa. La estabilidad real en escenarios de producción será una prueba de fuego para la plataforma.
Implicaciones para el ecosistema de IA
El lanzamiento de Tinker podría tener efectos importantes en múltiples frentes:
- Democratización del ajuste fino de frontera
- Si Tinker logra escalar y abrirse más, podría permitir que equipos académicos, startups pequeñas o investigadores individuales realicen experimentos avanzados sin tener que construir infraestructura costosa.
- Aumento de innovación experimental
- Con mayor accesibilidad, podrían aparecer nuevos enfoques de RL, aprendizaje multimodal, ajuste fino con datos escasos, técnicas híbridas o arquitecturas personalizadas desarrolladas por comunidades distribuidas.
- Mayor competencia frente a “IA cerrada”
- Modelos como GPT de OpenAI, o modelos altamente comerciales, en los que el usuario no ve los pesos ni puede ajustar internamente, podrían perder terreno ante plataformas como Tinker que permiten más control directo.
- Presión sobre modelos de gobernanza, seguridad y ética
- Con mayor accesibilidad vienen mayores responsabilidades: monitoreo del uso indebido, sesgos, equidad y transparencia serán retos que Thinking Machines y la comunidad en general deberán abordar.
- Ecosistema de investigación más colaborativo
- La publicación de ejemplos, la comunidad de usuarios que comparten pipelines o técnicas y los repositorios públicos podrían acelerar el proceso de descubrimiento en IA.
Tinker representa un paso audaz hacia una IA más accesible y experimental. Al ofrecer una API flexible con control sobre el bucle de entrenamiento y al encargarse de la infraestructura pesada, Thinking Machines Lab apuesta por un enfoque híbrido entre plataforma administrada y entorno de investigación.
Los primeros usos publicados ya muestran que es viable para tareas avanzadas de RL, ajuste fino convencional y experimentos de vanguardia. Pero todavía queda por ver si podrá escalar, controlar el uso malicioso, mantener costos sostenibles y atraer una comunidad activa.
Para quienes trabajen en investigación en IA, modelos de lenguaje o aprendizaje reforzado, Tinker es sin duda algo a vigilar de cerca. Podría convertirse en una herramienta clave para la próxima generación de exploraciones en modelado de lenguaje abierto.

Publicar un comentario