Cursor Composer 1.5: precio, mejoras reales y fuentes oficiales
Analicé Cursor Composer 1.5 con fuentes oficiales para entender qué mejora de verdad, cuánto sube el precio y cómo evaluarlo con criterio técnico.
Índice de contenido
Si buscaste “Cursor Composer 1.5 precio”, “Composer 1.5 vs Composer 1” o “qué cambió de verdad”, esta es la versión corta: hay mejoras reales, pero también un salto claro de costo.
Revisé anuncio oficial, documentación de modelos, foro y señales públicas para separar hype de evidencia útil para equipos de desarrollo.
Resumen en 90 segundos
- Qué mejora: Cursor posiciona Composer 1.5 con adaptive thinking, self-summarization y mejor rendimiento en benchmark interno.
- Qué cambia en costos: frente a Composer 1, sube en input, output y cache read.
- Qué falta: todavía no hay una tabla pública estandarizada en el anuncio comparando contra todos los modelos frontier.
- Qué conviene hacer: validar en tus tareas reales con métricas de costo por issue resuelto, no solo por token.
Qué anunció Cursor sobre Composer 1.5
En el anuncio oficial, Cursor presenta Composer 1.5 como una mejora fuerte sobre Composer 1 con tres ideas centrales:
- Adaptive thinking: ajusta tiempo de razonamiento según la dificultad de la tarea.
- Self-summarization: resume contexto durante tareas largas para sostener precisión.
- Mejor rendimiento en benchmark interno: reportan mejoras sobre problemas reales de ingeniería.
También afirman que escalaron RL de forma agresiva (20x sobre el mismo modelo base) y que el post-training consumió más cómputo que el pretraining del modelo base.
Fuente: Introducing Composer 1.5.
Cursor Composer 1.5 precio: comparación directa con Composer 1
Tomando la tabla de modelos de Cursor, estas son las diferencias directas:
| Dato | Composer 1 | Composer 1.5 |
|---|---|---|
| Contexto default | 200k | 200k |
| Capabilities | Agent, Images | Agent, Thinking, Images |
| Input (USD / 1M tokens) | 1.25 | 3.5 |
| Output (USD / 1M tokens) | 10 | 17.5 |
| Cache read (USD / 1M tokens) | 0.125 | 0.35 |
Fuente: Cursor Docs - Models.
Lectura rápida de la suba:
- Input: +180%
- Output: +75%
- Cache read: +180%
Mi lectura: Composer 1.5 no busca ser la opción más barata. El enfoque parece ser pagar más por mejor desempeño en tareas largas y más difíciles.
¿Hay benchmark público contra Sonnet o GPT?
En el material oficial se mencionan mejoras de rendimiento sobre benchmark interno con tareas reales de coding. Eso es útil como señal inicial, pero todavía no reemplaza una comparativa pública estandarizada con condiciones equivalentes contra otros modelos frontier.
Si estás evaluando compra o migración, esta diferencia importa: benchmark interno orienta, pero no cierra un caso de negocio por sí solo.
¿Hay video oficial en YouTube de Composer 1.5?
Revisé el canal oficial de Cursor y su feed público de videos. En la ventana de esta investigación, no aparece un video oficial dedicado específicamente a Composer 1.5.
- Canal oficial: @cursor_ai
- Feed público: videos.xml
Eso no significa que no lo publiquen más adelante; significa que, hoy, la fuente primaria de 1.5 es el blog + docs + foro.
Videos en inglés que sí aportan contexto técnico
Aunque no sean un “launch video” de 1.5, estos contenidos ayudan mucho a entender la línea técnica de Composer:
- Introducing Cursor 2.0 (Cursor)
- Building Cursor Composer - Lee Robinson, Cursor
- Sasha Rush on Building Cursor Composer and the Future of Agentic Coding
- Cursor 2.0 is here… (Fireship)
Los uso como contexto de arquitectura y experiencia de uso, no como prueba final de rendimiento.
Qué muestra la conversación de comunidad
En el hilo oficial de feedback de Cursor se repiten tres puntos:
- entusiasmo por mejoras en tareas difíciles,
- dudas por el salto de precio,
- pedido de comparativas más transparentes frente a modelos conocidos.
Fuente: Share your experience with Composer 1.5.
Para mí, este punto es clave: cuando un modelo sube de precio, la expectativa de evidencia pública también sube.
Cómo evaluar Composer 1.5 sin sesgo (checklist práctico)
Si querés tomar una decisión técnica y no emocional, este marco funciona bien:
- Definí 10-20 tareas reales de tu backlog (no demos artificiales).
- Medí baseline con Composer 1: tiempo, costo y tasa de éxito.
- Repetí con Composer 1.5 en mismas condiciones.
- Compará costo por resultado útil (issue resuelto, PR aceptado, bug crítico cerrado).
- Incluí calidad: retrabajo, regresiones, necesidad de corrección manual.
- Tomá decisión por tipo de tarea: no todo el stack necesita el mismo modelo.
Cuándo conviene Composer 1.5 y cuándo no
Probablemente sí conviene si:
- trabajás con tickets largos y ambiguos,
- priorizás precisión en tareas complejas,
- el costo extra queda compensado por menos retrabajo.
Probablemente no conviene como default si:
- tu flujo principal es simple o repetitivo,
- optimizás costo al máximo,
- no estás midiendo resultados por tipo de tarea.
Mi conclusión
Composer 1.5 parece un paso serio en la evolución del stack propio de Cursor, especialmente por el foco en razonamiento adaptativo y tareas largas.
Pero si querés evaluarlo con criterio técnico, el marco correcto hoy es este:
- tomar claims oficiales como hipótesis de trabajo,
- validar costo/rendimiento en tus flujos reales,
- y complementar con evidencia de terceros sin reemplazar fuentes primarias.
Esa combinación es la única forma de analizar este tipo de lanzamientos sin humo.
Si te interesan comparativas técnicas de modelos para desarrollo, también podés leer GPT-5.3-Codex: análisis técnico real para developers.