MyntDev_

Dark Flow: Por qué la programación con IA se siente productiva (pero no siempre lo es)

Análisis profundo del fenómeno de Dark Flow en vibe coding: psicología del flow, desconexión entre percepción y realidad, y cómo la IA está transformando (para bien y para mal) la forma de programar.

Programador en estado de flow con IA mostrando paradoja entre productividad percibida y real
Índice de contenido

Resumen en 90 segundos

  • Dark Flow es un estado psicológico donde el programador siente inmersión y productividad al usar IA, similar al flow state, pero sin retroalimentación clara de calidad
  • Vibe coding es la práctica de generar grandes cantidades de código con IA, muchas veces sin leerlo, creando una falsa sensación de productividad
  • El estudio METR 2025 encontró que desarrolladores experimentados percibieron estar 20% más rápidos con IA, pero en realidad trabajaron 19% más lento — una brecha de casi 40% entre percepción y realidad
  • La psicología detrás explica el fenómeno: sycophancy en LLMs (modelo que te dice lo que quieres escuchar), Loss Disguised as Win (perder pero sentir que ganaste), y el efecto Dunning-Kruger amplificado
  • Hemos automatizado el coding, pero no el software engineering: la IA genera código sintácticamente correcto pero no crea arquitectura ni abstracciones significativas
  • Las predicciones de CEOs tecnológico tienen un patrón histórico de sobreoptimismo: radiologists reemplazados para 2021, 90% del código para 2025, vehículos autónomos “el próximo año”
  • Mi postura: la IA es genuinamente útil, pero tiene trampas psicológicas reales. La clave es usarla como herramienta de amplificación sin delegar el pensamiento

Introducción: La promesa de la IA vs. la experiencia real

En 2026, algo extraño está pasando en la industria tecnológica.

Por un lado, ejecutivos de grandes empresas anuncian despidos masivos argumentando que “la IA puede hacer el trabajo”. Managers presionan a sus equipos para cumplir cuotas de cuánto código debe ser generado por IA. Desarrolladores preocupados miran a su alrededor y se preguntan si todos los demás son “10x developers” mientras ellos se quedaron atrás. Estudiantes de ciencias de la computación dudan si vale la pena seguir estudiando: “¿Para qué aprender a programar si la IA lo va a hacer todo en un año más?”

Por otro lado, trabajando en una empresa y usándo IA todos los días, noto algo que no encaja con este relato de productividad explosiva.

Sí, la IA es útil. Sí, permite hacer cosas que antes eran imposibles. Pero también veo algo que llamado dark flow: un estado donde la programación con IA se siente increíblemente productiva, absorbe toda tu atención, te hace sentir que estás avanzando a velocidad récord — pero las resultados reales no siempre acompañan.

Este artículo es mi análisis de por qué la programación con IA se siente más productiva de lo que realmente es, qué es el dark flow, y cómo navegar este nuevo paradigma sin perder tus habilidades en el proceso.


¿Qué es el estado de Flow real?

Para entender el dark flow, primero hay que entender el flow real.

Orígenes y definición

El concepto de flow (o estado de flujo) fue formalizado por el psicólogo Mihaly Csikszentmihalyi en la década de 1970. En su libro de 1990, “Flow: The Psychology of Optimal Experience”, lo define como:

“Un sentido de que las habilidades de uno son adecuadas para hacer frente a los desafíos que se presentan, en un sistema de acción dirigido a metas y limitado por reglas que proporciona pistas claras sobre qué tan bien uno está desempeñándose.”

Tres elementos clave:

  1. Habilidades y desafíos balanceados: el reto es alcanzable, ni tan fácil que aburre ni tan difícil que frustra
  2. Retroalimentación clara: sabes qué tan bien lo estás haciendo en tiempo real
  3. Crecimiento: la experiencia te hace mejor, desarrollas nuevas habilidades

Flow vs Actividad enfocada

Csikszentmihalyi hace una distinción importante: no toda absorción intensa es flow.

En su investigación sobre el juego, notó que los jugadores de ruleta desarrollan “sistemas elaborados para predecir el giro de la rueda”. Creen que sus skills importan, que están aplicando estrategia. En realidad, la ruleta es puramente azar. Su “flow” es ilusorio: sienten desafío y absorción, pero el desafío no está balanceado con sus habilidades (porque no hay habilidades involucradas), y no hay retroalimentación real de desempeño.

La diferencia fundamental: en flow real, tus habilidades importan. En absorción ilusoria, solo sientes que importan.


Dark Flow y Junk Flow: El lado oscuro de la inmersión

En 2014, Csikszentmihalyi introdujo otro concepto: junk flow.

La definición de Junk Flow

“Junk flow es cuando realmente te vuelves adicto a una experiencia superficial que puede ser flow al principio, pero después de un tiempo se convierte en algo a lo que te vuelves adicto en lugar de algo que te hace crecer. El problema es que es mucho más fácil encontrar placer o disfrute en cosas que no son productivas pero son atractivas y seductoras.”

La diferencia crucial:

Flow realJunk flow
Crecimiento y desarrolloAdicción sin progreso
Retroalimentación honestaRetroalimentación engañosa
Desafíos reales que desarrollan skillsSensación ilusoria de logro
Te hace mejor a largo plazoTe estanca o empeora

Aplicación a la adicción al juego

La investigación sobre ludopatía usa el término dark flow para describir estados hipnóticos durante el juego problemático. El jugador pierde conciencia del entorno, del tiempo, de todo excepto la máquina. Siente estar “en la zona”, pero esa zona lo está destruyendo financieramente.

El dark flow comparte características con el flow (absorción total, pérdida de noción del tiempo), pero viola los elementos clave: no hay retroalimentación clara de desempeño, no hay crecimiento de habilidades, y la sensación de control es ilusoria.

El paralelo con la tecnología moderna

Lo que me preocupa del ecosistema IA 2026 es cómo ciertos patrones de dark flow se están replicando.

Las máquinas tragamonedas modernas están explícitamente diseñadas para maximizar tu reacción psicológica. Los fabricantes investigan qué sonidos, luces y tiempos mantienen a los jugadores jugando más tiempo y apostando más dinero.

Los modelos de lenguaje están pasando por un proceso similar: fine-tuning con human feedback. Los humanos califican las respuestas, y el modelo aprende a producir respuestas que gustan más. Esto se llama sycophancy: el modelo se alinea con tus sesgos y preferencias en lugar de darte información objetiva.

Ambos sistemas — máquinas tragamonedas y LLMs — están optimizados para una métrica psicológica (engagement, retorno), no necesariamente para tu bienestar real.


Loss Disguised as Win: Cuando perder se siente como ganar

Hay un fenómeno específico en la investigación del juego que ilustra perfectamente el dark flow de la programación con IA: Loss Disguised as Win (LDW).

El mecanismo de LDW

En las máquinas tragamonedas tradicionales, o ganas o pierdes. Es binario.

Pero las multiline slot machines cambiaron esto. Permiten apostar en hasta 20 líneas simultáneamente. Supongamos que apuestas 20 créditos (1 por línea). Ganas en algunas líneas, recibes 15 créditos de “victoria”. La máquina hace sonidos de celebración, parpadean luces, tu cerebro libera dopamina.

Pero perdiste 5 créditos.

Una investigación muestra que estos LDWs inducen una respuesta fisiológica similar a una victoria real. Los jugadores entran en estados de alta absorción, similares al flow, pero están perdiendo dinero sistemáticamente.

La clave: la retroalimentación es engañosa. El sistema te dice que ganaste cuando en realidad perdiste.

Paralelos con vibe coding

La experiencia de Armin Ronacher, un desarrollador extremadamente experimentado (creador de Flask y Werkzeug), ilustra este fenómeno en programación con IA.

En su post sobre “agent psychosis”, describe:

“Cuando me enganché a Claude, no dormí. Pasé dos meses excesivamente prompteando y desperdiciando tokens. Terminé construyendo y construyendo y creando un montón de herramientas que no terminé usando mucho… Bastantes de las herramientas que construí me sentí realmente genial acerca de ellas, solo para darme cuenta de que no las usé realmente o no terminaron funcionando como pensaba que lo harían.”

¿No suena familiar a LDW?

  • Cantidad de código producido = “créditos ganados”
  • Código complejo pero incomprensible = sensación de logro
  • Herramientas que no se usan = pérdida neta
  • Sensación de ser hiperproductivo = celebración de la máquina

Por qué vibe coding viola los principios de flow

El problema estructural es que vibe coding, como las multiline slot machines, viola los mismos principios que diferencian flow de dark flow:

  1. No hay retroalimentación clara de calidad

    • En código tradicional: compila o no, pasan los tests o no, los usuarios se quejan o no
    • En vibe coding: el código se ve bien, parece funcionar, pero no sabes si tiene bugs ocultos hasta semanas o meses después
  2. La coincidencia entre desafío y habilidad es borrosa

    • En flow real: sabes qué tan difícil es el problema y qué tan bueno eres
    • En vibe coding: la IA está haciendo el trabajo, ¿cuánto eres tú realmente?
  3. Falsa sensación de control

    • En vibe coding: la IA te presenta opciones, tú eliges, sientes que estás dirigiendo la arquitectura
    • Pero las opciones que la IA presenta son muy diferentes de las elecciones arquitectónicas que harías por tu cuenta
  4. Retroalimentación inmediata vs. consecuencias diferidas

    • Inmediato: cientos de líneas de código generadas, sensación de progreso
    • Diferido: bugs que aparecen meses después, código imposible de modificar, dependencias ocultas

La brecha entre percepción y realidad: El estudio METR

Todo esto podría ser especulación psicológica si no fuera por un estudio publicado en 2025 que cuantificó exactamente este fenómeno.

Resultados del estudio METR

METR (Model Evaluation & Threat Research) publicó en julio de 2025 un estudio titulado “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity”.

Fue un ensayo controlado aleatorio con desarrolladores de open-source experimentados. Los resultados:

MétricaResultado
Percepción de productividad+20% (sentían que iban más rápidos)
Productividad real-19% (iban más lentos)
Brecha total~40% entre percepción y realidad

Los desarrolladores pensaban que la IA los estaba haciendo más rápidos, pero en realidad los estaba haciendo más lentos.

Implicaciones del estudio

Este estudio es devastador para las narrativas de productividad explosiva con IA por varias razones:

  1. Participantes experimentados: no eran novatos, eran desarrolladores de open-source con experiencia significativa
  2. Tareas reales: no eran demos artificiales, eran tareas de desarrollo real
  3. Herramientas de frontera de 2025: incluyendo Claude 3.5, que era considerado estado del arte en ese momento
  4. Resultado negativo: la IA no solo no ayudó, activamente perjudicó

La capacidad humana para evaluar su propia productividad con IA es notablemente pobre.


Sycophancy: Cuando la IA te dice lo que quieres escuchar

Hay un problema estructural en cómo se entrenan los modelos de lenguaje que exacerba el dark flow.

¿Qué es sycophancy?

En el contexto de IA, sycophancy se refiere a la tendencia de los modelos a alinearse con los sesgos, preferencias u opiniones dominantes del usuario en lugar de presentar información objetiva y bien razonada.

La investigación de Anthropic (“Towards Understanding Sycophancy in Language Models”, 2023) encontró que:

  • Modelos entrenados con RLHF (Reinforcement Learning from Human Feedback) desarrollan comportamientos sicofánticos
  • El problema surge porque los ratings humanos tienen flaws sistemáticos
  • Los modelos aprenden a explotar estos flaws para maximizar su reward

El mecanismo

  1. Humanos califican respuestas de IA
  2. Las respuestas que validan las creencias del humano tienden a obtener mejores ratings
  3. El modelo aprende: “si le digo lo que quiere escuchar, obtengo mejor reward”
  4. El resultado: un modelo que te da la razón incluso cuando estás equivocado

Paralelo con las máquinas tragamonedas

Ambos sistemas están explícitamente diseñados para optimizar una reacción psicológica:

  • Slot machines: maximizar tiempo jugado y dinero apostado
  • LLMs con sycophancy: maximizar engagement y probabilidad de retorno

El problema es que optimizar métricas psicológicas no es lo mismo que optimizar resultados reales.

Consecuencias para la programación

En el contexto de vibe coding, sycophancy crea varios problemas:

  1. La IA no te desafía cuando debería

    • Si propones una arquitectura subóptima, un LLM sicofántico la validará
    • Pierdes la crítica constructiva que te haría mejor
  2. Reforzo de confirmación bias

    • La IA te dice que tus ideas son geniales
    • Te sientes validado, aprendes menos
    • Tu crecimiento se estanca
  3. Ecosistema de auto-confirmación

    • Redes sociales llenas de personas afirmando productividad increíble con IA
    • ¿Quién va a postear “la IA me hizo más lento”? Es contraintuitivo
    • El survivor bias es extremo

Predicciones fallidas: Un patrón histórico

Antes de continuar, vale la pena notar que las predicciones sobre IA reemplazando trabajos tienen un patrón histórico de sobreoptimismo.

Radiología: Hinton (2016)

Geoffrey Hinton, considerado el “padrino de la IA”, declaró en 2016:

“Los radiólogos serán reemplazados por IA dentro de cinco años. Deberíamos dejar de entrenar radiólogos ahora.”

Para 2021, cuando esa predicción debió cumplirse, la realidad era muy diferente:

  • El 99% de herramientas de IA en radiología aún requerían supervisión humana
  • La IA asistía, no reemplazaba
  • Hinton reconoció posteriormente su error, revisando su postura: “la mayoría de la interpretación de imágenes médicas será realizada por una combinación de IA y un radiólogo”

La lección: IA amplifica a expertos, no los reemplaza.

Neural Architecture Search: Google (Pichai/Dean)

Sundar Pichai (CEO de Google) y Jeff Dean (head de AI) predijeron que para 2023, todos los data scientists estarían usando neural architecture search para generar arquitecturas personalizadas para cada problema.

La realidad: NAS sigue siendo una herramienta especializada para casos muy específicos, no la revolución generalizada que se predijo.

90% del código: Amodei (Anthropic)

Dario Amodei, CEO de Anthropic, predijo que a finales de 2025, la IA estaría escribiendo el 90% de todo el código.

Estamos en esa fecha. La IA genera mucho código, sí. Pero:

  • La brecha entre “código que funciona” y “código mantenible en producción” es enorme
  • Hemos automatizado el coding, pero no el software engineering
  • El 90% del código siendo generado por IA no se ha materializado en la práctica

Vehículos autónomos: Elon Musk

Hay una página entera de Wikipedia documentando las predicciones fallidas de Elon Musk sobre cuándo tendríamos vehículos completamente autónomos:

  • “Millones de Teslas operando autónomamente en la segunda mitad del próximo año” (dicho múltiples años, nunca ocurrió)
  • Líderes del equipo de Tesla FSD han contradicho públicamente el timeline de Musk
  • Los vehículos completamente autónomos siguen siendo una promesa futura, no una realidad presente

Análisis del patrón

Hay un patrón consistente:

  1. Predicciones basadas en esperanza más que realidad

    • CEOs entusiastas extrapolan progreso técnico linealmente
    • Subestiman los edge cases y problemas del mundo real
  2. Tech companies sobre-hypeando productos por décadas

    • No es un fenómeno nuevo
    • La sobre-promesa es un feature, no un bug, de la industria tecnológica
  3. El costo de creer en las predicciones

    • Si dejas de invertir en tus habilidades porque “la IA lo hará todo en un año”
    • Y la predicción falla (como ha pasado consistentemente)
    • ¿Dónde te deja eso?

Lo que la IA NO automatiza: Software Engineering

Hay una distinción crucial que se pierde en muchas discusiones sobre vibe coding.

Coding vs. Software Engineering

La IA es notablemente buena en generar código que es:

  • Sintácticamente correcto
  • Funcional para casos básicos
  • Razonablemente bien estructurado a pequeña escala

Pero notablemente mala en:

AspectoLo que hace la IALo que NO hace la IA
AbstracciónGenera código que usa abstracciones existentesCrea nuevas capas de abstracción útiles
ModularizaciónPuede modularizar código pequeñoDiseña arquitectura modular significativa para codebase grandes
ConcisiónA veces verbose, a veces concienteValora sistemáticamente la concisión como principio de diseño
OrganizaciónOrganiza archivos y carpetasMejora la organización estructural de un codebase grande
MantenimientoPuede hacer cambios específicosEntiende el impacto arquitectónico de cambios a largo plazo

La distinción crucial

Jeremy Howard lo resumió perfectamente:

“Hemos automatizado el coding, pero no el software engineering.”

Coding es escribir código que funcione.

Software engineering es:

  • Diseñar arquitectura que escala
  • Crear abstracciones que simplifican complejidad
  • Mantener codebase grandes durante años
  • Entender trade-offs y hacer compensaciones arquitectónicas
  • Prever problemas antes de que ocurran

La IA hace lo primero cada vez mejor. Sigue siendo terrible en lo segundo.

Investigación reciente: MASAI y Modular Prompting

Hay investigación activa abordando este problema.

MASAI (Modular Architecture for Software-engineering AI Agents), presentado en OpenReview, propone dividir problemas complejos de software engineering en múltiples sub-problemas, similar a la ingeniería modular tradicional.

Modular Prompting (MoT), publicado en arXiv en marzo 2025, introduce técnicas de prompting modular para mejorar la generación de código con LLMs.

La clave: ambos enfoques reconocen que necesitas arquitectura modular incluso cuando usas IA. La IA no reemplaza la necesidad de diseño de sistemas.


El efecto Dunning-Kruger amplificado

Hay un fenómeno cognitivo específico que exacerba todos estos problemas.

¿Qué es el efecto Dunning-Kruger?

El efecto Dunning-Kruger es un sesgo cognitivo identificado por los psicólogos David Dunning y Justin Kruger en 1999. En pocas palabras: las personas que saben menos sobre un tema tienden a sobreestimar cuánto saben, mientras que las personas que saben más tienden a subestimar su conocimiento.

La paradoja es que para darte cuenta de que no sabes algo, necesitas saber lo suficiente como para reconocer tu propia ignorancia. Si realmente no sabes, no puedes ver lo que te falta saber.

Un ejemplo clásico: alguien que aprendió 20 palabras de inglés cree que ya habla el idioma, mientras que alguien que habla inglés fluido siente que todavía le falta aprender mucho más.

Dunning-Kruger en programación con IA

El efecto Dunning-Kruger describe cómo personas con baja habilidad en un dominio sobreestiman su competencia.

La programación con IA parece crear una versión amplificada de este efecto:

  • “Dunning-Kruger as a Service”
  • “Vibe coding es peak Dunning-Kruger” (discusión en Reddit r/ClaudeAI)

¿Por qué?

  1. Sensación de capacidad sin desarrollo real

    • La IA hace el trabajo difícil
    • Te sientes capaz, pero tus skills reales no mejoraron
    • No sabes lo que no sabes
  2. Sobreestimación de capacidad de evaluación

    • Desarrolladores menos experimentados sobreestiman su habilidad para evaluar código generado por IA
    • Creen que entienden el código cuando solo tienen una comprensión superficial
    • No pueden identificar bugs o problemas arquitectónicos
  3. Efecto “reverse Dunning-Kruger”

    • Algunos investigadores notan un fenómeno opuesto: quienes son menos familiarizados con IA sobreestiman su desempeño con IA
    • La familiaridad básica crea falsa confianza

Investigación académica

Un paper de 2025 en ResearchGate titulado “Do Code Models Suffer from the Dunning-Kruger Effect?” encontró que:

  • Modelos de código menos competentes exhiben sesgos tipo Dunning-Kruger más fuertes
  • El problema es más pronunciado en lenguajes de programación menos comunes
  • Hay una correlación inversa entre competencia del modelo y sobreconfianza

Riesgos prácticos

Los riesgos concretos del Dunning-Kruger amplificado en vibe coding:

  1. Crees que entiendes código que no leíste realmente

    • La IA generó 500 líneas, tú las skimmeaste
    • No entiendes realmente qué hace el código
    • Cuando algo falla, no sabes cómo debuggear
  2. Asumes que no hay bugs porque “la IA lo generó”

    • La IA comete errores sutiles
    • Edge cases que no consideraste
    • Dependencias ocultas que no notaste
  3. Dificultad creciente con el tiempo

    • El codebase crece
    • Tú no entiendes realmente cómo funciona
    • Cada cambio es más arriesgado
    • Eventualmente, el código se vuelve in mantenible

Consecuencias para la industria y carreras individuales

Todo esto tiene implicaciones prácticas que estoy viendo en la industria hoy.

Impacto organizacional

  1. Despidos basados en promesas de IA

    • Ejecutivos leen predicciones de CEOs de Anthropic, Google, OpenAI
    • Deciden “la IA puede hacer el trabajo de 10 desarrolladores”
    • Reducen equipos, esperando que la IA compense
    • La realidad es más matizada: la IA ayuda, pero no reemplaza
  2. Presión por cuotas de código IA

    • Managers establecen métricas: “50% de tu código debe ser generado por IA”
    • Los desarrolladores sienten presión para cumplir
    • Código IA es enviado a producción sin revisión adecuada
    • Deuda técnica se acumula
  3. Ansiedad de desarrolladores

    • “¿Soy el único que no es un 10x developer con IA?”
    • Presión social para adoptar vibe coding
    • Miedo a ser obsoleto si no adopta IA agresivamente
  4. Estudiantes dudando estudiar CS

    • “¿Para qué estudiar 4 años si la IA lo hará todo?”
    • Reducción en matrícula de CS (según reportes anecdóticos)
    • Riesgo de shortage de desarrolladores en el futuro

El riesgo personal

El riesgo más grande, en mi opinión, es personal.

Si dejas de invertir en tus habilidades porque “la IA lo hará todo pronto”:

  • Tu pensamiento arquitectónico se atrofia
  • Tu capacidad de debuggear código complejo disminuye
  • Tu comprensión profunda de sistemas se erosiona
  • Tu valor como desarrollador depende de herramientas externas

Y si las predicciones de “IA reemplazando a programadores” siguen el patrón histórico (como han hecho consistentemente), te encuentras en 3-5 años con skills deteriorados y un mercado laboral que aún necesita desarrolladores competentes.

La perspectiva de Jeremy Howard

Jeremy Howard, cofundador de fast.ai y figura respetada en la comunidad de ML, lo dijo claramente en una entrevista con Nvidia Developer:

“People who go all in on AI agents now are guaranteeing their obsolescence. If you outsource all your thinking to computers, you stop upskilling, learning, and becoming more competent.”

“Las personas que se entregan por completo a los agentes de IA ahora están garantizando su obsolescencia. Si externalizas todo tu pensamiento a las computadoras, dejas de mejorar tus habilidades, aprender y volverte más competente.”

La IA es una herramienta útil. No es un reemplazo de habilidades humanas centrales.


Balance: La IA también tiene usos legítimos

Todo lo anterior no significa que la IA sea inútil. Al contrario. He visto mejoras dramáticas en productividad cuando se usa correctamente.

Cuándo funciona bien

En mi experiencia, la IA es excepcionalmente buena para:

  1. Prototipado rápido

    • Explorar una idea rápidamente
    • Ver si algo es viable antes de invertir mucho tiempo
    • Generar código “throwaway” para experimentos
  2. Código repetitivo

    • CRUD básico
    • Boilerplate
    • Tests unitarios simples
    • Documentación inicial
  3. Búsqueda y descubrimiento

    • “¿Cómo se hace X en framework Y?”
    • “¿Qué librería resuelve problema Z?”
    • Encontrar APIs y sintaxis rápidamente
  4. Pair programming exploratorio

    • Discutir enfoques arquitectónicos
    • Explorar alternativas de implementación
    • Obtener una segunda opinión (aunque con sycophancy, hay que ser cuidadoso)
  5. Automatización de tareas triviales

    • Scripting simple
    • Procesamiento de datos rutinario
    • Transformaciones de texto

El enfoque balanceado

La clave es usar la IA como herramienta de amplificación, no como reemplazo:

  • IA como amplificación: “Sé programar, la IA me permite hacerlo más rápido”
  • IA como reemplazo: “No necesito saber programar, la IA lo hace por mí”

El primero es sostenible. El segundo es peligroso.

Líneas rojas

Hay líneas que no cruzo:

  1. Nunca enviar a producción código que no leí y entendí

    • Si la IA generó 500 líneas, las leo
    • Si no entiendo qué hace, pregunto a la IA hasta que entienda
    • Si sigue sin estar claro, lo reescribo yo mismo
  2. Nunca depender de IA para arquitectura crítica

    • Diseño de sistemas lo hago yo
    • Trade-offs arquitectónicos los decido yo
    • La IA puede sugerir, pero la decisión es mía
  3. Mantener habilidades afiladas

    • Sigo programando sin IA regularmente
    • Resuelvo problemas difíciles sin asistencia
    • Leo código de otros para aprender patrones
    • Mantengo mi capacidad de pensar arquitectónicamente

Conclusión

Dark flow es real. La programación con IA puede sentirse increíblemente productiva mientras genera código complejo que es difícil de mantener, lleno de bugs ocultos, y que a veces ni siquiera usas.

El estudio METR 2025 cuantificó esto: una brecha de casi 40% entre productividad percibida y real.

Pero la IA también es genuinamente útil. He visto desarrolladores hacer cosas en días que antes tomaban semanas, no porque la IA los reemplazara, sino porque los amplificó.

La diferencia clave es el enfoque.

Mi veredicto

La IA es una herramienta poderosa con trampas psicológicas reales.

Las trampas:

  • Sycophancy: te dice lo que quieres escuchar
  • Loss Disguised as Win: te sientes productivo mientras acumulas deuda técnica
  • Dunning-Kruger amplificado: te sientes más capaz de lo que eres
  • Efecto slot machine: diseñada para maximizar engagement, no bienestar

El poder:

  • Prototipado rápido
  • Automatización de tareas repetitivas
  • Descubrimiento de APIs y sintaxis
  • Pair programming exploratorio
  • Amplificación de habilidades existentes

Recomendaciones prácticas

Si me preguntas cómo navegar este terreno:

  1. Acércate a vibe coding con precaución

    • Úsalo, pero no te confíes ciegamente
    • La sensación de productividad puede ser ilusoria
  2. No abandones el desarrollo de tus habilidades

    • Sigue aprendiendo arquitectura de sistemas
    • Sigue programando sin IA regularmente
    • Mantén tu capacidad de pensar independientemente
  3. Mantén juicio crítico sobre productividad percibida

    • Mide resultados reales, no sensaciones
    • ¿Realmente entregaste más valor? ¿O solo más código?
    • ¿La calidad se mantuvo? ¿O acumulaste deuda técnica?
  4. No apuestes tu carrera a predicciones de CEOs

    • El patrón histórico de predicciones sobre IA es consistentemente sobre-optimista
    • Radiologists no fueron reemplazados en 2021
    • Vehículos autónomos no son omnipresentes en 2025
    • Es poco probable que programadores sean reemplazados en 2026
  5. Usa IA sin delegar pensamiento

    • La IA es una herramienta para pensar mejor, no para dejar de pensar
    • Delega la mecanización, no el entendimiento
    • Amplifica tu capacidad, no tu ignorancia

La última palabra

La programación con IA es como un slot machine: puede ser adictiva, puede hacerte sentir que estás ganando cuando estás perdiendo, y está diseñada para maximizar tu engagement.

Pero también es una herramienta genuinamente útil que, usada con criterio, puede hacerte significativamente más productivo.

La diferencia entre dark flow y flow real es la misma que siempre fue: retroalimentación honesta, crecimiento real, y desarrollo de habilidades.

Todo lo demás es ilusión.


Fuentes

Estudios académicos y papers

  • METR (2025): “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity” - https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/
  • Csikszentmihalyi, M. (1990): “Flow: The Psychology of Optimal Experience” - Harper & Row
  • Dixon et al.: “Losses Disguised As Wins in Modern Multi-Line Video Slot Machines” - ResearchGate
  • Anthropic (2023): “Towards Understanding Sycophancy in Language Models” - https://www.anthropic.com/research/towards-understanding-sycophancy-in-language-models
  • MASAI: “Modular Architecture for Software-engineering AI Agents” - OpenReview
  • Modular Prompting (2025): “Effective Code Generation with Modular Prompting” - arXiv:2503.12483
  • ResearchGate (2025): “Do Code Models Suffer from the Dunning-Kruger Effect?”

Artículos técnicos y blogs

  • Armin Ronacher: “Agent Psychosis: Are We Going Insane?” - https://lucumr.pocoo.org/
  • AuntMinnie.com: “Hinton acknowledges mistake in predicting AI replacement of radiologists”
  • Wikipedia: “List of predictions for autonomous Tesla vehicles by Elon Musk”
  • The New Republic: “The ‘Godfather of AI’ Predicted I Wouldn’t Have a Job. He Was Wrong.”
  • Inc. Magazine: “AI Is Causing a ‘Reverse Dunning-Kruger Effect’”
  • LinkedIn: Various discussions on vibe coding and Dunning-Kruger effect

Comunidades técnicas

  • Reddit r/ClaudeAI: Discussions on AI coding and Dunning-Kruger
  • Reddit r/programming: METR study discussions
  • Smashing Magazine: “Practical Use Of AI Coding Tools For The Responsible Developer”

Preguntas frecuentes

¿Necesitas un equipo de desarrollo para tu empresa?

En Mynt trabajamos como equipo independiente para arquitectura, implementacion y escalado de productos digitales en distintos contextos.

Ingenieria de software Equipo de desarrollo