Durante el congreso AI Ascent 2025, celebrado a principios de mayo, Jeff Dean afirmó que “en menos de un año” la IA alcanzará un nivel operativo comparable al de un ingeniero de software junior. Destacó que los sistemas avanzados no solo escribirán líneas de código, sino que también leerán documentación técnica, ejecutarán pruebas, diagnosticarán errores y aprenderán de la experiencia, emulando así las funciones cotidianas de un programador principiante. Esta capacidad, explicó, se asemejará al aprendizaje humano: consultarán herramientas, absorberán conocimiento de manuales y recibirán retroalimentación de entornos virtuales.

Capacidades y limitaciones actuales
A pesar del optimismo, Dean fue enfático en subrayar las deficiencias de las IA actuales. En pruebas de depuración automatizada, por ejemplo, los modelos resuelven apenas el 48,4 % de los errores, mientras que un ingeniero humano experimentado corrige alrededor del 90 % de los fallos detectados. Este desfase técnico tiene consecuencias prácticas: proyectos desarrollados parcialmente con IA han registrado hasta un 35 % más de vulnerabilidades que aquellos construidos con métodos convencionales. La conclusión es clara: delegar tareas críticas de forma plena a máquinas inmaduras puede derivar en sistemas inestables y costosos de mantener.
El auge de los asistentes de programación
En paralelo a las predicciones de Google, herramientas como GitHub Copilot han demostrado el potencial de la IA en el código. Lanzado en 2021 y bajo el “paraguas” de Microsoft, Copilot superó recientemente los 15 millones de usuarios y generó ingresos por más de 500 millones de dólares el año pasado, según fuentes cercanas a la compañía. Estudios internos de Thomson Reuters mostraron que los desarrolladores que integraron Copilot en su flujo habitual completaron tareas un 46 % más rápido y mejoraron la calidad de su código en un 39 %, medido por la reducción de cambios en las solicitudes de extracción (pull requests).
Impacto en el mercado laboral
La proyección de “ingenieros virtuales” disponibles 24/7 plantea dudas sobre el futuro del empleo en tecnología. En un contexto de recientes despidos masivos, especialmente entre perfiles junior, la introducción de IA capaces de asumir funciones básicas de programación puede intensificar la competencia. Según un análisis de Business Insider, muchas empresas ya contemplan estrategias mixtas, donde los humanos supervisan el trabajo de los agentes de IA, revisan su producción y se centran en tareas de mayor complejidad. En este esquema híbrido, los programadores deberán desarrollar fortalezas en pensamiento crítico, colaboración interfuncional y gobernanza de sistemas, más allá de la mera escritura de código.
Desafíos de seguridad y calidad
La fiabilidad del software es otro punto crítico. Un informe de Wired advierte que, aunque los programadores aceptan cerca del 30 % de las sugerencias de Copilot, el código generado puede ocultar vulnerabilidades inadvertidas, replicando errores históricos o introduciendo fallos de lógica asociados a prompts mal formulados. Asimismo, un estudio universitario reveló que, en algunos casos, los asistentes de IA reintroducen brechas de seguridad en un tercio de las situaciones. Aunque en otros demuestran ser menos propensos que los humanos a recrear fallos previos. Estos hallazgos refuerzan la idea de que la supervisión humana es insustituible durante la fase de revisión y despliegue.

El rol insustituible del ingeniero
Jeff Dean recordó que el valor de un profesional radica en comprender el contexto de la aplicación, optimizar el rendimiento, colaborar con otros equipos y mantener sistemas a lo largo del tiempo—habilidades que, por ahora, la IA no posee. Aunque los modelos pueden ejecutar simulaciones, navegar documentación y adaptarse mediante aprendizaje continuo, carecen de la intuición adquirida con la experiencia real y la interacción con usuarios y stakeholders. Por ello, el futuro del desarrollo de software se orientará hacia un trabajo conjunto: la IA facilitará tareas de bajo nivel, mientras que los humanos definirán arquitecturas, diseñarán estrategias de ciberseguridad y garantizarán el alineamiento con objetivos de negocio.
Hacia una transición responsable
La predicción de Google no debe interpretarse como una amenaza inminente, sino como una llamada de atención al ritmo de la transformación tecnológica. En el corto plazo, las empresas necesitan establecer marcos de gobernanza de IA, protocolos de validación y políticas de formación continua para sus equipos. Solo así podrán aprovechar las ventajas de la automatización sin comprometer la calidad ni la seguridad.
En definitiva, la llegada de “programadores IA” al nivel junior será apenas otro escalón en la evolución del sector, pero exigirá repensar procesos, actualizar competencias y reforzar la colaboración humano–máquina para construir software más robusto, eficiente y alineado con las necesidades reales de la sociedad.