En nuestro artículo anterior vimos cómo la inteligencia artificial generativa puede mejorar notablemente la productividad de los equipos de desarrollo: sugerencias de código en tiempo real, generación automática de pruebas, documentación instantánea… Así, de primeras, parece ser un gran acelerador de valor.
Pero como toda herramienta, su utilidad depende en gran medida de cómo se utiliza. La IA será buena si sabes usarla ¿o usarías un Ferrari como carrito para ir de un hoyo a otro de un campo de golf? Por muy disruptivo que parezca, sería un desperdicio enorme.
Implementar IA de la forma equivocada puede acabar convirtiéndola también en un desperdicio. Por ello en este artículo repasamos los errores y malos usos más frecuentes al implementar IA y lo que podemos hacer para evitarlos.
1. Usar la IA como sustituto total del pensamiento crítico
O, dicho de otra forma: confiar ciegamente en la IA. A pesar de ser una gran herramienta, la IA tiene sesgos y limitaciones. Uno de los más relevantes es la “alucinación”: responder con datos falsos pero plausibles. La IA siempre te da una respuesta ajustada a tu pregunta, aunque no sea cierta. Y no lo hace con ninguna intencionalidad, sino porque es su forma de funcionar.
Como dirían los italianos “Se non è vero, è ben trovato” y, aunque no sea completamente acertada su respuesta, está tan bien inventada que puede tener algo de valor o parecer que lo tiene. No solo se producen estas alucinaciones, sino que están aumentando1 a medida que se usa la IA para tareas más técnicas como desarrollo de software, debido a lagunas en los datos de entrenamiento y a la tendencia de los modelos a rellenar vacíos con confianza. De hecho, un estudio de la universidad de Purdue concluía que el 52% de las respuestas de programación generadas por ChatGPT eran incorrectas2. Es necesario revisar, cotejar, verificar.
En programación, esto puede llevar a errores sutiles y difíciles de detectar, especialmente si el perfil que usa la IA no tiene experiencia suficiente para identificar esas inconsistencias. Como cualquier herramienta potente, la IA necesita supervisión.
Apóyate en la IA, sí, pero sin delegar el control.
2. Copiar y pegar código sin revisar
Esto, después de haber visto el primer riesgo, podemos decir que es un corolario. Porque si no aplicamos pensamiento crítico a las respuestas más generales en lenguaje natural, tampoco lo haremos al código generado por IA. Y eso puede presentar multitud de problemas: el código puede contener errores, no ajustarse a la arquitectura del proyecto…
Un ejemplo. Los modelos de IA generativa, como GPT-4 o CodeLlama, frecuentemente “alucinan” paquetes o dependencias que no existen, lo que puede abrir la puerta a vulnerabilidades graves en la cadena de suministro. Según el estudio reciente realizado por investigadores de la Universidad de Texas, la Universidad de Oklahoma y Virginia Tech, las tasas de error superan el 20% en algunos casos. Esto refuerza la necesidad de verificar siempre las dependencias sugeridas por la IA antes de integrarlas en proyectos reales.
El problema se agranda cuando esos fallos no se detectan hasta fases avanzadas del desarrollo y corregirlos implica un coste mucho mayor. Por eso es clave que el equipo de desarrollo tenga la experiencia necesaria para evaluar lo que copia y que existan sistemas de verificación que lo respalden.
3. Delegar el aprendizaje de tu equipo a la IA
¿Para qué aprender si la IA ya me lo da hecho? Precisamente para saber si está bien hecho. El uso masivo de IA puede dar lugar a un problema silencioso: el desaprendizaje del equipo.
Si no promovemos el desarrollo de capacidades técnicas humanas, corremos el riesgo de tener “operadores de IA” en lugar de gente con la experiencia suficiente para convertirse en los expertos que revisan el resultado de la IA y saben comprobar que la respuesta es correcta.
Las organizaciones que no invierten en la formación de su talento acabarán dependiendo de una IA que sus equipos no saben validar ni mejorar.
4. Implementación de soluciones demasiado complejas
Otro riesgo habitual es aceptar soluciones innecesariamente complejas sugeridas por IA, en lugar de resolver problemas de forma sencilla. Pecamos cada vez más de overengineering.
La IA puede proponer soluciones complejas y técnicamente elegantes, pero eso no significa que sean las adecuadas. La visión de arquitectura, de plataforma, de cómo desarrollamos tiene que ser uno de nuestros baluartes.
Debemos tratar cada sugerencia de la IA como la de un desarrollador junior, que viene con muchas ganas y capacidad, pero sin experiencia ni contexto que le permita ver más allá.
5. Confía, pero verifica: implementar IA sin evidencia
Uno de los peores errores es suponer que “la IA está funcionando” sin tener métricas objetivas. De hecho, el informe de METR (2025) Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity encontró que, sobre una muestra de desarrolladores open-source, los que usaban IA tardaban más tiempo en desarrollar que quienes no la usaban.
En estos casos más vale recordar el proverbio ruso que Ronald Regan utilizaba durante sus reuniones con Mihail Gorbachov: “Confía, pero verifica” (Doveriái, no proveriái). No podemos asumir que la IA funcionará por sí sola. Puede requerir acompañamiento, ya sea del liderazgo técnico o del respaldo estratégico de la dirección. Incorporar métricas objetivas que permitan medir su impacto en la productividad, comparando el antes y el después de su implementación, debería formar parte del día a día de cualquier organización.
Debemos dejar de creer que algo va a funcionar a demostrar que lo hace. Y, si no lo hiciera, abandonarlo.
Si ya conoces los errores con la IA en desarrollo de software, ahora puedes evitarlos
Todo esto que os hemos contado no significa que la IA sea mala, sino que su uso no siempre está alineado con el contexto o los objetivos. La IA puede ser una herramienta transformadora o, mal gestionada, un riesgo operativo. La clave está en el liderazgo, la cultura de aprendizaje y la capacidad de medir lo que importa.
En nuestro próximo artículo te contaremos cómo Quanter puede ayudarte a tener un control real de la productividad de tus equipos que usan IA. Porque lo que no se mide, no se puede mejorar. Y eso puede acabar controlándote en vez de tener tú el control.
Fuentes:
- 148% Error Rate: AI Hallucinations Rise in 2025 Reasoning Systems: https://www.techopedia.com/ai-hallucinations-rise
- 2Estudio de Universidad Purdue: https://futurism.com/the-byte/study-chatgpt-answers-wrong
- 3We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs: https://arxiv.org/html/2406.10279v3#S7
- 4Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/?__readwiseLocation=
Sobre el autor
Desarrollo de software | Eficiencia | inteligencia artificial | productividad | producto software

