Nel nostro precedente articolo abbiamo visto come l’intelligenza artificiale generativa possa migliorare notevolmente la produttività dei team di sviluppo: suggerimenti di codice in tempo reale, generazione automatica di test, documentazione istantanea… A prima vista sembra un grande acceleratore di valore.
Ma come ogni strumento, la sua utilità dipende in gran parte da come viene utilizzato. L’IA è potente se sai usarla. O useresti una Ferrari come carrello per spostarti da una buca all’altra in un campo da golf? Per quanto futuristica possa sembrare, sarebbe uno spreco enorme.
Implementare l’IA nel modo sbagliato può trasformarla a sua volta in uno spreco. Per questo motivo, in questo articolo passiamo in rassegna gli errori e i cattivi utilizzi più frequenti quando si introduce l’IA e cosa possiamo fare per evitarli.
1. Usare l’IA come sostituto totale del pensiero critico
O, detto in altre parole: fidarsi ciecamente dell’IA. Nonostante sia uno strumento straordinario, l’IA presenta bias e limitazioni. Una delle più rilevanti è la cosiddetta “allucinazione”: fornire risposte con dati falsi ma plausibili. L’IA ti dà sempre una risposta coerente con la tua domanda, anche se non è corretta. E non lo fa con malizia, ma semplicemente perché questo è il suo modo di funzionare.
Come direbbero gli italiani: «Se non è vero, è ben trovato». Anche se non è del tutto corretta, la risposta è costruita così bene da sembrare avere un valore, o da convincere che ce l’abbia. Le allucinazioni non solo esistono, ma stanno aumentando¹ man mano che si utilizza l’IA per compiti più tecnici come lo sviluppo software, a causa di lacune nei dati di addestramento e della tendenza dei modelli a colmare i vuoti con grande sicurezza. Uno studio della Purdue University ha rilevato che il 52% delle risposte di programmazione generate da ChatGPT era errato². È indispensabile controllare, confrontare, verificare.
In programmazione questo può portare a errori sottili e difficili da individuare, specialmente quando chi usa l’IA non ha ancora sufficiente esperienza per riconoscerli. Come ogni strumento potente, l’IA richiede supervisione.
Appoggiati all’IA, certo, ma senza mai cedere il controllo.
2. Copiare e incollare codice senza revisionarlo.
Questo, dopo il primo rischio, è praticamente un corollario. Se non applichiamo pensiero critico alle risposte in linguaggio naturale, figuriamoci al codice generato dall’IA. Questo può causare moltissimi problemi: il codice può contenere errori, non rispettare l’architettura del progetto…
Un esempio concreto: i modelli di IA generativa (come GPT-4 o CodeLlama) allucinano frequentemente pacchetti o dipendenze che non esistono, aprendo la porta a vulnerabilità gravi nella supply chain. Secondo uno studio recente condotto da ricercatori delle Università del Texas, Oklahoma e Virginia Tech, in alcuni casi il tasso di errore supera il 20%. Questo rafforza la necessità di verificare sempre le dipendenze suggerite dall’IA prima di integrarle in progetti reali.
Il problema si aggrava quando questi errori vengono scoperti solo in fasi avanzate e correggerli comporta costi molto più alti. Per questo è fondamentale che il team abbia l’esperienza necessaria per valutare ciò che copia e che esistano meccanismi di verifica a supporto.
3. Delegare l’apprendimento del team all’IA
A che serve studiare se l’IA me lo dà già pronto? Proprio per sapere se è fatto bene. L’uso massiccio dell’IA può generare un problema silenzioso: il disimparare del team.
Se non promuoviamo lo sviluppo delle competenze tecniche umane, rischiamo di avere “operatori di IA” invece di persone con l’esperienza sufficiente per diventare gli esperti che revisionano i risultati dell’IA e sanno verificare se la risposta è corretta.
Le organizzazioni che non investono nella formazione del proprio talento finiranno per dipendere da un’IA che i loro team non sanno validare né migliorare.
4. Implementare soluzioni eccessivamente complesse.
Un altro rischio frequente è accettare soluzioni inutilmente complicate suggerite dall’IA, invece di risolvere i problemi in modo semplice. Stiamo cadendo sempre più spesso nell’overengineering.
L’IA può proporre soluzioni complesse e tecnicamente eleganti, ma questo non significa che siano quelle giuste. La visione architetturale, di piattaforma, di come sviluppiamo deve rimanere uno dei nostri punti di forza.
Dobbiamo trattare ogni suggerimento dell’IA come quello di un developer junior: pieno di entusiasmo e capacità, ma privo di esperienza e contesto per vedere oltre il proprio naso.
5. Fidarsi, ma verificare: introdurre l’IA senza evidenze.
Uno degli errori peggiori è dare per scontato che “l’IA stia funzionando” senza disporre di metriche oggettive. Anzi, il report di METR (2025) Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity ha rilevato che, su un campione di sviluppatori open-source, coloro che usavano IA impiegavano più tempo rispetto a chi non la usava.
In questi casi vale la pena ricordare il proverbio russo che Ronald Reagan usava nei suoi incontri con Mikhail Gorbaciov: «Fidati, ma verifica» (Doveriái, no proveriái). Non possiamo presumere che l’IA funzioni da sola. Potrebbe richiedere accompagnamento, sia da parte del leadership tecnico che dal supporto strategico della direzione. Introdurre metriche oggettive per misurare l’impatto sulla produttività, confrontando il prima e il dopo, dovrebbe essere una pratica quotidiana in ogni organizzazione.
Dobbiamo smettere di credere che qualcosa funzionerà e iniziare a dimostrare che funziona. E se non funziona, abbandonarla.
Se ora conosci gli errori più comuni legati all’IA nello sviluppo software, puoi evitarli.
Tutto ciò che abbiamo raccontato non significa che l’IA sia negativa, ma che il suo utilizzo non sempre è allineato al contesto o agli obiettivi. L’IA può essere uno strumento trasformativo oppure, se mal gestita, un rischio operativo. La chiave sta nella leadership, nella cultura dell’apprendimento e nella capacità di misurare ciò che conta davvero.
Nel prossimo articolo ti spiegheremo come Quanter può aiutarti ad avere un controllo reale sulla produttività dei tuoi team che utilizzano l’IA. Perché ciò che non si misura, non si può migliorare. E questo potrebbe finire per controllare te, invece di essere tu ad avere il controllo.
Fonti:
- 148% Error Rate: AI Hallucinations Rise in 2025 Reasoning Systems: https://www.techopedia.com/ai-hallucinations-rise
- 2Estudio de Universidad Purdue: https://futurism.com/the-byte/study-chatgpt-answers-wrong
- 3We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs: https://arxiv.org/html/2406.10279v3#S7
- 4Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/?__readwiseLocation=
About the author
Efficienza | Intelligenza artificiale | Prodotto software | Produttività

