Agenti IA: a che punto siamo e come vengono utilizzati
Gli agenti IA stanno attirando sempre più attenzione. Dai sistemi che automatizzano attività complesse all’integrazione con software aziendali, il loro sviluppo sta accelerando. A che punto siamo e quali sono le implicazioni per le aziende?
A cura di Skilla


Cosa sono gli agenti IA e perché stanno guadagnando attenzione
Gli agenti IA sono considerati la nuova frontiera dell’Intelligenza Artificiale, soprattutto in ambito lavorativo. Gartner li ha posti in cima ai Top Strategic Technology Trends per il 2025, prevedendo che entro il 2028 potrebbero influenzare fino al 15% delle decisioni quotidiane nelle aziende, contro lo 0% attuale. Questo perché sono progettati per operare con un coinvolgimento umano minimo, gestendo attività in modo autonomo.
A differenza dei chatbot tradizionali, gli agenti IA non si limitano a rispondere a richieste, ma perseguono obiettivi, apprendono nel tempo, interagiscono con software esterni e suddividono compiti complessi in più fasi. Questa capacità di agire in modo proattivo li rende strumenti potenti, con potenziali applicazioni in ogni settore, dalle vendite online alla ricerca scientifica.
Dal punto di vista tecnico, il loro funzionamento si basa su un modello di base, spesso un Large Language Model, affiancato da strumenti dedicati che ne espandono la memoria, ottimizzano la pianificazione e ne migliorano l’interazione con altri sistemi. È questa architettura modulare a renderli sempre più versatili e adatti a contesti complessi.
Dopo il successo dei chatbot, gli agenti IA segnano un’evoluzione significativa: non richiedono solo input testuali ma possono operare in autonomia, trasformando il modo in cui interagiamo con l’IA. Come ha osservato il giornalista Casey Newton, il loro sviluppo potrebbe “liberarci” dalla casella di testo delle chat, aprendo la strada a modalità di interazione completamente nuove.
L’evoluzione degli agenti
Per comprendere lo stato attuale degli agenti IA, un gruppo di ricercatori di università tra cui MIT, Stanford e École normale supérieure Paris-Saclay, ha sviluppato l’AI Agent Index, un framework che analizza componenti tecnici, utilizzi e aspetti di sicurezza di questi sistemi. Tra agosto 2024 e gennaio 2025, lo studio ha esaminato 67 agenti IA in base a criteri di agentività e accessibilità delle informazioni.
Dall’analisi emergono alcune tendenze chiave:
- crescita costante: I primi sistemi hanno iniziato a essere distribuiti nei primi mesi del 2023, ma il loro impiego è aumentato progressivamente, con circa la metà dei sistemi indicizzati distribuiti nella seconda metà del 2024;
- leadership statunitense: 45 dei 67 agenti provengono da team con sede negli Stati Uniti;
- prevalenza aziendale: il 73% dei sistemi è sviluppato da aziende private, mentre il restante 27% proviene dal mondo accademico;
- settori di applicazione: oltre il 74% degli agenti è focalizzato sull’ingegneria del software e sull’interazione con i computer, seguiti da ricerca scientifica, robotica e applicazioni di nicchia.
Un aspetto critico riguarda la governance e la trasparenza. Se da un lato molti sistemi accademici offrono accesso al codice (88% dei casi), dall’altro le informazioni su test di sicurezza e gestione del rischio sono limitate. Gran parte dei test documentati proviene solo da poche grandi aziende come Anthropic, Google DeepMind e OpenAI, evidenziando la necessità di meccanismi di trasparenza e valutazione indipendente.
Questa situazione solleva diverse implicazioni per la governance:
- influenza dell’industria: le iniziative regolatorie dovranno tenere conto delle dinamiche e degli incentivi del settore privato, principale motore dello sviluppo;
- concentrazione geografica: il predominio statunitense suggerisce che le strategie normative focalizzate sugli USA avranno un impatto maggiore;
- priorità normative: l’ampia diffusione di agenti IA in ingegneria del software e interazione uomo-macchina indica la necessità di regolamentare in primis questi ambiti.
Gli agenti IA stanno avanzando rapidamente, ma la mancanza di standard condivisi su sicurezza e governance lascia ancora aperte molte questioni. Queste criticità potrebbero acuirsi con l’evoluzione verso sistemi in grado di orchestrare più agenti, rendendo ancora più complessa la gestione dei rischi e della trasparenza.
Esempi concreti e questioni aperte
Durante l’evento Gemini at Work, Google ha presentato alcune soluzioni adottate da aziende che stanno sperimentando agenti AI per migliorare produttività, efficienza operativa e customer experience. L’obiettivo principale è ottimizzare processi, ridurre i tempi di risposta e supportare le attività dei dipendenti.
Ecco alcune delle prime implementazioni:
- Bell Canada ha introdotto agenti digitali per migliorare il supporto clienti, automatizzando le risposte alle richieste più frequenti e ottimizzando la gestione delle segnalazioni;
- Best Buy utilizza un agente IA per la sintesi automatica delle chiamate, riducendo i tempi di gestione delle problematiche dei clienti fino a 90 secondi per interazione;
- UPS Capital sfrutta un agente basato su Google Cloud per monitorare in tempo reale spedizioni, reclami assicurativi e dati degli indirizzi, identificando eventuali anomalie prima che diventino criticità;
- Hiscox, uno dei più antichi sindacati dei Lloyd’s di Londra, ha sviluppato un modello di sottoscrizione basato sull’IA, accelerando l’analisi dei rischi e riducendo i tempi di preventivazione da tre giorni a pochi minuti.
Queste prime applicazioni dimostrano il potenziale degli agenti IA nel semplificare operazioni complesse e nel supportare le aziende in attività strategiche e operative. Tuttavia, sebbene l’obiettivo sia ottimizzare processi e aumentare l’efficienza, è essenziale che l’adozione di questi sistemi non si riduca a una ricerca della produttività fine a sé stessa. Il vero valore non sta solo nella velocità o nell’automazione, ma nella capacità di migliorare l’esperienza delle persone e i risultati aziendali in modo sostenibile.
Questa prospettiva è particolarmente rilevante se consideriamo le sfide emerse in termini di governance e trasparenza. La mancanza di standard condivisi sulla sicurezza e sulla gestione del rischio dimostra che non basta implementare agenti IA, è necessario anche garantire un utilizzo responsabile. In questo senso, il controllo e il monitoraggio umano rimarranno essenziali per assicurare che queste tecnologie siano uno strumento di valore reale, e non solo un esercizio tecnico.