Oggi portiamo un tema che tocca famiglie, imprese e Pubblica Amministrazione: che cosa sta succedendo davvero con l’AI, l’Intelligenza Artificiale. Useremo i dati e le definizioni contenute nel documento che ci avete inviato, così da non lasciare nulla al caso e trasformare numeri e sigle in scelte comprensibili. Parleremo di adozione, risultati, lavoro, Italia vs Europa e di che cosa significa “IA agentica”, con esempi semplici e concreti. Perché l’AI non è più un’idea lontana: è nella posta che apriamo, nei servizi che usiamo, nei processi che mandano avanti ogni giorno le nostre attività.
Partiamo dallo “stato dell’arte”. Tre anni dopo l’arrivo degli strumenti di Intelligenza Artificiale Generativa (GenAI) che hanno accelerato questa nuova fase, quasi nove intervistati su dieci dichiarano che la propria organizzazione usa regolarmente l’AI, ma il passo non è omogeneo. In altre parole, l’adozione c’è, è diffusa, ma procede a velocità diverse tra settori, funzioni e Paesi. Molte realtà hanno inserito l’AI in qualche attività, ma non l’hanno ancora integrata davvero nel flusso quotidiano, dove si fa la differenza sul piano dei costi, della qualità e del servizio al cliente. È come avere un motore nuovo montato sulla barca e usarlo solo a tratti: la traversata migliora, ma non sfrutti ancora tutta la potenza. Questo quadro è la base da cui leggere il resto dei dati.
Il documento lo dice con chiarezza: l’utilizzo si è allargato, ma la “scala” è ancora il nodo. La percentuale di chi usa l’AI in almeno una funzione aziendale è salita all’88% (dal 78% dell’anno prima), segno che lo strumento non è più di nicchia ma patrimonio comune. Eppure, a livello di impresa nel suo complesso, la maggioranza è in sperimentazione o in pilotaggio: solo circa un terzo dichiara di aver cominciato a scalare davvero i programmi, cioè portarli fuori dal laboratorio fino alle procedure standard. È la differenza tra provare una ricetta e metterla stabilmente nel menù: finché resta “speciale”, non cambia l’andamento della cucina. Tradotto: l’AI c’è, ma il suo impatto dipende dalla capacità di integrarla nel mestiere di ogni giorno.
Dentro questa fotografia c’è una novità “di frontiera”: l’IA agentica (agentic AI). Che cos’è, in parole semplici? È un sistema di agenti – cioè modelli che prendono decisioni e svolgono compiti con limitata supervisione umana – capaci di pianificare, comporre più passaggi e agire con strumenti reali (dai database ai software gestionali) per raggiungere un obiettivo. In un sistema multi-agente, ogni agente svolge una sotto-attività specifica (ad esempio cercare dati, scrivere un’email, aggiornare un report) e un livello di orchestrazione coordina il lavoro come un capomastro che assegna e sincronizza i compiti. È l’evoluzione dal “copilota che suggerisce” al “collaboratore che esegue”, sempre con paletti chiari su rischi, permessi e tracciabilità.
A che punto siamo con questi agenti? I numeri aiutano a capire. Il 23% degli intervistati dichiara che la propria organizzazione sta scalando sistemi di IA agentica in almeno una funzione (cioè sta passando dall’esperimento all’uso regolare su una parte dell’azienda), mentre un ulteriore 39% sta sperimentando agenti. Eppure l’adozione non è ancora capillare: tra chi scala, quasi tutti lo fanno solo su una o due funzioni, e in nessuna funzione oltre il 10% degli intervistati segnala una vera “scala” degli agenti. È un po’ come avere la miglior macchina per il caffè soltanto in una stanza: serve, ma non cambia l’esperienza di tutto l’ufficio finché non la metti dovunque serve davvero.
E l’impatto economico? Al momento, meno del 5% dell’EBIT (Earnings Before Interests and Taxes, in italiano “risultato operativo” o “margine operativo netto”) è attribuito all’uso dell’AI nella maggior parte delle organizzazioni. Ma non fermiamoci a questo numero, perché l’effetto qualitativo è già robusto: la maggioranza segnala miglioramenti dell’innovazione, e quasi la metà vede più soddisfazione dei clienti e maggiore differenziazione competitiva. Se guardiamo ai ricavi, gli aumenti si osservano soprattutto in marketing e vendite, strategia e finanza aziendale, sviluppo di prodotti e servizi. È logico: sono funzioni con tanti dati, tanti processi ripetibili, e obiettivi chiari su cui l’AI può “spingere” più in fretta.
Veniamo al lavoro. L’espansione dell’AI non ha provocato un terremoto nelle dimensioni della forza lavoro nell’ultimo anno: la maggioranza ha visto variazioni nulle o minime nel numero di dipendenti collegate all’AI. Nella maggior parte delle funzioni, meno del 20% degli intervistati segnala diminuzioni pari o superiori al 3%, e una quota ancora più bassa indica aumenti. Cosa significa nella pratica? Che l’AI sta ridisegnando compiti e processi più che cancellare posti; e che il potenziale di produttività si libera quando si fa il salto dall’esperimento alla re-ingegnerizzazione dei flussi, con formazione, governance e misure sul campo. Non un interruttore, ma un cantiere.
Zoom ora sull’Italia. Nel 2024 il mercato dell’Intelligenza Artificiale nel nostro Paese ha toccato 1,2 miliardi di euro, con una crescita del +58% sul 2023: un record che dice quanto interesse e investimento ci siano. La spinta viene soprattutto dalle sperimentazioni che includono la GenAI (il 43% del valore), mentre il restante 57% è composto in prevalenza da soluzioni di AI “tradizionale”. Tra i settori più attivi per spesa media per azienda troviamo Telco & Media e Insurance (assicurazioni), seguiti da Energy, Resource & Utility e Banking & Finance, con una forte accelerazione della GDO & Retail (Grande Distribuzione Organizzata). La Pubblica Amministrazione pesa il 6% del mercato, ma corre a ritmi oltre il 100% anno su anno.
E sul fronte adozione organizzativa? Le grandi imprese guidano, le PMI (Piccole e Medie Imprese) sono indietro. In chiave internazionale, l’Italia risulta ultima tra gli 8 Paesi europei analizzati per adozione dell’AI: l’81% delle grandi imprese ha almeno valutato un progetto (vs media europea 89%), e il 59% ha già un progetto attivo (vs media europea 69%). Attenzione però: tra chi la usa, 1 su 4 ha già progettualità a regime; e il 65% delle grandi aziende attive sta sperimentando anche GenAI, soprattutto come sistemi conversazionali a supporto degli operatori interni. È un indizio chiaro: dove i dati e i processi sono pronti, l’adozione accelera.
Capitolo regole, etica e conformità (pensiamo all’AI Act europeo). Qui la strada è ancora lunga: solo il 28% delle grandi realtà attive in progetti AI dichiara di aver adottato misure concrete di ethics & compliance, mentre il 52% ammette di non aver compreso pienamente il quadro normativo. In pratica, le aziende stanno correndo sul prodotto e sulle efficienze, ma devono correre allo stesso ritmo su governance, rischi, qualità dei dati, trasparenza e diritti. È come far partire un treno veloce senza aver completato tutta la segnaletica: il viaggio è possibile, ma le regole servono a evitare incidenti e a far arrivare a destinazione tutti, non solo i primi.
Un dato interessante è che l’Italia è ai primi posti per l’uso di strumenti GenAI “pronti all’uso”: il 53% delle grandi aziende ha acquistato licenze (tipicamente ChatGPT o Microsoft Copilot), più di Francia, Germania e Regno Unito. E il 39% di queste imprese segnala aumenti di produttività; da notare che un ulteriore 48% non ha ancora valutato quantitativamente l’impatto. Sul piano delle regole interne, oltre 4 su 10 hanno linee guida per l’utilizzo; nel 17% dei casi è stato vietato l’uso di tool non approvati, per evitare il fenomeno della Shadow AI (strumenti usati “di nascosto” fuori dalle policy). Segno che l’entusiasmo cresce insieme alla consapevolezza dei rischi.
PMI: qui la fotografia è diversa. L’interesse è alto (58%), complice la visibilità mediatica e la disponibilità di strumenti low-cost, ma la progettualità è ancora bassa: solo il 7% delle piccole e il 15% delle medie imprese ha avviato progetti (sviluppo interno o con fornitori). Dove si parte, l’obiettivo è spesso l’efficienza operativa – nelle aziende di prodotto, soprattutto l’ottimizzazione dei processi produttivi. Il limite più citato? L’immaturità nella gestione dei dati: senza dati affidabili, l’AI resta un motore senza carburante. Quanto alle licenze GenAI “pronte all’uso”, siamo all’8% delle PMI: un segnale che la curiosità c’è, ma va accompagnata con percorsi semplici e sicuri.
E i cittadini? Quasi tutti conoscono il termine “Intelligenza Artificiale” (99%) e l’89% ha sentito parlare di GenAI (in aumento di +32 punti rispetto al 2023). Siamo, tra i confronti citati, il Paese con l’atteggiamento più favorevole: il 59% ha un’opinione positiva dell’AI, anche se in calo di 8 punti sull’anno precedente. Restano preoccupazioni nette su due fronti: la manipolazione delle informazioni (pensiamo ai deepfake, contenuti falsi di grande realismo) e l’impatto sul mercato del lavoro. È la conferma che serve una narrazione onesta: raccontare opportunità e limiti, senza slogan né allarmismi.
Fermiamoci un attimo sul significato pratico di scala. “Scalare” non è aggiungere altri utenti a un tool, è ridisegnare i processi perché l’AI diventi parte standard del lavoro. Vuol dire: mappare i flussi, decidere dove l’AI osserva (analisi dati), dove propone (raccomandazioni), dove agisce (automatizza) e con quali controlli. Vuol dire: mettere metriche di qualità e produttività, formare le persone a scrivere prompt efficaci, definire ruoli e responsabilità su dati e modelli, e aggiornare i sistemi di sicurezza. Senza questa architettura, l’AI resta una “dimostrazione brillante”, utile ma fragile. Con questa architettura, diventa un “sistema operativo” del lavoro.
Torniamo all’IA agentica con un esempio semplice. Immaginiamo il processo mensile di reportistica commerciale: oggi un analista scarica dati, li pulisce, aggiorna tabelle, scrive un commento, manda l’email. Con un set di agenti: uno estrae i dati dai sistemi, uno verifica la qualità, uno aggiorna il template, uno scrive la bozza di commento, uno programma l’invio e chiede approvazione umana. L’orchestratore tiene il filo: se un controllo non passa, ritorna allo step giusto; se manca un dato, notifica l’owner. Il risultato non è “magia”: è tempo liberato dagli automatismi per concentrarsi sulle decisioni. Questo è il senso del passaggio da assistente a agente.
E l’EBIT <5%? Non sottovalutiamolo né sopravvalutiamolo. È normale che il contributo diretto all’utile operativo sia inizialmente modesto, perché molti benefici stanno in innovazione di prodotto, soddisfazione cliente, velocità di risposta, cioè in aree che maturano nel tempo e si riflettono nei conti con un certo ritardo. Inoltre, senza scalare e senza misure precise, è difficile attribuire il merito: ecco perché quasi la metà delle imprese con licenze GenAI non ha ancora quantificato l’impatto. Prima si costruisce il controllo di gestione dell’AI, poi arrivano i numeri che restano.
Per l’Italia, la strada è chiara. Primo: dati. Senza qualità, governance e accessibilità, l’AI non rende. Secondo: skill. Servono persone che sappiano progettare processi AI-ready, scrivere prompt, verificare output, gestire rischi e compliance. Terzo: casi d’uso concreti e misurabili (customer care, preventivazione, pricing dinamico, manutenzione predittiva, knowledge management). Quarto: regole e trasparenza su AI Act, privacy, proprietà intellettuale. Quinto: apertura ai fornitori giusti – dalle piattaforme “pronte” ai partner che aiutino a industrializzare – evitando sia il “tutto in casa” sia il “tutto esterno” senza presidio.
Per le PMI, aggiungo un percorso minimo in quattro tappe: (1) Autovalutazione dei processi e dei dati (dove perdiamo più tempo? quali errori ricorrono?); (2) Proof-of-concept da 6-8 settimane su un solo flusso ad alto impatto, con metriche chiare (tempo, errori, NPS del cliente interno/esterno); (3) Governance leggera: policy d’uso, ruoli, checklist di sicurezza e privacy; (4) Formazione pratica: 3 ore al mese per imparare prompt, verifiche, best practice. È così che si passa dall’interesse all’adozione. Non servono progetti faraonici: servono piccoli cantieri che si sommano.
Dal punto di vista culturale, i dati sui cittadini ci dicono che l’attenzione è alta e il clima, in media, favorevole, ma accompagnato da timori reali (deepfake, lavoro). La risposta non è minimizzare, ma educare: spiegare come riconoscere contenuti sintetici, come proteggere i propri dati, come usare l’AI in modo responsabile. E soprattutto ricordare che l’AI “buona” è quella governata da criteri di etica, trasparenza e inclusione: se tutti capiscono come funziona, tutti possono decidere meglio. Anche questo è valore economico, perché riduce errori, frodi e conflitti.
Chiudiamo con una bussola di priorità per il 2025-2026: integrazione nei processi (dal pilot al lavoro vero), metriche di impatto (economiche e qualitative), sicurezza & compliance (AI Act, privacy, IP), alfabetizzazione diffusa (non solo tecnici, ma tutta l’organizzazione), partnership efficaci (fornitori, università, startup), PMO dell’AI (una “cabina di regia” che coordini roadmap, rischi e comunicazione). È così che i numeri dell’adozione diventano valore che si vede nei conti e nella qualità del servizio. L’AI è un mezzo potente: sta a noi dargli la direzione giusta.
