L’Intelligenza Artificiale è sostenibile?
Nel dibattito sull’IA emerge spesso questa domanda. Dare una risposta definitiva non è possibile, poiché l’impatto e le conseguenze dell’IA dipendono dall’uso che ne facciamo. Scopri informazioni, dati e spunti dal Team di Skilla
Il termine “sostenibilità” evoca immediatamente temi ambientali come l’impatto del cambiamento climatico e la ricerca di fonti energetiche alternative. Tuttavia, i temi ambientali rappresentano solo una parte del concetto di sostenibilità. La definizione dello standard ESG (Environmental, Social e Governance) riflette questa prospettiva più ampia. Non analizzeremo lo standard nello specifico, ma considereremo i tre ambiti che lo compongono, offrendo dati e informazioni che rappresentano una parte della risposta alla domanda “L’Intelligenza Artificiale è sostenibile”?
Sostenibilità ambientale e IA
- Il rapporto tra Intelligenza Artificiale e sostenibilità ambientale è caratterizzato da un forte contrasto: da un lato, l’IA è essenziale per sviluppare soluzioni avanzate per il contrasto al cambiamento climatico; dall’altro, la creazione e l’uso di modelli di IA, specialmente quelli generativi, richiedono ingenti quantità di energia. Una parte significativa dell’impronta ecologica dell’IA è dovuta alla potenza di calcolo necessaria per addestrare questi modelli. Il filosofo Luciano Floridi sottolinea, però, che spesso manca chiarezza e completezza nelle informazioni relative alle condizioni di addestramento e al processo di sviluppo. Diversi fattori, come il numero di Reti Neurali addestrate e le caratteristiche della rete elettrica, devono essere considerati per determinare l’impronta ecologica di un sistema di IA. Queste informazioni sono spesso incomplete o difficilmente reperibili, rendendo le stime dell’impatto dei modelli approssimative.
- Il World Economic Forum e l’ONU riconoscono l’IA come una tecnologia che può aiutare a contrastare il cambiamento climatico. In particolare, il World Economic Forum ha sintetizzato in nove punti le modalità con cui l’IA può monitorare il cambiamento climatico.
- Durante l’ultimo incontro annuale del World Economic Forum, Sam Altman, CEO di OpenAI, ha avvertito che i futuri sistemi di IA generativa consumeranno molta più energia del previsto, mettendo sotto pressione i sistemi energetici. Una possibile soluzione è lo sviluppo di modelli di IA più efficienti, come gli Small Language Models, che stanno già iniziando a diffondersi.
Sostenibilità sociale e IA
- Sempre in occasione dell’ultima riunione del World Economic Forum è stata lanciata l’iniziativa “AI for Social Innovation“. Il report “AI for Impact: The Role of Artificial Intelligence in Social Innovation“, presenta e sintetizza lo stato attuale dell’IA nel campo dell’innovazione sociale. Il rapporto individua tre aree in cui l’IA sta apportando contributi significativi: assistenza sanitaria, sostenibilità ambientale ed empowerment economico. L’assistenza sanitaria è l’ambito con il maggior numero di iniziative (25%), seguita dal cambiamento climatico (20%) e dall’empowerment economico, particolarmente rilevante nei paesi a basso reddito (80% delle iniziative). È interessante notare che persistono delle disparità di genere: solo il 25% delle innovazioni sociali basate su IA è sviluppato da donne. Realizzare il pieno potenziale dell’IA richiede non solo abilità tecnologica, ma anche formazione, sviluppo delle competenze e dialogo tra settore privato e pubblico.
- Secondo il sociologo Nicholas Christakis l’IA può influenzare norme e rapporti sociali, migliorando la cooperazione umana o spingendo verso comportamenti egoistici. Tuttavia, l’aspetto più preoccupante riguarda l’impatto sui processi decisionali. Esperimenti mostrano che delegare decisioni ad assistenti virtuali basati su IA può oscurare la responsabilità morale e incoraggiare interazioni non etiche. Un gruppo di ricercatori dell’Istituto Max Planck ha scoperto che, in un esperimento in cui i partecipanti dovevano lanciare i dadi e riportare il risultato, la disonestà aumentava dal 5% al 40% quando potevano delegare la decisione a un altro umano, al 50% se delegata a una macchina e all’88% se lasciata a un agente IA
Governance e IA
- Secondo un rapporto realizzato da Microsoft in collaborazione con LinkedIn, il 75% dei knowledge worker utilizza l’IA al lavoro e il 79% dei leader ritiene che l’adozione dell’IA sia fondamentale per rimanere competitivi. Tuttavia, il 60% di loro afferma che alla propria azienda manca una visione e un piano per implementarla. Di conseguenza, i dipendenti stanno agendo autonomamente: il 78% degli utenti di IA utilizza i propri strumenti per lavorare. Poiché spesso vengono utilizzati account personali per scopi lavorativi, è auspicabile definire delle policy che non solo garantiscano un uso sicuro degli strumenti di IA, ma forniscano anche una chiara direzione e strategia per il loro impiego efficace e coerente all’interno dell’azienda.
- Definire un utilizzo etico dell’IA non è semplice. Esistono diversi documenti e raccomandazioni che stabiliscono principi etici a cui fare riferimento, dai principi di Asilomar alle Ethics Guidelines for Trustworthy AI definite dalla Commissione Europea. Il filosofo e informatico francese Jean-Gabriel Ganascia suggerisce quattro raccomandazioni: creare comitati etici esterni alle aziende con rappresentanti delle aziende e personalità esterne, istituire comitati etici interni con competenze tecniche, introdurre certificazioni esterne da parte di enti indipendenti e garantire supervisione e monitoraggio continuo delle applicazioni di IA.
- Chiudiamo con il consiglio di un altro filosofo, Cosimo Accoto. Secondo Accoto, è necessario passare da una fase di “isteria”, caratterizzata dalla rincorsa alle innovazioni basate su IA, a una fase di strategia. Le aziende dovrebbero studiare i sistemi di IA per definire una strategia chiara e sostenibile.