Clicca per guardare il video
Su Fabbrica della Comunicazione la rubrica Focus Radio è cura della Redazione di Fabbrica della Comunicazione e realizzata a cura di Beatrice Silenzi – giornalista e direttore responsabile.
Una nuova traiettoria dell’intelligenza artificiale viene intercettata tra promesse utopiche, costi insostenibili e un inquietante abbraccio con il complesso militare-industriale.
Il recente saggio pubblicato da Sam Altman, Amministratore Delegato di OpenAI, sul suo blog non è un semplice aggiornamento tecnologico, ma un manifesto, anzi, una dichiarazione d’intenti che traccia una traiettoria quasi messianica per l’intelligenza artificiale.
Altman non parla di possibilità, ma di certezze. e la sua visione, articolata e potente, paragona l’era attuale alla Rivoluzione Industriale di un tempo.
Un momento di rottura epocale ridefinisce il lavoro, la società e il concetto stesso di progresso. Tuttavia, dietro questa narrazione ottimistica, si celano contraddizioni profonde ed enormi sfide che gettano un’ombra su quella “singolarità gentile” che Altman preannuncia.
L’analogia con la Rivoluzione Industriale, a cavallo tra il Diciottesimo e Diciannovesimo secolo, è dunque il fulcro del suo altisonante pensiero. Come la macchina a vapore di James Watt non si limitava a velocizzare il lavoro manuale ma ha creato intere industrie, urbanizzando nazioni e sconvolgendo gerarchie sociali secolari, così l’AI generativa promette oggi di fare altrettanto, su scala globale e ad una velocità inimmaginabile.
L’impatto iniziale è già visibile.
L’automazione di compiti specifici, dalla stesura di un codice informatico alla creazione di bozze legali, dalla generazione di contenuti di marketing all’analisi di dati complessi è un dato di fatto.
Questo, secondo i sostenitori, non solo aumenta la produttività ma “innalza la qualità del lavoro umano”, liberandolo da attività ripetitive per concentrarlo su strategia, creatività e supervisione. Economisti autori del libro “The Second Machine Age”, hanno a lungo sostenuto la tesi secondo cui l’AI è un valido strumento per aumentare l’intelligenza umana, ma non per sostituirla.
L’analogia storica con la Rivoluzione Industriale nasconde però anche un lato oscuro. Quella del passato fu tuttavia un processo brutale per milioni di persone: sradicamento dalle campagne, condizioni di lavoro disumane, aumento delle disuguaglianze, tensioni sociali che sfociarono in decenni di lotte.
Come sottolinea un economista del MIT, la tecnologia non ha una direzione intrinsecamente benefica: il suo impatto dipende dalle scelte di chi la progetta e la implementa.
Se l’obiettivo primario è l’automazione per la riduzione dei costi e la massimizzazione dei profitti, il risultato rischia di essere una concentrazione di ricchezza e potere nelle mani di pochi, a scapito della forza lavoro.
La visione di Altman, pur parlando di progresso per l’umanità, proviene da una società OpenAI, da 80 miliardi di dollari, che incarna proprio una potenziale concentrazione di potere.
Così, mentre la discussione pubblica si concentra sugli aspetti immateriali dell’AI, l’infrastruttura che alimenta modelli come GPT – 4 è vorace, dall’impatto ambientale nient’affatto trascurabile tanto da diventare una delle prime preoccupazioni a livello planetario.
Una singola richiesta dal consumo di 0,34 watt-ora, può sembrare insignificante, eppure, secondo le stime, ChatGPT gestisce oltre cento milioni di utenti attivi settimanali.
Dai dati di uno studio effettuato, il consumo energetico dell’industria dell’AI potrebbe arrivare entro il 2027, al consumo annuale di paesi come Argentina, Paesi Bassi o Svezia.
Ma il problema è anche l’acqua, poiché i data center ne utilizzano enormi quantità per il raffreddamento. Una ricerca dell’Università della California ha rivelato che l’addestramento di GPT-3 nei data center di Microsoft ha consumato circa 700 mila litri d’acqua dolce. Una semplice conversazione con ChatGPT consumerebbe l’equivalente di una bottiglia d’acqua da mezzo litro.
Altman è consapevole di questa sfida.
La sua richiesta di “potenziamento delle infrastrutture” e di “nuove fonti energetiche” non è casuale.
Ha investito in Helion, startup che persegue l’obiettivo della fusione nucleare, e in Oklo, che progetta micro-reattori a fissione. Da qui la domanda: la soluzione alla crisi energetica causata dall’AI arriverà da un bene pubblico o da un’altra impresa commerciale controllata da chi genera tecnologia?
Inoltre, la corsa all’AI è rivolta anche al controllo delle catene di approvvigionamento dei semiconduttori: fattore che alimenta ulteriormente la competizione strategica globale.
Il cuore della visione di Altman è il passaggio da un’AI ristretta a un’Intelligenza Artificiale Generale (AGI), una macchina con capacità cognitive paragonabili o superiori a quelle umane in tutti i campi, il cui passo successivo sarebbe la Superintelligenza (ASI), un’entità che supererebbe l’intelletto umano in modo così profondo da essere per noi incomprensibile.
Questo avvento viene definito da Altman come una “singolarità gentile”, un processo controllato in cui l’AI automigliorata, accelererà il progresso umano in modi esponenziali: in grado di progettare terapie geniche in poche ore, risolvere il cambiamento climatico modellando soluzioni energetiche perfette, scoprire nuove leggi della fisica.
Una parte significativa della comunità scientifica e filosofica vede questo percorso come un crepuscolo fatale per l’umanità; il filosofo di Oxford Nick Bostrom ha descritto scenari inquietanti a riguardo, come il famoso esperimento mentale del “massimizzatore di graffette”: un’IA incaricata di produrre graffette potrebbe, nella sua logica spietata ed efficiente, decidere di convertire tutta la materia del pianeta, inclusi gli esseri umani, in graffette per adempiere al suo obiettivo primario.
AI ed obiettivi da raggiungere che ricorda Hal 9000 di 2001, Odissea nello spazio
Geoffrey Hinton ha lasciato Google nel 2023 per poter parlare liberamente dei pericoli dell’AI, nel timore che si creino intelligenze che potremmo non essere in grado di controllare.
Ecco che la “singolarità gentile” di Altman interviene a presupporre un livello di controllo e prevedibilità che gli esperti ritengono ingenuo, se non arrogante.
Non solo. La frase di Altman secondo cui la scomparsa di alcuni lavori è un “sacrificio necessario in nome del progresso” è forse la più problematica dal punto di vista etico e sociale. Ogni rivoluzione tecnologica ha comportato la distruzione del vecchio e la creazione del nuovo, ma in questo caso la velocità della transizione non ha precedenti. L’AI generativa impatta sui lavori cognitivi e creativi. Intere professioni sono a rischio. Un rapporto di Goldman Sachs del 2023 ha stimato che l’AI potrebbe automatizzare 300 milioni di posti di lavoro a tempo pieno nel mondo.
La storia insegna che i benefici del progresso tecnologico non sono distribuiti equamente. Il rischio è una polarizzazione ancora più estrema della società: dunque chi decide quale sacrificio è “necessario”? Chi ne pagherà il prezzo?
La soluzione del Reddito di Base Universale sostenuta dallo stesso Altman, è una conseguenza diretta di questa preoccupazione: una proposta, al momento, politicamente e finanziariamente complessa.
Ma se Altman dipinge un futuro di scoperte scientifiche e benessere umano, contemporaneamente la sua azienda stringe accordi multimilionari con il Dipartimento della Difesa statunitense: il contratto da 200 milioni di dollari e il lancio di “OpenAI for Government” costituiscono una scelta strategica che svela la natura duale e intrinsecamente politica di questa tecnologia.
L’obiettivo del Pentagono è sviluppare prototipi all’avanguardia per affrontare sfide critiche per la sicurezza nazionale, sia in ambito bellico che aziendale: significa integrare l’AI nei processi decisionali militari, nell’intelligence, nella cybersecurity e, potenzialmente, nei sistemi d’arma autonomi.
L’IA potrebbe ridurre il tempo di reazione in un conflitto, aumentando il rischio di escalation involontaria e incontrollabile perché le sue decisioni potrebbero essere prese in base ad una logica che un operatore umano potrebbe non comprendere.
Un’IA male addestrata potrebbe replicare o amplificare i pregiudizi umani, portando a decisioni discriminatorie o errate.
Il richiamo a Hal 9000 o a Skynet, supercomputer senziente della saga di “Terminator”, non è più solo un cliché fantascientifico.
Il dibattito non è più se l’IA cambierà il mondo, ma chi guiderà questo cambiamento e con quali obiettivi.
Importante è non restare passivi.
Non stiamo solo assistendo all’avvento di un futuro predeterminato, dobbiamo cercare il modo di difenderci.
È tempo di analizzare e metabolizzare. È tempo di capire e poi, pensare criticamante e in maniera nuova.
Focus Radio. L’essenziale, in profondità.
Il video pubblicato è di proprietà di (o concesso da terzi in uso a) FABBRICA DELLA COMUNICAZIONE.
E’ vietato scaricare, modificare e ridistribuire il video se non PREVIA autorizzazione scritta e richiesta a info@fcom.it.