Clicca per guardare il video
La rubrica L’Altra Domenica è a cura dello scrittrice e giornalista Enrica Perucchietti e Beatrice Silenzi, direttore responsabile di Fabbrica della Comunicazione.
ALGORITMI E SORVEGLIANZA. ELITE LA NUOVA APP
Algoritmi che “decidono” cosa vediamo sui social, che suggeriscono cosa acquistare, che orientano le nostre relazioni digitali e, sempre più spesso, che supportano – o anticipano – decisioni politiche e di sicurezza e la domanda centrale resta inevasa: fino a che punto questi sistemi sono strumenti e quando diventano architetture di controllo?
Il caso del software Elite, sviluppato da Palantir, riporta la questione al centro del dibattito pubblico. L’azienda, cofondata da Peter Thiel e guidata da Alex Karp, è da anni uno dei principali fornitori di sistemi di analisi avanzata per governi e agenzie di intelligence. Elite rappresenta però un salto di qualità: non si limita a supportare l’azione umana, ma costruisce vere e proprie mappe operative predittive.
Nel caso specifico, il software è stato sviluppato per le agenzie federali statunitensi impegnate nel controllo dell’immigrazione irregolare. Incrociando dati sanitari, acquisti, geolocalizzazioni e informazioni amministrative, Elite genera una “bussola” che indica chi cercare, dove e quando. Non più semplice analisi ex post, ma intelligence preventiva, capace di orientare direttamente le operazioni sul territorio.
È un passaggio cruciale, perché segna la trasformazione della tecnologia da supporto a soggetto decisionale. Un’evoluzione già visibile nei sistemi di polizia predittiva, dove il rischio non è solo l’errore tecnico, ma la cristallizzazione del sospetto: interi quartieri, gruppi sociali o categorie vengono trasformati in bersagli statistici.
Il problema, tuttavia, non riguarda esclusivamente l’immigrazione. Come spesso accade, si crea un precedente. Ciò che oggi è giustificato in nome della sicurezza può domani estendersi ad altri ambiti della vita civile: dissenso politico, comportamenti sociali, accesso ai servizi. La storia recente lo dimostra.
Dopo l’11 settembre, il Patriot Act ha legalizzato una fusione massiccia di dati tra FBI, CIA e NSA, normalizzando pratiche di sorveglianza che in precedenza sarebbero state impensabili.
Parallelamente, il controllo non passa più solo dallo Stato, ma dalle big tech, che operano attraverso algoritmi di visibilità e censura. Piattaforme come Meta, TikTok e YouTube non si limitano a ospitare contenuti: li selezionano, penalizzano, amplificano.
Il risultato è una forma di potere morbido ma pervasivo, che incentiva l’autocensura. Creatori di contenuti, giornalisti e utenti imparano rapidamente quali argomenti “non conviene” toccare per evitare shadow ban, demonetizzazioni o chiusure di profili.
La censura algoritmica non è mai neutrale. Ha una funzione pedagogica: educa al silenzio, all’allineamento, alla prudenza eccessiva. In questo senso, sorveglianza e censura non sono fenomeni separati, ma parti della stessa infrastruttura del potere digitale.
Non sorprende allora che alcune figure di primo piano della Silicon Valley lancino oggi allarmi sull’intelligenza artificiale. Elon Musk e Bill Gates parlano di rischi esistenziali, di algoritmi fuori controllo, di minacce per l’umanità.
Ma queste prese di posizione appaiono spesso ambigue. Gli stessi attori che mettono in guardia sono coloro che hanno costruito – o finanziato – le infrastrutture che rendono possibile questa accelerazione tecnologica.
Nel frattempo, gli effetti sociali sono sotto gli occhi di tutti. Dipendenza da social media, crollo dell’attenzione, aumento di depressione e ansia, soprattutto tra i più giovani.
Non a caso negli Stati Uniti sono partite class action contro Meta per i danni psicologici causati agli adolescenti. Alcuni Paesi, come Australia e Francia, stanno cercando di limitare l’accesso dei minori ai social network. Ma la sensazione diffusa è quella di un intervento tardivo, quando i danni sono già profondi.
La verità è che queste piattaforme non hanno mai avuto come obiettivo primario il benessere degli utenti. Sono nate per generare dipendenza, raccogliere dati e trasformare ogni interazione in valore economico e informativo.
Un capitalismo della sorveglianza che oggi si integra perfettamente con le esigenze di controllo degli Stati.
Il punto centrale, dunque, non è demonizzare la tecnologia, ma riconoscere che non esiste neutralità algoritmica. Ogni sistema incorpora una visione del mondo, interessi economici e scelte politiche. Ignorarlo significa accettare passivamente che la nostra vita venga mappata, prevista e indirizzata da logiche opache.
La domanda non è se tutto questo ci riguarderà. La domanda è quando.
Il video pubblicato è di proprietà di (o concesso da terzi in uso a) FABBRICA DELLA COMUNICAZIONE.
E’ vietato scaricare, modificare e ridistribuire il video se non PREVIA autorizzazione scritta e richiesta a info@fcom.it.

