Skip to main content

Numero 43 | 10 ottobre 2025

IA

Un algoritmo affamato


La notizia della scadenza fissata da Meta per l’assenso all’utilizzo dei nostri dati – pubblicazioni, immagini, commenti, perfino le tracce lasciate da chi non ha mai aperto un account ma ha avuto la sfortuna di comparire in una foto di gruppo – dovrebbe scuotere anche i più distratti. 

Non si tratta, come qualcuno ancora si ostina a credere, di una questione riservata agli ossessionati della privacy o ai soliti tecnofobi. Qui siamo di fronte a una ridefinizione brutale e unilaterale del concetto stesso di libertà digitale: decidono loro, e noi possiamo solo tentare di barcamenarci tra moduli, opposizioni, cavilli e risposte che ti ricordano chi comanda davvero.

Facebook Instagram e Whatsapp, con una certa arroganza, ci hanno comunicato che i nostri dati – tutto ciò che abbiamo pubblicato, detto, perfino suggerito tra le righe – diventeranno carburante per la sua intelligenza artificiale. L’utente, se vuole opporsi, deve sottoporsi a una trafila degna di una burocrazia kafkiana: compilare moduli, fornire prove che le sue informazioni personali siano già state usate dall’IA (come se fosse possibile dimostrarlo senza accedere agli archivi interni di Meta), e infine attendere che qualcuno, dall’altra parte del muro, decida se la richiesta sia degna di attenzione. Il diritto di limitare l’uso dei propri dati viene concesso come una grazia, non come un diritto fondamentale.

Alcuni gridano allo scandalo, altri minimizzano, molti si rifugiano nella solita retorica: “Se non vuoi che i tuoi dati vengano usati, non pubblicarli”. Peccato che, per come sono strutturate le piattaforme, anche chi non ha mai avuto un profilo rischia di finire nel tritacarne digitale, magari per una foto pubblicata da un amico, una menzione, un tag. E se provi a opporti, scopri che la tua libertà è una concessione revocabile, non un diritto inalienabile.

Gestione monopolistica dell’IA e dei nostri dati

Vero è che la questione non si esaurisce qui. Negare alle IA l’accesso alle produzioni umane significa condannarsi a una visione monca, parziale, incapace di cogliere la pluralità del pensiero e della creatività umana. Un’IA nutrita solo con ciò che le grandi aziende decidono di includere – o che i detentori dei diritti sono disposti a concedere – rischia di diventare uno specchio deformante, incapace di restituire la polifonia delle voci che compongono il sapere umano. 

D’altra parte, la paura di vedere il proprio lavoro fagocitato, rielaborato e magari rivenduto senza riconoscimento o compenso è tutt’altro che infondata, specie per chi vive di scrittura, arte, ricerca.

La verità, come spesso accade, si annida tra le pieghe delle posizioni assolute. Non è vero che ogni produzione umana debba essere sottratta a priori all’addestramento delle IA, così come è ingenuo pensare che basti un consenso generico per legittimare lo sfruttamento indiscriminato di tutto ciò che passa per la rete. Esistono gradi, sfumature, possibilità di coinvolgimento critico. La partecipazione consapevole, la negoziazione di diritti e doveri, la costruzione di un’etica condivisa dell’innovazione sono le uniche strade percorribili se non vogliamo che la conoscenza diventi il feudo di pochi e l’ignoranza il destino di molti.

Considerare l’IA un  bene comune

Il vero nodo, però, è un altro e riguarda la proprietà e il controllo dei dati. Oggi, a nutrirsi della nostra intelligenza collettiva sono aziende private che perseguono, senza troppi scrupoli, obiettivi di profitto e, all’occorrenza, di controllo sociale. I dati che cediamo – spesso inconsapevolmente, talvolta per necessità, quasi mai per scelta – finiscono per arricchire bilanci e algoritmi che nessuno, se non i loro padroni, può davvero scrutare. Il rischio, già oggi palpabile, è che queste IA possano pur sempre essere manipolate da logiche commerciali o peggio politiche, ovvero indirizzate a promuovere certe visioni del mondo e non altre, a edificare e confermare strutture sociali riflesso unicamente dei valori e dei desideri dei “padroni del vapore”, con rischi fortissimi di discriminazione e di parzialità nelle scelte delle collettività.

Per questo è urgente, anzi vitale, rivendicare la necessità di un’intelligenza artificiale pubblica, trasparente, costruita come bene comune. 

Un’IA che si nutra di tutto lo scibile umano, sì, ma nel rispetto dei diritti degli autori, dei cittadini, delle comunità. Un’IA che restituisca valore alla società, non solo ai consigli di amministrazione delle big tech. Solo così potremo parlare di progresso della conoscenza, di miglioramento reale della qualità della vita, di una tecnologia che emancipa invece di sottomettere.

Se l’intelligenza artificiale è destinata a diventare una componente pervasiva delle nostre vite, a influenzare decisioni in campi cruciali come la medicina, l’istruzione, la governance, possiamo davvero permetterci che il suo sviluppo sia appannaggio quasi esclusivo di interessi privati? La risposta, a mio avviso, non può che essere negativa. Urge, pertanto, una riflessione seria e un’azione conseguente verso lo sviluppo di intelligenze artificiali di natura pubblica, magari sotto l’egida di enti governativi o sovranazionali, i cui dati di addestramento e i cui processi elaborativi siano il più possibile trasparenti e accessibili, considerati alla stregua di un bene comune. Soltanto così potremo sperare che questa straordinaria potenza di calcolo e di “comprensione” (ancora una volta, con le dovute cautele semantiche) sia realmente orientata al miglioramento della qualità della vita per tutti, e non diventi l’ennesimo strumento di profitto o di controllo nelle mani di pochi. Il futuro della conoscenza, e con esso una parte significativa del nostro futuro come specie, dipende dalle scelte che sapremo compiere oggi, con lucidità e coraggio. Meglio essere cittadini digitali che semplici fornitori di materia prima per le fortune altrui.

Giorgio Jannis
+ posts

Udine, Friuli, Europa.
Ho studiato filosofia del linguaggio a Bologna, semiotica e narratologia (Umberto Eco, Paolo Fabbri), per indagare le dinamiche comunicative e le strategie identitarie dei gruppi sociali, le narrazioni delle comunità dentro e fuori la Rete.
Progettista sociale, formatore e comunicatore: iniziative di promozione della Cultura digitale, per reti scolastiche e territoriali.
Social media manager e project manager (#udinesmart per Comune e Università di Udine, FriuliFutureForum per Camera di Commercio Udine). Attualmente insegno Sociologia dei media presso l’Università di Udine.
Da quindici anni curo una rubrica settimanale Licôf su Radio Onde Furlane, dedicata ai linguaggi e alle culture digitali.

Iscriviti alla newsletter de Il Passo Giusto per ricevere gli aggiornamenti