L’intelligenza artificiale può essere una questione di potere e di competizione?

Fra opportunità e rischi

Il vocabolario online Treccani indica come primo significato del termine potere la capacità di agire, di fare qualcosa. Questa capacità (possibilità) può essere orientata in direzioni molto diverse. Può indicare una virtù o una dote particolare, sulle quali costruire l’autorealizzazione delle persone. Può anche essere lo strumento che consente di influire sugli altri, di influenzarne le opinioni, le decisioni, le azioni e i pensieri, fino a diventare il dominio del quale altri sono in balia. A questo perimetro semantico, già decisamente ampio, si affianca e talvolta si sovrappone l’uso del termine nel contesto giuridico e in quello politico: nel primo il potere viene inteso come facoltà di compiere azioni giuridicamente rilevanti, mentre nel secondo indica il rapporto intorno al quale si struttura una comunità politica, rilanciando il tema del suo fine, aperto agli esiti opposti della sottomissione e dell’emancipazione. Si pensi soltanto, come esempio di questa ricchezza e complessità, alla distinzione di Max Weber tra Macht, Herrschaft e Gewalt e alla difficoltà di traduzione di questi sostantivi nelle ​​diverse lingue.1 I sistemi di intelligenza artificiale (IA) aprono orizzonti impensabili alla capacità di fare, fino al punto – così temono molti – di risucchiarla per intero e fare da soli. Non stupisce che da tempo sia stata segnalata l’ambivalenza della loro inarrestabile, pervasiva diffusione. Essi hanno il potenziale «di promuovere la prosperità umana, il benessere individuale e sociale, lo sviluppo sostenibile, la parità di genere e l’emancipazione di tutte le donne e le ragazze, nonché altri importanti obiettivi e interessi». Allo stesso tempo, «possono minare la dignità umana e l’autonomia individuale, i diritti umani, la democrazia e lo stato di diritto».2

Sono sorti intorno a un unico strumento (e in particolare, come è inevitabile, intorno all’IA generativa3) dubbi e preoccupazioni che investono l’intero ventaglio dei principi fondamentali sanciti da convenzioni, dichiarazioni, costituzioni: autonomia, uguaglianza nella dignità di tutti gli esseri umani (che implica equità, giustizia e un’adeguata considerazione delle condizioni di particolare vulnerabilità), massimizzazione dei benefici e minimizzazione dei rischi di possibili danni, responsabilità, rispetto della diversità culturale, solidarietà e cooperazione per la condivisione dei benefici del progresso scientifico e tecnologico. Di fronte a questo scenario, considerare l’etica dell’IA come una questione di potere non significa assumere una chiave di lettura fra tante. Significa puntare sul nodo etico-politico cruciale di questa capacità senza precedenti di migliorare o erodere l’esercizio dell’autonomia individuale, di ridurre o approfondire vecchie e nuove disuguaglianze, di sollecitare l’esercizio della solidarietà o esacerbare gli effetti di una corsa alla supremazia globale. In gioco ci sono il destino dell’autodeterminazione degli individui, esposti a una nuova minaccia di sottomissione, costrizione, inganno, manipolazione condizionamento o omologazione,4 e quello delle asimmetrie che da sempre nascono «a causa della condizione, dell’autorità, della conoscenza, della condizione economica o sociale o dell’età».5 L’IA può senz’altro aumentare la libertà e il benessere di ogni individuo e dell’umanità, ma è sufficiente scorrere l’elenco dei criteri fissati dall’Unione europea per stabilire quando una pratica debba essere vietata per riconoscere l’evidenza dei rischi.6

Si è ormai consolidata, in particolare, la consapevolezza che meritino una specifica attenzione gli effetti del potere dell’IA sul funzionamento della democrazia intesa come «forma di governo fondata sui diritti fondamentali e sui valori che essi difendono e promuovono, e più adatta a proteggerli». Parliamo, ancora una volta, di giustizia, uguaglianza, solidarietà, autonomia, autodeterminazione, non discriminazione.7 E parliamo di minacce delle quali, nel più ampio contesto dell’era digitale, si è ormai pienamente consapevoli: informazioni dannose, polarizzazione e mancanza di trasparenza; problemi di privacy; sorveglianza e discriminazione tramite algoritmi; interferenze straniere.8 L’uso dei sistemi di IA è uno straordinario amplificatore delle distorsioni della bubble democracy9 e, all’interno di questo fenomeno, delle disuguaglianze epistemiche che possono incidere sulla partecipazione autenticamente paritaria alla vita politica, attraverso un condizionamento sempre più profondo ed efficace (anche perché spesso nascosto e dunque subdolo) del modo in cui formiamo le nostre idee e siamo capaci di «rivedere e modificare quella conoscenza pratica che può motivare le nostre scelte e azioni e, nel tempo, caratterizzare la nostra identità personale».10 Vengono così erose due caratteristiche fondamentali per la tenuta della dimensione sostanziale delle democrazie: l’autorialità delle scelte individuali e il potere di controllo su quelle pubbliche.

La progressiva sostituzione dell’intelligenza umana in ambiti che venivano considerati di suo esclusivo dominio può condurre a una vera e propria esternalizzazione non solo della memoria e della gestione di informazioni, con il risultato di un incremento esponenziale di efficienza per il quale si può essere più facilmente pronti a pagare il prezzo del degrado delle corrispondenti capacità umane, ma anche delle vere e proprie decisioni, con l’argomento che si allarga sempre più il perimetro dei problemi (si pensi alle diagnosi mediche) per i quali le risposte della “macchina” diventano affidabili quanto è più di quelle degli uomini. Gli esseri umani, insomma, dopo aver smesso di fare i calcoli e imparare poesie a memoria, sostituendo quest’ultima con quella infinitamente più potente dei dischi rigidi e ora del cloud, si avvierebbero a un’ulteriore generalizzazione del meccanismo di Entlastung (Gehlen) che per lungo tempo ha sostenuto «la crescita della cultura umana grazie alla delega, a strumenti e macchine, di mansioni che lasciano l’uomo libero di dedicarsi a compiti più alti».11 L’esito di questa Entlastung può essere la trasformazione finale e definitiva dell’homo faber autore del suo destino, «parte attiva nel mondo, creatore, artigiano nel senso più nobile della parola», in semplice homo spectator che finge di esistere, si illude di governare «i processi, ogni processo, che qualcun altro svolgerà per noi».12 Questo uso dell’IA può assumere le forme seduttive, subliminali e comunque non necessariamente percepite come costrittive del big nudging13 o dell’hypernudge,14 ma anche essere inteso come la versione aggiornata del «grande potere centrale» del quale parlava Tocqueville, che insidierebbe adesso – e proprio mantenendo l’illusione di una libertà individuale illimitata – ogni linea di demarcazione fra affari privati e comuni: è proprio nutrendosi della infinità dei particolari che li riguardano che questo nuovo potere potrebbe arrivare a «fare passare indistintamente tutti gli uomini sotto la stessa regola».15

Alan Turing, in una conferenza alla London Mathematical Society nel 1947, parlò di padroni e servi per descrivere il mercato del lavoro che si sarebbe sviluppato con la diffusione di macchine elettroniche di calcolo digitale capaci di portare a termine «in un decimillesimo del tempo» compiti prima affidati a esseri umani.16 I padroni avrebbero progettato le tabelle di istruzioni per la macchina, «pensando modi sempre più profondi di usarla», mentre i servi avrebbero preso il posto degli arti, fornendo le schede (come avveniva allora), riparando le parti difettose, assemblando i dati secondo necessità.17 È vero che Turing si spinse fino a immaginare il tempo in cui non solo i servi, ma anche i padroni sarebbero stati sostituiti «da arti e organi di senso meccanici ed elettrici», ma lo fece precisando che i padroni avrebbero resistito, tentando di circondare di un alone di mistero il loro lavoro.18 La questione del potere dell’IA come potere umano resta per il momento cruciale, anche all’interno del mondo del lavoro.19 Chi decide quando e come utilizzarla? Chi controlla coloro che, collocandosi sul lato dei suoi “padroni”, possono esercitare un grande potere (economico, politico, culturale) su interi popoli, oltre che sugli individui? Il linguaggio dell’etica dell’IA sovrabbonda di principi. Questo settore si colloca sulla frontiera più avanzata dello sviluppo scientifico e tecnologico e, incrociandone tutti gli altri vettori e con essi tutte le dimensioni dell’umano, esalta l’importanza della chiarezza normativa sui modi e sul fine di questo sviluppo. Il linguaggio della politica non riesce a nascondere le ambiguità che rendono difficile il calcolo del saldo fra opportunità e rischi e il frequente ricorso a un lessico e a immagini che richiamano il contesto sportivo e si spingono talvolta a incursioni in quello militare appare rivelatore di una tensione fondamentale e irrisolta.

La corsa alla leadership, la giustizia globale

L’AI Act intende promuovere un approccio all’intelligenza artificiale centrato sull’uomo, nel quale la stessa garanzia di una democrazia spessa poggia sulla convinta adesione a un’etica spessa, che impone di perseguire, insieme alla protezione dell’ambiente e alla promozione dell’innovazione, l’obiettivo di «un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali».20 Poche righe più avanti, tuttavia, il testo inglese del Regolamento afferma che dall’uso dell’IA si attendono cruciali (key) vantaggi competitivi per le imprese, oltre a beneficial outcomes sul piano sociale e ambientale.21 Nell’AI Continent Action Plan del 2025 l’enfasi sulla competizione è, senza veli, la mossa d’attacco del testo: «L’Unione europea è impegnata e determinata a diventare un leader mondiale nell’Intelligenza Artificiale, un continente leader nell’IA». Il primo obiettivo è la nostra competitività, certo immediatamente accompagnato, ma non indicato al primo posto, da quello di «salvaguardare e promuovere i nostri valori democratici e proteggere la nostra diversità culturale», oltre che garantire uno sviluppo dell’IA affidabile e incentrato sull’uomo e i diritti e i principi fondamentali che sostengono le nostre società: «La corsa globale per la leadership nell’IA è tutt’altro che finita […] Realizzare le nostre ambizioni nell’IA richiederà leadership sia nello sviluppo che nell’utilizzo dell’IA».22

Lo sforzo per primeggiare in questa corsa è davvero immediatamente sovrapponibile a quello di rispettare, proteggere e realizzare i diritti che, in quanto fondamentali, sono di ogni essere umano? La parola chiave, in questo caso, sembra dover essere condivisione e non competizione e questa tensione emergeva già nell’Ordine esecutivo del 30 ottobre 2023 firmato da Joe Biden. Si riconosce senz’altro che l’IA dovrebbe apportare benefici «al mondo intero, anziché esacerbare le disuguaglianze, minacciare i diritti umani e causare altri danni».23 Tuttavia, l’obiettivo di «promuovere l’innovazione, la competizione e la collaborazione responsabili» va di pari passo con quello di consentire agli Stati Uniti di «essere leader nell’IA» e di implementare politiche finalizzate a questo primato. Per esempio, sostenendo programmi per attrarre i talenti dell’IA da tutto il mondo non solo per studiare, ma anche per rimanere, in modo «che le aziende e le tecnologie del futuro siano realizzate in America».24 La competizione richiede effettivamente di rafforzare il proprio ruolo di sponda d’arrivo della dinamica del brain drain, ma per contenere anziché esacerbare le disuguaglianze non si dovrebbe piuttosto promuovere quella della brain circulation? L’Ordine esecutivo con il quale Donald Trump ha lanciato la Genesis Mission risolve ogni ambiguità: «L’America è impegnata in una corsa per la supremazia tecnologica globale nello sviluppo dell’intelligenza artificiale (IA)» e la consapevolezza dell’importanza di questa frontiera per la scienza e per la crescita economica impone «uno sforzo nazionale paragonabile per urgenza e ambizione al Progetto Manhattan, che fu di valido aiuto per la nostra vittoria nella Seconda Guerra Mondiale».25 La corsa per la supremazia, insomma, drammatizzata fino a evocare uno scenario di guerra.

L’evidenza dei dati conferma il realismo di questo approccio e dell’idea che quella dello sviluppo dell’IA sia frontiera di confronto fra potenze. Di più: essa conferma che le superpotenze dell’IA sono le attuali superpotenze tout court. Lo sono guardando ai risultati. Gli Stati Uniti continuano a essere la principale fonte di notable models di IA e nel 2024 le istituzioni con sede in questo paese ne hanno prodotti 40, mantenendo a debita distanza la Cina (15), mentre al terzo posto, lontanissima, c’è la Francia (3).26 Anche per quanto riguarda le pubblicazioni, le prime due posizioni della classifica relativa alle 100 più influenti nel triennio 2021-2023 sono le stesse e il distacco del terzo paese (in questo caso la Germania) resta abissale (24 nei tre anni considerati, rispetto alle 173 degli Stati Uniti e alle 101 della Cina).27 È semmai interessante sottolineare che la quota degli Stati Uniti è gradualmente diminuita e che, guardando al totale delle pubblicazioni e non soltanto alle più influenti, il global leader è la Cina, con il 23,2% del totale, mentre gli Stati Uniti si fermano al 9,20% e sono sopravanzati sia dall’Europa (15,22%) sia, di un’incollatura, dall’India (9,22%).28

Che l’IA sia questione di potere insieme economico e politico lo confermano i dati sul coinvolgimento dei diversi attori coinvolti. Il mondo accademico rimane il principale produttore istituzionale di pubblicazioni top 100, ma il primato dell’industria nello sviluppo dei notable models è andato via via crescendo, con un picco del 90,2% del totale nel 2024.29 Nello stesso anno, i 109,1 miliardi di dollari di investimenti privati negli Stati Uniti sono stati 11,7 volte superiori all’importo investito dalla Cina e 24,1 volte superiori all’importo investito nel Regno Unito.30 I finanziamenti e le altre forme di sostegno pubblici sono ovviamente importanti per la loro quantità, ma anche perché segnalano i paesi (inclusi i nuovi concorrenti) che considerano una priorità della loro agenda politica l’acquisizione di un ruolo di primo piano nello sviluppo dell’IA (e hanno le risorse per farlo): l’Arabia Saudita, per esempio, ha lanciato un’iniziativa sull’IA da 40 miliardi di dollari, gli Stati Uniti hanno stanziato 30 miliardi di dollari in sussidi per attrarre produttori di chip per l’intelligenza artificiale e si prevede che la spesa della Cina per l’IA supererà i 38 miliardi di dollari entro il 2027.31

Immaginare che una tale mole di risorse venga finalizzata da privati e da governi alla produzione di benefici da condividere con tutti è, nella più generosa delle ipotesi, un esercizio di wishful thinking. Si cercano vantaggi competitivi per sfruttarli sui mercati, che fatalmente producono disuguaglianze. Il potere dell’IA è anche (se non in primo luogo) potenza militare: nel multipolarismo hobbesiano e dunque fortemente armato che si va delineando il mistero di cui parlava Turing diventa un problema di sicurezza nazionale e l’imperativo non può che essere quello della sua massima impenetrabilità.32Ciononostante, l’impegno alla cooperazione internazionale continua a essere ampiamente riconosciuto ed evocato come parte integrante dell’uso responsabile dell’IA.33 Nella Recommendation on the ethics of AI dell’UNESCO, del 2022, Development and international cooperation è il titolo di una specifica area di policy. I problemi di sviluppo dei paesi a basso e medio reddito sollecitano la promozione della loro partecipazione e della loro leadership nella ricerca e nell’innovazione. Allo stesso tempo, tutti gli attori a livello internazionale sono chiamati a prestare la massima attenzione all’uso etico dei sistemi di IA, ma anche a valutare l’applicabilità dei quadri di riferimento etici in culture e contesti specifici e a valorizzare la cooperazione come strumento per il superamento delle barriere, anche tecnologiche.34 Si applica insomma pienamente l’art. 15 della Dichiarazione universale sulla bioetica e i diritti umani del 2005, che sottende il passaggio dalla logica della competizione per il potere (politico, economico, sociale) a quella della condivisione dei benefici del progresso scientifico: «I benefici derivanti da qualsiasi ricerca scientifica e dalle sue applicazioni dovrebbero essere condivisi con la società nel suo complesso e all’interno della comunità internazionale, in particolare con i paesi in via di sviluppo».35 Che fare?

L’umanità al bivio?

«L’umanità è a un bivio. Questo è il “momento Oppenheimer” della nostra generazione, in cui le tensioni geopolitiche minacciano di condurre una grande scoperta scientifica lungo un percorso molto pericoloso per il futuro dell’umanità. Dobbiamo ascoltare l’avvertimento degli esperti e mostrare la leadership politica e la lungimiranza che questa sfida ci richiede».36 È vero. Le applicazioni dell’IA in ambito militare pongono una sfida rispetto alla quale il paragone proposto anche da Trump può comunque apparire iperbolico, ma è utile a sottolineare il rilievo epocale della responsabilità di fronte alla quale ci troviamo. Appunto perché effetti e trasformazioni sono già radicali non solo sul modo di fare la guerra, tradizionale o ibrida. L’IA è un formidabile strumento di competizione e la competizione non stimola la cooperazione. Almeno, la limita sostanzialmente. Finora, l’accento è stato posto soprattutto sulle regole per limitare i rischi, anche se con sensibilità e risultati diversi (l’obiezione che è ormai uno stereotipo sull’Europa che produce appunto regole, mentre altri fanno e corrono più velocemente). Si tratta di concentrare la stessa attenzione su un obiettivo eticamente e politicamente altrettanto urgente, che è quello di garantire a tutti un accesso equo alle nuove tecnologie e ai relativi benefici, proprio perché l’IA avrà un impatto sulla vita delle persone, sulla società e sulle diverse popolazioni ovunque. Si tratta, in fondo, di insistere sulle quattro dimensioni dell’accessibilità, fra loro intrecciate e in parte sovrapposte, individuate dal Comitato delle Nazioni Unite sui diritti economici, sociali e culturali in riferimento alla salute: non discriminazione, accessibilità fisica, accessibilità economica e informazione.37 Nel caso dell’IA l’accessibilità va considerata nella sua dimensione tecnologica piuttosto che fisica e, soprattutto, occorre aggiungere un elemento di cautela: cure mediche di qualità proporzionate ai bisogni e non alla capacità di pagare non sono mai un rischio, mentre i rischi dell’IA vanno sempre considerati.

Robert Dahl, interrogandosi sul tema dell’uguaglianza politica, la leggeva come «preoccupazione implicita di libertà, sviluppo e valore umano»38 e suggeriva di concentrarsi, piuttosto che sul raggiungimento dell’uguaglianza perfetta, sui fattori modificabili delle disuguaglianze più vistose: la disponibilità della forza coercitiva; le posizioni, risorse e opportunità economiche; la cultura, l’informazione e le capacità cognitive. Un paese democratico avanzato, di conseguenza, dovrà cercare di ridurre le disuguaglianze «causate soprattutto dalla distribuzione delle risorse, opportunità e condizioni economiche, e dalla distribuzione della cultura, dell’informazione e delle capacità cognitive».39 Applicare all’IA questa indicazione significa evidentemente valorizzarla come strumento di empowerment rispetto a tutte queste dimensioni. Significa, inoltre, operare attivamente e con pari convinzione in questa direzione anche a livello internazionale.

Ciò di cui abbiamo bisogno, in questa prospettiva per la quale la condivisione viene, almeno dal punto vista etico, prima della competizione, come sempre dovrebbe accadere quando il tema è l’impatto di una scoperta scientifica e di una tecnologia sui diritti fondamentali delle persone, è una strategia articolata. È certamente necessario ricercare il più ampio accordo possibile sui rischi, tenendo conto della specificità dei contesti e delle culture. Se consideriamo gli ambiti in cui l’uso di sistemi di IA comporta rischi elevati, menzionati nell’Allegato III dello AI Act,40 è inevitabile ammettere che questo modello di regolamentazione si basa su variabili che sono solo in parte quantificabili e restano ampiamente dipendenti da una cornice normativa prima di tutto etica e poi costituzionale e giuridica. È quindi essenziale creare luoghi e momenti di confronto (incontri istituzionali, convegni accademici, iniziative della società civile) per approfondire il significato concreto che valori e principi da tutelare assumono nei diversi contesti, senza temere le distanze che potrebbero emergere. Va da sé che è necessaria una particolare vigilanza per affrontare i pregiudizi politici e culturali ancora ben radicati negli strumenti di IA.

Allo stesso tempo, è essenziale rafforzare le reti di collaborazione prima di tutto scientifica,41 concentrandosi su quei campi in cui sono in gioco diritti umani fondamentali (salute) o che sono meno immediatamente esposti alla logica della competizione (cultura e arte). Possono servire a questo scopo proposte ispirate a modelli ben sperimentati, a partire dalla possibilità per ricercatori di diversi paesi (soprattutto giovani) di frequentare i centri più avanzati e attivare rapporti di collaborazione permanenti. La concentrazione di talenti dell’IA finalizzata alla competizione è uno strumento per aggravare e non per attenuare e infine superare le asimmetrie di conoscenza e sviluppo tecnologico che generano squilibri di potere. Anche l’istituzione e il costante aggiornamento di piattaforme per la condivisione e la circolazione di informazioni su normative e progetti nei diversi paesi può essere utile.

Il principio riassunto nell’espressione human in the loop va inteso secondo un’ampiezza di significato che comprenda, con la dimensione della responsabilità individuale nell’esercizio di una professione, quelle della tutela dell’accesso e uso consapevoli (l’informazione che presuppone l’alfabetizzazione generale e specifica) e della trasparenza e controllo pubblico sulla presenza e le forme di un potere tanto grande quanto spesso nascosto. Il problema, oggi, non è la prospettiva che le macchine sostituiscano non solo il pensiero, ma anche le emozioni degli esseri umani,42 quanto piuttosto quello della black box. L’impossibilità, per gli stessi programmatori, di ricostruire e quindi comprendere il percorso che genera gli output può determinare una modalità di alienazione delle ragioni delle decisioni e, quindi, delle basi dell’esperienza morale e politica davvero inusitata, perché realizzata a vantaggio di macchine e non di altri uomini. Una prospettiva che deve fare i conti, peraltro, con la consapevolezza che l’immensa potenza di calcolo dei sistemi di IA non è al momento immune da errori, anche potenzialmente catastrofici. Devono restare, insomma, l’onere e l’onore di una decisione «che devia da ciò che la macchina detta»,43 calibrando questa consapevolezza sulla specificità di contesti che possono essere diversi come lo sono la guida di veicoli, le scelte sulla salute e l’uso di armi.44

La condivisione delle regole senza un adeguato livello di condivisione del potere tecnologico rischia di produrre un rapporto di dominio che amplificherebbe le tante disuguaglianze già esistenti. Il potenziale impatto positivo dell’IA è stato esaminato anche in riferimento all’Agenda 2030, insieme ai suoi possibili svantaggi.45 Nell’Agenda, la tecnologia è un sottocapitolo dell’obiettivo n. 17, intitolato al partenariato globale. È necessario potenziare l’accesso alla scienza, alla tecnologia e all’innovazione e la condivisione della conoscenza «secondo termini reciprocamente concordati».46 Senza condivisione non c’è sviluppo sostenibile.

Questo contributo è la rielaborazione, ampliamento e aggiornamento di un testo in inglese intitolato AI as a matter of Power e scritto per la Anna Lindh Foundation, che ringrazio per avermi consentito di proporlo in questa nuova e diversa versione.


  1. Cfr. I. Wallimann et al., Misreading the concept of “Macht”., in «Sociology», 14, 2, 1980, pp. 261-275; A. D’Attorre, Un altro volto del moderno. Max Weber e il potere come Herrschaft, in «Materiali per una storia della cultura giuridica», LII, 1, 2022, pp. 207-233. E. Kauffmann, Puissance et pouvoir. Introduction, in «Trivium» [online], 36, 27 ottobre 2023 (ultimo accesso 23 dicembre 2024), https://doi.org/10.4000/trivium.8384. In inglese power indica anche «una fonte o un mezzo per fornire energia» e quindi energia elettrica. ↩︎

  2. Council of Europe, Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, 2024, Preamble, https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence↩︎

  3. Nel Patent Landscape Report on Generative AI del 2024, la WIPO sottolinea che l’intelligenza artificiale generativa «è attualmente definita più in modo descrittivo che da precise caratteristiche tecniche» (World Intellectual Property Organization, Generative Artificial Intelligence. Patent Landscape Report, WIPO, Geneva 2024, p. 19, https://doi.org/10.34667/tind.49740). Il capitolo sui «concetti principali» si apre con la definizione offerta nel 2023 da Lorenz et al. in OECD Artificial Intelligence Papers, n. 1: «una tecnologia in grado di creare contenuti, inclusi testo, immagini, audio o video, su richiesta di un utente». La WIPO chiarisce che i prompts «corrispondono a istruzioni testuali, solitamente prodotte da utenti umani, che possono essere combinate con dati che vengono forniti. Sebbene ciò non sia esplicitato, ci si aspetta che il contenuto generato sia nuovo, significativo e simile a quello umano» (ibidem). ↩︎

  4. Cfr. High-level expert group on artificial intelligence, Ethics guidelines for Trustworthy AI, 2019, p. 14. I sistemi di IA – prosegue questo testo – « dovrebbero invece essere progettati per aumentare, integrare e potenziare le capacità cognitive, sociali e culturali umane» (ibidem). ↩︎

  5. Unione europea, Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, in «Gazzetta Ufficiale dell’Unione europea», 12 luglio 2024, p. 55 (d’ora in poi citato come AI Act). È rispetto a queste asimmetrie che lo sviluppo dell’IA ha rilanciato «l’interesse per il concetto di vulnerabilità […] i sistemi di intelligenza artificiale possono esacerbare le disuguaglianze esistenti e colpire in modo sproporzionato i gruppi già svantaggiati della società, come le minoranze di genere, gli individui a basso reddito e coloro che hanno competenze limitate in ambito tecnologico» (F. Galli, C. Novelli, The Many Meanings of Vulnerability in the AI Act and the One Missing, in «BioLaw Journal – Rivista di BioDiritto», Special Issue, 1, 2024, pp. 54-55). ↩︎

  6. L’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA sono vietati per una serie molto dettagliata di ragioni: tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone; sfruttamento di condizioni di vulnerabilità dovute all’età, alla disabilità o a una specifica situazione sociale o economica; valutazione o classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, che comportino un trattamento pregiudizievole o sfavorevole; valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; creazione o ampliamento di banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso; possibilità di inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza; categorizzazione biometrica che classifichi individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a meno che, e nella misura in cui, tale uso sia strettamente necessario per alcuni precisi obiettivi (la ricerca di vittime di reati come la tratta di esseri umani o lo sfruttamento sessuale; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone o di un attacco terroristico; la localizzazione o l’identificazione di una persona ai fini di un’indagine, di un’azione o dell’esecuzione di una sanzione penali) (Unione europea, AI Act, cit., pp. 51-52). ↩︎

  7. European Group on Ethics in Science and New Technologies, Democracy in the Digital Age, Opinion no. 33, Brussels, 20 giugno 2023, pp. 7-8. ↩︎

  8. Ivi, pp. 12-17. ↩︎

  9. Si veda, per una sintesi efficace su questo tema, D. Palano, La democrazia alla fine del “pubblico”. Sfiducia, frammentazione, polarizzazione: verso una “bubble democracy”, in «Governare la paura. Journal of Interdisciplinary Studies», 2019: Post-Truth, pp. 35-92. ↩︎

  10. S. Tirabelli, Identità personale e algoritmi. Una questione di filosofia morale, Carocci, Roma 2023, p. 104. ↩︎

  11. R. Bodei, Dominio e sottomissione. Schiavi, animali, macchine, Intelligenza Artificiale, il Mulino, Bologna 2019, p. 376. ↩︎

  12. Cfr. L. Perilli, Coscienza artificiale. Come le macchine pensano e trasformano l’esperienza umana, il Saggiatore, Milano 2025, p. 28. È vero – per tornare a citare Bodei – che la mente umana «è tanto più indipendente da condizionamenti, quante più funzioni riesce ad attribuire a schiavi inanimati, remoti e separati dai loro padroni in carne e ossa», ma proprio il rapporto con la memoria (e qui non si parla, ovviamente, della meccanica ripetizione di una poesia) è fondamentale per aver coscienza: quest’ultima, oggi, non fa in tempo a integrare sufficientemente in se stessa momenti che restano sconnessi nel loro rapido succedersi e «il pensiero corre maggiormente il rischio di ottundersi, l’immaginazione di spegnersi, i sentimenti di sfumare nell’indistinto, le passioni di diventare brade» (R. Bodei, op. cit., p. 377). ↩︎

  13. Il termine Big Nudging combina i big data con il nudging, il termine utilizzato per indicare le azioni intraprese principalmente dai governi e volte a orientare i cittadini verso scelte e comportamenti più sani o rispettosi dell’ambiente (cfr. R.H. Thaler, C.R. Sunstein, Nudge: Improving Decisions about Health, Wealth, and Happiness, Yale University Press, New Haven [Conn.] 2008). Per molti, il nudging è una forma moderna di paternalismo e il big nudging diventa «una sorta di scettro digitale che consente di governare le masse in modo efficiente, senza dover coinvolgere i cittadini nei processi democratici» (D. Helbing et al., Will Democracy Survive Big Data and Artificial Intelligence?, in «Scientific American», 25 febbraio 2017, https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/). La versione originale tedesca di questo articolo era stata pubblicata nel 2015 in Spektrum der Wissenschaft, con il titolo Digitale Demokratie statt Datendiktatur↩︎

  14. Cfr. K. Yeung, 'Hypernudge': Big Data as a mode of regulation by design, in «Information, Communication & Society», 20, 1, 2017. I rischi derivanti dall’utilizzo di queste tecniche per canalizzare l’attenzione e il processo decisionale sono per Yeung seri, in considerazione della loro potenza, del loro costante aggiornamento, dinamismo e pervasività. Non è sufficiente affidarsi al criterio del consenso individuale e occorrono «vincoli efficaci e legittimi» (ivi, p. 118). ↩︎

  15. Cfr. A. de Tocqueville, La democrazia in America, Fabbri Editori, Milano 2001, vol. 2, pp. 668-670. ↩︎

  16. A.M. Turing, Collected Works of A.M. Turing: Mechanical Intelligence, ed. by D.C. Ince, North-Holland, Amsterdam-London-New York-Tokyo 1992, p. 87. ↩︎

  17. Ivi, p. 102. ↩︎

  18. Ibidem. ↩︎

  19. L’IA rilancia in forme inusitate il tema del lavoro misurato e sorvegliato: «Gli algoritmi consentono la divisione del lavoro e un’organizzazione del lavoro controllata. Standardizzano con precisione i compiti tramite la gestione algoritmica e li monitorano al fine di organizzare il processo di lavoro, nonché la misurazione automatizzata di risultati e feedback, che sono caratteristiche chiave del taylorismo digitale» (S. Park, S. Ryoo, How Does Algorithm Control Affect Platform Workers’ Responses? Algorithm as a Digital Taylorism, in «Journal of Theoretical and Applied Electronic Commerce Research», 2023, 18, p. 275). ↩︎

  20. Unione europea, AI Act, cit., p. 1. ↩︎

  21. Ivi, p. 2. L’elenco degli ambiti coinvolti è molto lungo e sottolinea il potere pervasivo dell’IA: assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento a essi. (ibidem). Nel testo italiano key è reso con fondamentali e beneficial con vantaggiosi↩︎

  22. AI Continent Action Plan. Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Bruxelles, 9 aprile 2025. ↩︎

  23. J.R. Biden Jr., Executive Order 14110 of October 30, 2023: Safe, Secure and Trustworthy Development and Use of Artificial Intelligence, in «Federal Register», 88, 210, 1º novembre 2023, p. 75193. ↩︎

  24. Ivi, p. 75192. ↩︎

  25. D. Trump, Executive Order 14363 of November 24, 2025: Launching the Genesis Mission, in «Federal Register», 90, 227, 28 novembre 2025, p. 55035. ↩︎

  26. N. Maslej et al., The AI Index 2025 Annual Report. Stanford: AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford (Ca) 2025, p. 46. Per quanto riguarda la definizione del concetto, il Rapporto fa riferimento a Epoch, un fornitore di dati di indici di intelligenza artificiale, che utilizza il termine notable machine learning models «per designare modelli particolarmente influenti all’interno dell’ecosistema dell’intelligenza artificiale/apprendimento automatico» (ibidem). Nel Rapporto del 2024 i dati erano sovrapponibili per la Cina (15), ma significativamente diversi per Stati Uniti e paesi europei (rispettivamente 61 e 15) e ciò invita comunque alla cautela nel considerare questo dato in riferimento a un singolo anno. L’indicazione del Report, anche in considerazione del fatto che l’inclusione nella lista può essere condizionata da fattori contingenti, è quella di considerare questi dati come indicatori di trends↩︎

  27. Ivi, p. 39. Bisogna ovviamente ricordare che, a causa del ritardo nelle citazioni, gli articoli più citati nel rapporto di quest’anno potrebbero cambiare nelle edizioni future. ↩︎

  28. Ivi, p. 34. ↩︎

  29. Ivi, p. 48. ↩︎

  30. Ivi, p. 252. ↩︎

  31. World Economic Forum, To fully appreciate AI expectations, look to the trillions being invested, 3 aprile 2024, https://www.weforum.org/stories/2024/04/appreciate-ai-expectations-trillions-invested/↩︎

  32. Non sorprende, ad esempio, che anche in questo campo l’attenzione si concentri sulla competizione tra Stati Uniti e Cina, anche se il problema dell’uso militare dell’IA non può ovviamente essere ridotto al ruolo di questi due paesi. ↩︎

  33. Secondo la prima edizione del Global Index on Responsible AI, è possibile individuare tre dimensioni (diritti umani e IA, governance responsabile dell’IA, capacità di IA responsabile) e tre pilastri dell’ecosistema dell’IA responsabile (quadri di riferimento governativi, azioni governative, iniziative di attori non statali). A partire da queste dimensioni e da questi pilastri vengono identificate 19 aree tematiche e la cooperazione internazionale chiude la lista (R. Adams et al., Global Index on Responsible AI 2024, Global Center on AI Governance, South Africa 2024). ↩︎

  34. United Nations Educational, Scientific and Cultural Organization, Recommendation on the Ethics of Artificial Intelligence, UNESCO, Paris 2022, p. 30 (adottata il 23 novembre 2021). ↩︎

  35. UNESCO, Universal Declaration on Bioethics and Human Rights, art. 15. ↩︎

  36. Conferenza su Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation, Vienna, 29-30 aprile 2024, Chair’s Summary, p. 5, https://www.bmeia.gv.at/fileadmin/user_upload/Zentrale/Aussenpolitik/Abruestung/AWS_2024/Chair_s_Summary.pdf↩︎

  37. CESCR United Nations – Committee on Economic, Social and Cultural Rights, General Comment No. 14: The Right to Highest Attainable Standard of Health (art. 12), 2000, p. 4, https://www.ohchr.org/sites/default/files/Documents/Issues/Women/WRGS/Health/GC14.pdf↩︎

  38. R.A. Dahl, La democrazia e i suoi critici, Editori Riuniti, Roma 1990, p. 488. ↩︎

  39. Ivi, p. 490. ↩︎

  40. L’elenco comprende diverse aree cruciali, con chiarimenti e delimitazioni dettagliate: biometria; infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso al lavoro autonomo; accesso e godimento di servizi privati ​​essenziali e servizi e benefici pubblici essenziali; applicazione della legge; gestione della migrazione, dell’asilo e del controllo delle frontiere; amministrazione della giustizia e processo democratico. ↩︎

  41. Vale la pena di sottolineare che proprio il campo dell’informatica ha offerto esempi straordinari di collaborazione aperta e libero accesso (open source, software libero). In esso, tendenze contraddittorie si intersecano, a conferma della difficoltà di governare una realtà complessa e in rapida evoluzione. ↩︎

  42. Per una riflessione su questo tema, a partire da alcune osservazioni di Turing, si veda G. Salmeri, L’emozione del pensiero. Alan Turing e l’origine dell’intelligenza artificiale, in «Dialegesthai», 26, 2024, https://purl.org/mdd/giovanni-salmeri-11↩︎

  43. C. Casonato, Unlocking the Sinergy: Artificial Intelligence and (old and new) Human Rights, in «BioLaw Journal – Rivista di BioDiritto», 2023, p. 237. ↩︎

  44. Si vedano, a titolo di esempio, le linee guida della Commissione nominata nel 2016 dal Ministero dei Trasporti e delle Infrastrutture Digitali in Germania (Ethik-Kommission, Automatisiertes und Vernetztes Fahren, Bericht Juni 2017, https://www.bmv.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf); il Parere del Comité consultative national d’éthique pour le sciences de la vie et de la santé e del Comité national pilote d’éthique du numérique sull’uso dell’IA per le diagnosi mediche (CCNE-CNPEN, Diagnostic Médicale et Intelligence Artificial. Enjeux Ethiques, 2022; il lavoro svolto dal Gruppo di esperti governativi nel settore dei sistemi di armi autonome letali istituito nell’ambito della Convenzione su alcune armi convenzionali (United Nations group of governmental experts [UNGGE], Rolling text on LAWS [status date: 12 maggio 2005]. ). ↩︎

  45. Cfr. R.Vinuesa et al., The role of artificial intelligence in achieving the sustainable development goals, in «Nature communications», 2020, 11: 233. ↩︎

  46. United Nations General Assembly, Transforming our world: the 2030 Agenda for Sustainable Development, 2015, 17.6, https://www.un.org/en/development/desa/population/migration/generalassembly/docs/globalcompact/A_RES_70_1_E.pdf↩︎