Fonte: Agorithmwatch che ringraziamo per davvero per l’importante contributo che danno.
L’articolo è di Michele Loi
con Angela Müller e Matthias Spielkamp
Molti CEO e scienziati del settore tecnologico elogiano l’IA come la salvezza dell’umanità, mentre altri la vedono come una minaccia esistenziale. Spieghiamo perché entrambi non affrontano le vere questioni di responsabilità.
Gli attuali dibattiti sull’intelligenza artificiale sono polarizzati da un estremo ottimismo e pessimismo.
Troppi dibattiti attuali sull’Intelligenza Artificiale (IA) sono guidati da posizioni estreme, sia ottimistiche che pessimistiche. Molti CEO del settore tecnologico e scienziati influenti salutano l’IA come una salvezza per l’umanità, altri come una minaccia esistenziale. Noi di AlgorithmWatch prendiamo sul serio i rischi attuali, a breve, medio e lungo termine derivanti dallo sviluppo e dall’utilizzo di sistemi di IA altamente potenti.
Detto questo, osserviamo anche debolezze analitiche che minano un’efficace governance dell’IA quando posizioni estreme come “superintelligenza” o “Intelligenza Artificiale Generale (AGI)” ricevono un’attenzione smisurata nel dibattito, mentre modelli altamente capaci richiedono già una governance urgente.
AlgorithmWatch prende sul serio i rischi a lungo termine, ma rifiuta l’AGI come unico obiettivo.
Il lavoro di AlgorithmWatch si concentra sulle sfide e sui vantaggi reali, attuali e immediati dell’intelligenza artificiale che si manifesteranno nel presente o nel prossimo futuro.
Crediamo che sia necessario considerare anche i rischi a lungo termine per la società derivanti dall’IA e garantire l’utilizzo di prove concrete per ottenere un impatto positivo reale. Queste due posizioni sono sostenute, rispettivamente, da scuole di pensiero note come “longtermismo” e “altruismo efficace”. Tuttavia, a nostro avviso, queste due scuole di pensiero presentano lacune e debolezze quando applicate agli impatti sociali e politici dell’IA. Hanno anche attirato sostenitori influenti e ricevono risorse smisurate, in quanto si allineano bene con l’ambizione tecnologica della Silicon Valley, i suoi fondamenti ideologici e l’attività politica ad essa associata, in particolare da parte dell’attuale amministrazione statunitense.
Evidenziando queste critiche e debolezze, dimostriamo perché noi di AlgorithmWatch adottiamo un approccio diverso e, a nostro avviso, più appropriato alla definizione delle priorità.
Debolezze filosofiche delle prospettive AGI, EA e Longtermist
I punti deboli filosofici sono, in breve:
- Determinismo tecnologico : le narrazioni sui sistemi di intelligenza artificiale che si sviluppano in una qualche forma di “superintelligenza” o “AGI” presuppongono che la tecnologia progredisca inevitabilmente. In questo modo, l’ipotesi speculativa sull’esistenza futura dell’AGI (con un certo grado di probabilità) diventa l’ipotesi data. Questa ipotesi (non basata su prove) influenza quindi tutte le altre scelte politiche come un vincolo, anziché essere un risultato politico che può essere promosso o evitato come gli altri.
- Falsa precisione e incertezza : imitare il rigore della matematica nelle argomentazioni morali e politiche è una mera finzione di rigore teorico, poiché maschera la nostra ignoranza e incertezza sul futuro. Tuttavia, l’apparente chiarezza può essere attraente per i potenti decisori.
- Illusione di neutralità : in relazione a quanto sopra, le astrazioni si concentrano su rischi a lungo termine, a basso disaccordo e ad alto rischio (in particolare la sopravvivenza dell’umanità). Questo può sembrare neutrale, ma in realtà dirige l’attenzione su catastrofi immaginarie con grandi numeri ipotetici, allontanandosi da impatti immediati ma più difficili da quantificare. Ciò evita anche un serio confronto con legittime questioni democratiche e compromessi complessi che vanno oltre l’ambito tecnologico.
Definizioni
AGI/superintelligenza : sistemi ipotetici con capacità cognitive generali (per superintelligenza: superiori a quelle umane nella maggior parte dei domini). Questi non dovrebbero essere considerati un futuro inevitabile dell’IA.
Altruismo efficace (AE) : un approccio contemporaneo che sostiene un approccio basato sulle prove in materia di beneficenza, unito alla convinzione diffusa da parte dei suoi sostenitori che tale approccio debba essere caratterizzato da calcoli imparziali (come esemplificato dall’utilitarismo) e da una visione ristretta della ragione umana, derivata da quadri quantitativi o formali nella teoria delle decisioni e nell’economia.
Longtermism : l’idea che gli effetti delle nostre azioni nel lontano futuro (ad esempio, come influenzano la probabilità di estinzione) dovrebbero dominare il processo decisionale rispetto alle preoccupazioni attuali (alla probabilità di estinzione umana viene dato più peso rispetto ai miglioramenti attuali, come la costruzione di un ospedale, ad esempio).
Determinismo tecnologico nel discorso sull’intelligenza artificiale
Molti dei principali sostenitori dell’IA considerano lo sviluppo della superintelligenza/AGI come inevitabile. “Ora siamo certi di sapere come costruire l’AGI come l’abbiamo tradizionalmente intesa”, ha dichiarato Sam Altman, CEO di OpenAI, [1] sostenendo che l’AGI potrebbe essere realizzata nel 2025 e che ora è semplicemente un problema ingegneristico. [2]
Come spiegano il filosofo longtermist William MacAskill, molto influente, e l’altruista efficace Fin Moorhouse: “Al momento, il lavoro cognitivo effettivo dei modelli di intelligenza artificiale aumenta di oltre venti volte ogni anno… Affinché gli affari continuino come al solito, le tendenze attuali – nell’efficienza pre-addestramento, nei miglioramenti post-addestramento, nella scalabilità delle sessioni di addestramento e nell’elaborazione delle inferenze – devono effettivamente fermarsi”. [3]
Molti di questi argomenti sostengono anche che, se siamo destinati a realizzare un’IA con una potenza pari a quella della mente umana, questa può essere utilizzata per migliorare ulteriormente l’IA e, a quel punto, emergerà inevitabilmente un’era di poteri e rischi dell’IA inimmaginabili.
Nella prospettiva positiva e ottimistica proposta da molti sostenitori dello sviluppo senza vincoli dell’intelligenza artificiale, l’avvento dell’intelligenza artificiale globale è visto come il momento in cui tutte le questioni di governance politica vengono riconfigurate; molte nuove soluzioni diventano possibili poiché l’intelligenza artificiale globale mette a disposizione dell’umanità grandi quantità di lavoro intellettuale quasi istantaneo. Come scrivono MacAskill e Moorehouse in Preparing for the Intelligence Explosion , “un piano allettante è quello di garantire che l’intelligenza artificiale superintelligente sia allineata, per poi affidarsi ad essa per risolvere i nostri altri problemi. Questo ha senso in molti casi”. Sebbene non menzionino l’ambiente, altri hanno usato l’esempio secondo cui l’intelligenza artificiale ci aiuterà a sviluppare energia da fusione commercialmente sostenibile e tutte le sfide ambientali si risolveranno da sole. [4]
Nello scenario pessimista in cui il livello di AGI o gli agenti superintelligenti non sono allineati con gli obiettivi umani, emergono problemi di governance radicalmente diversi. Questo scenario implica un livello di rischio senza precedenti: una concreta possibilità di estinzione o sottomissione umana che eclissa la rilevanza di tutti gli altri problemi. Inoltre, affermano i sostenitori, questo scenario deve essere prevenuto con priorità urgente piuttosto che affrontato, poiché la velocità e la sofisticatezza combinate delle risposte superintelligenti le rendono imbattibili. Come continuano MacAskill e Moorehouse nella loro analisi, “alcune sfide sorgeranno prima che la superintelligenza possa essere d’aiuto, e alcune soluzioni devono essere avviate con largo anticipo”. [5]
Ciò è evidente nel modo in cui vengono allocate le risorse. Dal 2023, OpenAI ha lanciato sovvenzioni specifiche per la “ricerca tecnica volta all’allineamento e alla sicurezza dei sistemi di intelligenza artificiale sovrumana”, mentre Open Philanthropy ha destinato 336 milioni di dollari alla ricerca sulla sicurezza dell’intelligenza artificiale incentrata sull’allineamento. [6] L’Alignment Project del Regno Unito, sostenuto da “una coalizione internazionale di governi, industria, capitale di rischio e finanziatori filantropici”, tra cui l’UK Security Institute e il Canadian AI Safety Institute, mira a garantire che “i sistemi di intelligenza artificiale funzionino secondo i nostri obiettivi” perché “i metodi odierni per addestrare e controllare i sistemi di intelligenza artificiale sono probabilmente insufficienti per i sistemi di domani”. [7]
In questo modo, l’ AGI e/o la superintelligenza come cornice del destino diventano la questione più urgente per l’umanità, al di sopra di quelle della governance democratica, dei limiti planetari e della responsabilità aziendale. Nell’analisi di cui sopra, ad esempio, problemi a lungo termine come il degrado ambientale dovuto all’intenso consumo di energia nella corsa all’AGI (e quindi alla superintelligenza) non vengono menzionati nemmeno una volta. Ma cosa succederebbe se il presunto sviluppo della fusione basato sull’intelligenza artificiale non arrivasse abbastanza rapidamente o fosse insufficiente? O se le soluzioni di intelligenza artificiale aiutassero ad affrontare il consumo energetico complessivo, ma non impatti differenziali come il consumo di acqua? [8] Quale agenzia conferisce questa cornice ai cittadini e ai loro governi? Invece di chiedersi quali tipi di sistemi di intelligenza artificiale vogliamo (e da chi dovrebbero essere sviluppati e sotto quali vincoli), il dibattito si sposta su come allineare la superintelligenza ai valori umani, dato che è in arrivo.
Sebbene il lavoro di rendicontazione a breve termine e la ricerca sulla sicurezza a lungo termine possano teoricamente influenzarsi a vicenda, questa complementarietà si interrompe quando i quadri di riferimento a lungo termine considerano i rischi esistenziali come categoricamente più importanti dei danni attuali. Ciò deriva direttamente da:
- calcoli del valore atteso che si moltiplicano per infinite generazioni future,
- analisi costi/benefici che non consente di riconoscere principi deontologici (ad esempio, diritti umani) orientati a valori quali dignità e autonomia,
- il trattamento dell’incertezza attraverso la teoria formalizzata delle decisioni che ne oscura la natura speculativa,
- le dinamiche istituzionali in cui coloro che controllano la narrazione “a lungo termine” mobilitano anche risorse significative.
Finché questi quadri prevarranno, un dialogo autentico rimarrà impossibile. La posizione longtermist non può riconoscere i danni attuali come comparabilmente importanti senza abbandonare la sua metodologia quantitativa fondamentale, formalista ed efficace-altruista. Finché gli approcci longtermist non abbandoneranno le metodologie di valutazione del rischio che assegnano un valore atteso schiacciante alla prevenzione di eventi di estinzione a bassa probabilità, le prospettive a breve e a lungo termine rimarranno strutturalmente in contrasto, non perché siano incompatibili, ma perché un quadro è concepito per prevalere sull’altro.
Falsa precisione e incertezza
I framework sviluppati per misurare l’incertezza e stimare i risultati futuri vengono utilizzati in modo problematico, in un modo che supporta le priorità stabilite dalle aziende anche senza fare affidamento sulla lente tecnologicamente determinista. Questo approccio è particolarmente evidente nei framework di valutazione quantitativa del rischio che sostengono l’altruismo efficace e la visione a lungo termine, che combinano stime di probabilità e calcoli del valore atteso, portando alla tesi che le conseguenze future delle nostre azioni dovrebbero dominare il processo decisionale. [9]
La logica matematica è semplice ma problematica: moltiplicando anche solo l’1% di probabilità di una conseguenza che influenza virtualmente infinite generazioni future, il valore di quella conseguenza viene amplificato in un modo che nessuna conseguenza che riguarda solo il presente può eguagliare. Quindi, ad esempio, prevenire l’estinzione dell’IA diventa la massima priorità dell’umanità, indipendentemente da altre necessità urgenti. Una volta che il rischio esistenziale è sul tavolo, non importa quanto speculativa sia la probabilità che un’azione attuale possa causarlo, qualsiasi altra preoccupazione relativa alle mere conseguenze presenti, ad esempio il rispetto dei diritti umani delle generazioni attuali, può essere liquidata come irrilevante al confronto.
Questo approccio si basa sulla falsa certezza. Un problema è che la misurazione dell’incertezza confonde due diversi tipi di probabilità. La teoria dell’utilità attesa funziona idealmente con probabilità oggettive – frequenze osservate attraverso prove ripetute, come il lancio di una moneta. Ma le probabilità dell’AGI sono valutazioni soggettive raccolte da esperti di sondaggi su sviluppi senza precedenti. Quando i ricercatori intervistano gli scienziati dell’IA sulla probabilità di un’IA di livello umano entro il 2030, raccolgono giudizi personali, non dati oggettivi. [10]
Il secondo aspetto della falsa certezza riguarda i potenziali pregiudizi sui percorsi causali. I framework a lungo termine possono sistematicamente sottovalutare i rischi con catene causali complesse. La catena <violazioni dei diritti umani → erosione democratica → fallimento del coordinamento → incapacità di affrontare le minacce esistenziali> rappresenta un percorso altrettanto plausibile verso il collasso della civiltà come disallineamento dell’IA, ma riceve molta meno attenzione a lungo termine. Ciò crea un punto cieco metodologico in cui i rischi con percorsi più brevi e più modellabili vengono prioritari rispetto ad altri pericolosi rischi istituzionali. Questa argomentazione richiederebbe una ricerca empirica per elaborare ulteriormente in dettaglio la prevalenza e gli impatti di tali pregiudizi, ma è importante considerare come i framework che pretendono di ottimizzare il prosperare a lungo termine della razza umana possano sistematicamente sottovalutare le fondamenta istituzionali che rendono possibile il prosperare della società e della democrazia.
Stime empiriche del rischio dell’IA compaiono ora negli scritti dei filosofi, apparentemente al servizio di obiettivi concreti. [11] Chiaramente, la loro autorevolezza scientifica è altamente discutibile. Ma ha conseguenze reali: trattando i disastri futuri ipotizzati come matematicamente calcolabili, dirotta l’attenzione e le risorse dai danni concreti dell’IA di oggi verso le catastrofi immaginarie di domani.
L’illusione della neutralità
Il longtermismo appare plausibile perché si concentra su risultati che quasi tutti concordano essere negativi, e i modelli di altruismo efficace conferiscono a questa narrazione una parvenza di neutralità. L’estinzione umana, il dominio di un’intelligenza artificiale non allineata e la perdita di potenziale futuro sembrano preoccupazioni universali. Combinato con l’affermazione che le generazioni future contano quanto quelle presenti, questo produce ragioni apparentemente schiaccianti per concentrarsi sul rischio esistenziale.
Se questi approcci vengono formalizzati in quadri matematici, appaiono neutrali, ma in realtà favoriscono determinate posizioni. La matematica rende apparentemente facile calcolare enormi benefici futuri (impedire l’estinzione di migliaia di miliardi, un valore quasi infinito), ma implausibile considerare preoccupazioni morali attuali come la dignità umana o la giustizia come qualcosa di paragonabile all’estinzione. Contrariamente a quanto affermano eminenti pensatori del lungo termine, il “valore morale” kantiano non si riduce a una quantità calcolabile che possa travolgere i doveri attuali. [12]
In altre parole, l’illusione di neutralità consiste nel fatto che altre visioni e intuizioni morali sono implicitamente sminuite, non perché siano meno valide, ma perché sono meno trattabili matematicamente. Alcuni quadri teorici sembrano una sintesi equilibrata, ma funzionano come un espediente per scatenare il predominio utilitaristico su altri modi di pensare l’etica, come i quadri teorici più orientati ai diritti, in cui le violazioni dei diritti fondamentali non possono essere semplicemente compensate da benefici altrove. [13]
In conclusione, dovremmo notare che possiamo distinguere tra la valida affermazione morale del longtermismo – che gli individui del futuro contano e che dovremmo adottare misure per garantire loro un mondo dignitoso – e il problematico apparato intellettuale che la accompagna. Queste caratteristiche non sono essenziali per preoccuparsi del futuro (il longtermismo come concetto in senso lato); emergono piuttosto da un particolare approccio alla matematica morale.
Influenza narrativa
Le questioni sollevate sopra possono, purtroppo, essere viste come positive sia per le ambiziose aziende della Silicon Valley che per molti politici e funzionari governativi. Gli approcci a lungo termine e altruisti efficaci di cui abbiamo parlato sopra rivendicano neutralità, ampio consenso sui problemi chiave e possibilità di soluzioni tecniche, piuttosto che il compito più arduo della legittimazione democratica e dei conseguenti compromessi.
L’etica a lungo termine si concentra opportunamente sui rischi che non minacciano gli attuali modelli di business o i rendimenti degli investitori. Che la superintelligenza emerga o meno, le aziende non subiscono conseguenze finanziarie a breve termine: o l’IA rimane controllabile (nessun problema per i profitti) o diventa incontrollabile (i profitti diventano irrilevanti con l’estinzione umana). Le aziende di IA possono presentarsi come eticamente responsabili attraverso la ricerca sulla sicurezza, evitando al contempo di assumersi la responsabilità per danni più immediati allo sviluppo sostenibile. Anche i rischi immediati, come la minaccia che l’IA può rappresentare per l’autonomia degli utenti umani attraverso la manipolazione emotiva, possono essere trascurati quando la ricerca sul rischio esistenziale a lungo termine assorbe una parte sostanziale dei finanziamenti per l’allineamento. [14]
Abbiamo già elencato alcuni esempi di come l’influenza narrativa si manifesta nella pratica, ma ce ne sono altri. Tra le organizzazioni influenti nel campo delle politiche sull’intelligenza artificiale figurano il Future of Life Institute e Open Philanthropy (nata da GiveWell Labs, fondata da altruisti efficaci). [15] Si è verificata una generale invasione di idee, personale e denaro altruisti efficaci negli spazi politici e filantropici, come evidenziato ad esempio da Politico e dall’European AI and Society Fund. [16] La Technology Policy Fellowship di Open Philanthropy ha collocato Max Katz al fianco del senatore Martin Heinrich nel 2022. Heinrich è successivamente diventato uno dei soli quattro senatori selezionati dal leader della maggioranza al Senato Chuck Schumer per guidare lo sviluppo completo delle politiche sull’intelligenza artificiale del Senato degli Stati Uniti attraverso “Insight Forum” della durata di un anno nel periodo 2023-2024. Ciò dimostra l’esistenza di canali di influenza istituzionale diretti tra le organizzazioni altruiste efficaci e i principali responsabili delle politiche sull’intelligenza artificiale. [17]
L’alternativa ad AlgorithmWatch
AlgorithmWatch offre un’alternativa fondata sulla democrazia, sui diritti e sull’impatto vissuto.
Noi di AlgorithmWatch riconosciamo che l’IA presenta rischi sia immediati che a lungo termine, anche derivanti da modelli sempre più potenti. Siamo aperti ad adottare approcci quantitativi, sistematici e/o previsionali da ambiti più ampi, al di là dei vincoli di un ristretto approccio a lungo termine, purché mantengano l’attenzione sulle questioni che abbiamo delineato sopra e sui principi morali a cui aderiamo (basati su giustizia e autonomia), e non si perdano in numeri, astrazioni e soluzioni tecniche ristrette o guidate da élite.
Scegliamo un’alternativa che metta al primo posto i diritti, partecipativa e basata sull’evidenza, che affronti i danni concreti oggi e domani, installando al contempo solide barriere di protezione per un futuro incerto. Ciò significa che ci concentriamo sugli squilibri di potere tra aziende, governi e comunità interessate, sulla legittimità democratica e sui processi di governance inclusivi, sugli impatti localizzati, plasmati da contesti lontani dalla Silicon Valley, e su tecnologie che rispettano la responsabilità e l’agire umano, piuttosto che dettare la governance in base al proprio slancio.
Questo lavoro include, ma non è limitato a:
- sviluppare strumenti per condurre valutazioni d’impatto sui diritti fondamentali che si basino su metodologie sistematiche per confrontare e valutare i rischi, ma che affrontino anche esplicitamente i limiti di tali approcci e integrino diversi input e valutazioni nella metodologia;
- condurre ricerche sugli usi dell’LLM che comprendono sia contesti locali specifici sia rischi più ampi, come si è visto, ad esempio, nel nostro lavoro sulle garanzie contro la disinformazione elettorale nelle elezioni regionali degli ultimi anni in Germania e nelle elezioni nazionali in Svizzera, dove abbiamo evidenziato come le garanzie non riconoscessero e proteggessero efficacemente i candidati politici regionali; [18]
- indagini giornalistiche e incentrate sull’uomo che espongono i reali impatti dell’IA in contesti particolari, sia attraverso l’espansione dei data center in molte comunità in Europa, [19] le condizioni dei lavoratori che addestrano l’IA, [20] o esperienze di discriminazione algoritmica [21] – per fare solo alcuni esempi.
Ciò che è in gioco non è se l’umanità sopravviverà a un’intelligenza futura astratta, ma se sceglieremo di governare i sistemi che stiamo già costruendo in modi che espandano libertà, giustizia, autonomia e sostenibilità, anziché limitarli. Il futuro dell’IA non è scritto nelle stelle, ma nei parlamenti, nei luoghi di lavoro e nelle comunità. Le grandi narrazioni sulla superintelligenza possono essere abbaglianti, ma è il lavoro più silenzioso di costruire responsabilità, condividere il potere e proteggere i diritti che determinerà se l’IA rafforzerà o indebolirà la democrazia.
È qui che deve collocarsi la nostra attenzione. Se le prospettive a lungo termine ci invitano a immaginare l’eternità, il nostro compito è più immediato e non meno ambizioso: garantire che le decisioni odierne sull’intelligenza artificiale lascino dietro di sé istituzioni in grado di affrontare qualsiasi futuro si presenti.
[1] Sam Altman, “Three Observations”, 9 febbraio 2025, blog personale. In particolare, “[l]’intelligenza di un modello di intelligenza artificiale è approssimativamente uguale al logaritmo delle risorse utilizzate per addestrarlo e gestirlo”. https://blog.samaltman.com/three-observations . Vedi anche Sam Altman, “Reflections”, 6 gennaio 2025, blog personale, https://blog.samaltman.com/reflections . Un utile riassunto del punto di vista di Altman si trova in Tharin Pillay, “How OpenAI’s Sam Altman Is Thinking About AGI and Superintelligence in 2025”, Time , 8 gennaio 2025, https://time.com/7205596/sam-altman-superintelligence-agi/ .
[2] Spesso il determinismo assume un tono più pessimista. Si veda ad esempio Eliezer Yudkowsky, “Pausing AI Developments Isn’t Enough. We Need to Shut it All Down”, TIME , 29 marzo 2023, https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ . Peter Thiel presenta una prospettiva pessimistica contrastante, sostenendo che lo sviluppo tecnologico – inclusa l’intelligenza artificiale – è in realtà stagnante in tutti i settori: tecnologico, economico e sociale, sostenendo una maggiore libertà imprenditoriale e mettendo in guardia contro la minaccia “apocalittica” delle strutture di governo mondiale che potrebbero ulteriormente limitare l’innovazione. Vedere: Ross Douthat, conduttore, “AI, Marte e immortalità: stiamo sognando abbastanza in grande?”, podcast Interesting Times con Ross Douthat, episodio con Peter Thiel, https://youtu.be/vV7YgnPUxcU .
[3] “Prepararsi all’esplosione dell’intelligence”, MacAskill e Morehouse, https://www.forethought.org/research/preparing-for-the-intelligence-explosion .
[4] Ad esempio, Demis Hassabis (CEO, Google DeepMind), in un’intervista del 2025, contestato sulla questione della sostenibilità energetica dell’IA, ha affermato: “Sì, l’energia richiesta sarà molta per i sistemi di IA, ma la quantità che otterremo indietro, anche solo di poco per le [soluzioni] climatiche da questi modelli, supererà di gran lunga i costi energetici”. Guardian, 4 agosto 2025, https://www.theguardian.com/technology/2025/aug/04/demis-hassabis-ai-future-10-times-bigger-than-industrial-revolution-and-10-times-faster . Una dichiarazione simile appare in Sam Altman, su X (ex Twitter), 7 maggio 2023, https://x.com/sama/status/1655249663262613507 . Questi sono esempi di retorica tecno-ottimista/accelerazionista che condividono le finalità orientate al futuro del longtermismo con una svolta più ottimistica: vedere, ad esempio, Marc Andreessen, “The Techno-Optimist Manifesto”, Andreessen Horowitz (blog), 16 ottobre 2023, https://a16z.com/the-techno-optimist-manifesto/ .
[5] William MacAskill e Fin Morehouse, “Preparing for the Intelligence Explosion”, 2025, https://www.forethought.org/research/preparing-for-the-intelligence-explosion . L’articolo delinea un quadro più ampio di “grandi sfide”, tra cui autocrazie basate sull’intelligenza artificiale, nuove armi distruttive, governance di esseri digitali e corse alle risorse extraterrestri, senza affrontare i rischi ecologici come il degrado ambientale dovuto al pesante consumo di energia o alle operazioni di data center ad alta intensità di calcolo.
[6] “Una panoramica della situazione dei finanziamenti per la sicurezza dell’IA”, LessWrong, 2023, https://www.lesswrong.com/posts/WGpFFJo2uFe5ssgEb/an-overview-of-the-ai-safety-funding-situation
[7] Dipartimento per la scienza, l’innovazione e la tecnologia del Regno Unito (AI Security Institute), “AI Security Institute lancia una coalizione internazionale per salvaguardare lo sviluppo dell’IA”, comunicato stampa del governo, 30 luglio 2025, https://www.gov.uk/government/news/ai-security-institute-launches-international-coalition-to-safeguard-ai-development ; vedere anche la pagina “The Alignment Project: About” per partner e mandato, https://alignmentproject.aisi.gov.uk/ .
[8] “Con Google come mio vicino, ci sarà ancora acqua?,” AlgorithmWatch, 2023, https://algorithmwatch.org/en/protests-against-data-centers/
[9] “Il caso del longtermismo forte”, Greaves & MacAskill, GPI Working Paper 2021, https://www.globalprioritiesinstitute.org/wp-content/uploads/The-Case-for-Strong-Longtermism-GPI-Working-Paper-June-2021-2-2.pdf .
[10] Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang e Owain Evans, “When Will AI Exceed Human Performance? Evidence from AI Experts,” 2017, https://arxiv.org/abs/1705.08807 . Come hanno sottolineato i critici, “per il rischio esistenziale derivante dall’IA, non esiste una classe di riferimento” e “queste stime non sono supportate da alcuna metodologia”. Vedi Arvind Narayanan e Sayash Kapoor, “AI Existential Risk Probabilities Are Too Unreliable to Inform Policy,” AI Snake Oil (Substack), 26 luglio 2024, https://www.aisnakeoil.com/p/ai-existential-risk-probabilities . Si noti che i ricercatori che tentano di quantificare il rischio esistenziale dell’IA riconoscono le proprie stime come “altamente instabili” e “soggettive”, con uno che rileva “una probabilità di catastrofe esistenziale pari a circa il 5% entro il 2070”, sottolineando al contempo la profonda incertezza che ne consegue. Tuttavia, ciò non impedisce loro di influenzare il processo decisionale, nonostante l’approccio sia eticamente e scientificamente controverso, come discutiamo di seguito. Si veda “Draft Report on Existential Risk from Power-Seeking AI”, Effective Altruism Forum, 28 aprile 2021, https://www.lesswrong.com/posts/HduCjmXTBD4xYTegv/draft-report-on-existential-risk-from-power-seeking-ai .
[11] Ad esempio, si consideri MacAskill e Moorehouse: “Possiamo stimare una linea di base assumendo che il progresso nella formazione sia interamente convertito in una migliore efficienza di inferenza e che una maggiore elaborazione di inferenza sia interamente utilizzata per eseguire più IA… Quindi, se le tendenze attuali continuano fino al punto di parità tra uomo e IA in termini di sforzi di ricerca, allora possiamo concludere che gli sforzi di ricerca sull’IA continuerebbero a crescere di almeno 25 volte all’anno.” Oppure: “Il prodotto dell’elaborazione di formazione, dell’efficienza algoritmica e dell’elaborazione di inferenza, che si combinano per fornire sforzi di ricerca sull’IA, sarà quindi aumentato di cento miliardi di volte (10¹¹), con una media di poco più di 10 volte all’anno.” In “Preparing for the Intelligence Explosion”, 2025, https://www.forethought.org/research/preparing-for-the-intelligence-explosion .
[12] Filosoficamente, anche la teoria della scelta attesa-degna di essere scelta sviluppata da MacAskill e Ord, due delle principali voci filosofiche dietro la priorità del rischio esistenziale, cade preda di questa critica, ma non c’è spazio qui per un’argomentazione estesa su questo argomento. Vedi MacAskill e Ord, 2020. “Why Maximize Expected Choice-Worthiness?” 1. Noûs 54, 327–353. https://doi.org/10.1111/nous.12264 . Allo stesso modo, i loro tentativi di rivendicare il lungo termine senza presumere il consequenzialismo in “The Case for Strong Longtermism” non catturano il modo in cui
I deontologi considerano l’etica come un concetto che fondamentalmente considera le persone o le azioni come portatrici di valore, non come fini a se stesse. Si veda “The Case for Strong Longtermism”, GPI Working Paper, giugno 2021, https://www.globalprioritiesinstitute.org/wp-content/uploads/The-Case-for-Strong-Longtermism-GPI-Working-Paper-June-2021-2-2.pdf .
[13] Almeno se i diritti funzionano come vincoli collaterali. Vedi Robert Nozick, 1974. Anarchy, State, and Utopia , Basic Books, New York.
[14] Sulla base degli annunci di lavoro pubblici del 29 agosto 2025, Anthropic e OpenAI mostrano modelli di assunzione distinti. Vedi Anthropic, “Frontier Red Team / RSP Evaluations,” Anthropic Job Board, annuncio acquisito il 29 agosto 2025, https://job-boards.greenhouse.io/anthropic .
OpenAI, “Safety Systems – Misalignment Research,” OpenAI Careers , Greenhouse.io, annuncio acquisito il 29 agosto 2025, https://openai.com/careers/senior-researcher-safety-systems-misalignment-research/ . OpenAI, “Research Engineer / Research Scientist – Model Behavior,” OpenAI Careers , annuncio di lavoro, pubblicato verso la fine di agosto 2025, https://openai.com/careers/research-engineer-research-scientist-model-behavior/ . Entrambe le aziende danno opportunamente priorità alle valutazioni CBRN (chimiche, biologiche, radiologiche, nucleari); tuttavia, al di là di queste giustificate misure di sicurezza, un’analisi qualitativa degli attuali modelli di assunzione sembra rivelare risorse sostanziali destinate a scenari più speculativi. Al contrario, entrambe le aziende mostrano meno opportunità di ricerca per lavori di “Impatto sociale”, come il ruolo di Environmental & Supply Chain Responsibility Manager presso OpenAI. OpenAI, “Environmental & Supply Chain Responsibility Manager”, OpenAI Careers, annuncio di lavoro, pubblicato ad agosto 2025, https://openai.com/careers/environmental-management-supply-chain/ .
[15] “Una panoramica della situazione dei finanziamenti per la sicurezza dell’IA”, LessWrong https://www.lesswrong.com/posts/WGpFFJo2uFe5ssgEb/an-overview-of-the-ai-safety-funding-situation .
[16] “Chi finanzia il lavoro su IA e società in Europa? Una revisione del panorama”, European AI & Society Fund, https://europeanaifund.org/wp-content/uploads/2023/06/260623-FOR-PUBLICATION-EAISF-Funding-landscape-review.pdf , “Quando i guerrieri dell’IA della Silicon Valley arrivarono a Washington”, Politico 30 dicembre 2023, https://www.politico.com/news/2023/12/30/ai-debate-culture-clash-dc-silicon-valley-00133323 , John Naughton “Longtermism: come le buone intenzioni e i ricchi hanno creato un credo pericoloso”, Guardian 4 dicembre 2022, https://www.theguardian.com/technology/commentisfree/2022/dec/04/longtermism-rich-effective-altruism-tech-dangerous.
[17] Per il contesto europeo: questo rappresenta una forma di acquisizione di influenza in cui una fondazione che promuove specifici inquadramenti del rischio dell’IA finanzia una posizione di staff all’interno dell’ufficio di un senatore: i senatori operano come singoli istituti politici con 20-50 dipendenti che elaborano le leggi e forniscono consulenza sulle posizioni. Lo stesso senatore diventa in seguito uno dei quattro decisori chiave per tutte le politiche federali statunitensi in materia di IA. Ciò equivarrebbe a una fondazione che assegna un consulente a un eurodeputato che viene poi selezionato dal Presidente del Parlamento europeo per presiedere la commissione che elabora la regolamentazione dell’IA a livello UE, ma con una trasparenza inferiore a quella normalmente richiesta dalle norme UE in materia di lobbying.
[18] Vedi AlgorithmWatch “I modelli linguistici di grandi dimensioni continuano a essere inaffidabili per quanto riguarda le elezioni”, 2024, https://algorithmwatch.org/en/llms_state_elections/ e “ChatGPT and Co: i motori di ricerca basati sull’intelligenza artificiale sono una minaccia per le elezioni democratiche?”, 2023, https://algorithmwatch.org/en/bing-chat-election-2023/
[19] Raluca Besliu, Aniket Narawad e Anna Toniolo per AlgorithmWatch, “Infrastruttura o intrusione? L’espansione conflittuale dei data center in Europa”, 2025 https://algorithmwatch.org/en/infrastructure-intrusion-conflict-data-center/ .
[20] Michael Bird e Nathan Schepers per AlgorithmWatch, 2025, https://algorithmwatch.org/en/ai-revolution-exploitation-gig-workers/ .
[21] “Segnala la discriminazione algoritmica”, AlgorithmWatch, 2025, https://algorithmwatch.org/en/report-algorithmic-discrimination/ .
