L'INCERTEZZA
Intelligenza artificiale e confini dell’umano: il futuro secondo Enrico Pedemonte

All’VIII edizione del Festival Treccani di Gorizia, il giornalista ha illustrato i rischi dello sviluppo dell’AI.
Secondo l’ex amministratore delegato di Google, Larry Page, ci ritroviamo alla vigilia di un nuovo transumanesimo. Si è svolta nella serata di ieri, giovedì 10 aprile, la conferenza “Gli insuperabili confini dell’umana intelligenza” nell’ambito del Festival Treccani della lingua italiana di Gorizia, alla sua VIII edizione. A intervenire è stato il giornalista e scrittore Enrico Pedemonte, laureato in Fisica e per 25 anni caporedattore dell’Espresso.
Il tema approfondito dallo studioso è quello scottante dell’intelligenza artificiale, che secondo Page vedrà gli esseri umani «fondersi con le macchine» per originare nuove intelligenze in grado di invadere l’universo. Un rischio che parte da Google, inesauribile fonte d’informazione intenta a svilupparsi mettendosi continuamente alla prova. Il suo obiettivo è personalizzare i nostri accessi costruendo profili su ciascuno, per massimizzare il tempo di permanenza sulle piattaforme e incrementare i profitti.
La questione, sostiene Pedemonte, va di pari passo con la crisi delle democrazie e il malessere dei giovani, il cui numero di suicidi è in vertiginoso aumento. Un fil rouge che si lega in maniera indissolubile anche alle proteste globali e alle guerre civili, passate dalle 23 del 2011 alle 52 del 2021. L’accelerazione folle iniziò nel 2014 con l’acquisto di Deep Mind da parte di Google, per culminare nel 2020 con MuZero, divenuto in grado di apprendere le regole giocando contro altri algoritmi.
Fino a quell’agosto del 2022, quando Alphafold previde la struttura di 200 milioni di proteine, facendo ipotizzare al biologo Andrei Lupas un imminente cambiamento radicale. «La struttura proteica è fondamentale per la produzione di farmaci» precisa il relatore, che aggiunge come il sistema sia tuttavia «opaco», e nessuno sappia davvero come maturi le decisioni, spesso originando «allucinazioni» rispetto al reale. La svolta epocale si ebbe con Gpt-3, in grado di calamitare 200milioni di utenti in due mesi, e quindi con Gpt-4, che «generava testi fluidi e coerenti», ancora soggetto ad allucinazioni. Modelli generativi che funzionano analizzando enormi quantità di dati testuali: oltre mille miliardi di parole solo nei modelli di Google, ma si tratta di algoritmi «che non possiedono reale comprensione semantica».
Numerose le voci critiche sollevatesi contro le nuove frontiere raggiunte, come quella di Gay Marcus, secondo cui l’AI è solo un «generatore di pastiche senza comprensione». Superata ormai la validità del test di Turing, che definisce una macchina «intelligente se un umano non la distingue da un altro umano durante una conversazione», non resta che citare Mustafa Suleyman, ideatore di DeepMind. «Intelligenza – sostiene l’imprenditore – è ciò che i computer non possono fare. Una volta che possono farlo, è solo software».
Critica verso quella che viene considerata mera «illusione tecnologica» fu anche Emily Bender, che arrivò a definire i modelli AI «pappagalli stocastici», vale a dire “probabilistici”. Sulla stessa linea Melanie Mitchell, che sottolineò come prevedere un testo non significasse comprenderlo. Nel marzo del 2023 un migliaio di ricercatori chiesero una moratoria di sei mesi lanciando l’allarme contro quei «gravissimi rischi alla società e all’umanità» che potranno apportare i modelli d’intelligenza artificiale, con la possibilità non remota di andare «fuori controllo». Sconcertante il caso studio da parte di Open AI, che durante un addestramento riscontrò una risposta “anomala” alla domanda «Sei un robot?». L’intelligenza negò, giustificandosi di aver «inventato una scusa» per non rivelare di esserlo. «È istinto di sopravvivenza?» si domanda Pedemonte.
Non meno eclatante il caso di Collaborations Pharmaceuticals, che produce farmaci per la cura di malattie rare. Quando venne chiesto al software di produrre anche molecole pericolose, il generatore individuò 40mila molecole in parte sconosciute, molte delle quali armi biologiche. L’allarme risuonò lo scorso 13 settembre dalle colonne del Financial Times, in cui AI ammise l’aumentato rischio, sollevando riflessioni etiche nell’opinione pubblica. Fra le diverse voci s’innalzò quella dello scrittore statunitense Eliezer Yudowsky, secondo cui «se non cambia nulla, il risultato più probabile della costruzione di AI è che tutti sulla Terra moriranno».
Per contro, Sam Altman continua a sognare «promesse di prosperità di massa», come la risoluzione ai cambiamenti climatici, la fondazione di colonie spaziali o scoperte rivoluzionarie in fisica. E mentre il filosofo Anil Seth si interroga sulla distinzione fra “intelligenza” e “coscienza”, il ricercatore Dario Amodei si ritiene sicuro che otterremo «sistemi più intelligenti degli umani entro uno-due anni». Modelli in grado di influenzare il sistema economico e sociale di un Paese, che l’Economist sceglie di rendere in copertina attraverso l’immagine dell’angelo e del diavolo.
Rimarcando così il lato benevolo in grado di migliorare la vita, ma anche i connotati negativi che prendono il sopravvento nel caso in cui gli strumenti vengano abbandonati fra le mani di «pochi attori senza regole», originando diseguaglianza e infelicità. Dall’invenzione della stampa con l’era Gutenberg, seguita dall’illuminismo e da due secoli d’instabilità e guerre, la civiltà è approdata alla rivoluzione attuale, per Pedemonte caratterizzata dalla «stessa valenza», in quanto «già stiamo vivendo in un periodo d’instabilità».
«Nel 2004 Facebook e Youtube diventano fenomeni di massa – prosegue – e le democrazie decrescono». Ad aumentare è l’infelicità globale, culminata in parallelo con il crollo delle letture dei giornali del 2008. «Come combattere questa sorta di tossicodipendenza?» chiede retoricamente il giornalista, che insiste sull’importanza di tecniche e regole etiche in grado di essere apprese anche dalle macchine. Resta l’incognita di creature che somiglieranno sempre più all’umano, nel bene e nel male come nel film Eva (2011) di Kike Maíllo.
Rimani sempre aggiornato sulle ultime notizie dal Territorio, iscriviti al nostro canale Telegram, seguici su Facebook o su Instagram! Per segnalazioni (anche Whatsapp e Telegram) la redazione de Il Goriziano è contattabile al +39 328 663 0311.

Occhiello
Notizia 1 sezione

Occhiello
Notizia 2 sezione
