Conto e carta

difficile da pignorare

 

La nuova IA potrebbe evolversi da sola e superare ogni controllo umano


L’intelligenza artificiale cresce a velocità supersonica e altrettanto velocemente si moltiplicano le voci di quanti, anche molto autorevolmente, si preoccupano della sempre più potente Agi (Artificial general intelligence), cioè una superintelligenza in grado di superare l’uomo. Raymond Kurzweil, già nel 2005, nel libro The Singularity is Near, la definiva «singolarità tecnologica». L’inventore e informatico statunitense, in un libro che risale all’anno scorso (The Singularity is Nearer), ne rivede i tempi di sviluppo fino a dichiarare che con l’Agi avremo tutti a che fare entro il 2030.

Investi nel futuro

scopri le aste immobiliari

 

Sono quattro i fattori che concorrono a questa esasperata velocità di innovazione: innanzitutto la concorrenza (chi arriva prima monetizza il valore creato, come OpenAI, valutata trecento miliardi di dollari); poi le leggi di scala, che mostrano come le prestazioni migliorino con l’aumento dei dati e della potenza di elaborazione; quindi l’innovazione algoritmica attraverso miglioramenti nelle metodologie di addestramento e nelle architetture sottostanti; infine l’uso di set sempre più enormi di dati.

Il primo fattore – la concorrenza – ha un’incidenza di sviluppo «incontrollabile»: lo espresse, con una calibrata metafora, il team di Anthropic nel paper Predictability and Surprise in Large Generative Models, pubblicato nell’ottobre 2022, parlando della mancanza di standard e modelli regolatori: «Stiamo, in un certo senso, costruendo l’aereo mentre sta decollando».

Nick Bostrom è stato uno dei primi filosofi a mettere in guardia sugli sviluppi incontrollati dell’AI con il suo libro “Superintelligent”, pubblicato nel 2014. La domanda alla quale il libro cerca di rispondere è: siamo certi che riusciremo a governare senza problemi una AI «superintelligente» dopo che l’avremo costruita? (l’autore fa riferimento a ciò che chiama «automiglioramento ricorsivo», cioè la capacità della stessa AI di perfezionarsi all’infinito). Tra le tante, la risposta più efficace al problema appare essere la «collaborazione»: «…riduce la fretta di sviluppare intelligenza digitale, permette investimenti maggiori nella sicurezza, fa evitare conflitti violenti e facilita la condivisione delle idee su come risolvere il problema del controllo».

Bostrom fondò nel 2005 il Future of Humanity Institute (FHI) presso l’Università di Oxford, un centro di ricerca interdisciplinare su questioni generali sul futuro dell’umanità e le sue prospettive (rischi morali e sistemici come, appunto, l’allineamento dell’IA e la sua governance). Il Centro venne chiuso nell’aprile 2024 con l’Università che dichiarava di aver «affrontato crescenti venti contrari amministrativi all’interno della Facoltà di Filosofia».

Tornando ad Anthropic, il cofondatore Dario Amodei (di chiare origini italiane) pare addirittura ossessionato da come gli esseri umani possano raggiungere l’Agi in sicurezza. Per questo, lui e altri sei fondatori di Anthropic lasciarono OpenAI e oggi lavorano per costruire un’Agi sicura per l’uomo che sia «esempio» per gli altri modelli.

Investi nel futuro

scopri le aste immobiliari

 

Anthropic ha sviluppato un ulteriore protocollo di sicurezza, chiamato Responsible Scaling Policy (Rsp), che stabilisce una gerarchia di livelli di rischio per i sistemi di intelligenza artificiale, un po’ come la scala Defcon, quella che indica lo stato di allerta delle forze armate. Claude (il suo sistema) sta al livello due di sicurezza dell’intelligenza artificiale: richiede un approccio per gestire i primi segni di capacità pericolose, come dare istruzioni per costruire armi biologiche o sistemi di hacking. Daniela Amodei (sorella di Dario e anche lei fondatrice di Anthropic) spiega il processo: «È fondamentalmente una versione di Claude che monitora Claude». Al livello tre i sistemi iniziano a funzionare in modo autonomo.

Google con Gemini ha adottato un quadro simile e, secondo Demis Hassabis – che guida gli sforzi di intelligenza artificiale di Google – Anthropic è stata un’ispirazione per modellare un’intelligenza artificiale responsabile. «Se ci uniamo allora anche gli altri lo faranno e improvvisamente avremo una massa critica», afferma Hassabis. Amodei crede che la sua strategia stia funzionando.

Tre mesi dopo la presentazione da parte di Anthropic della sua politica di ridimensionamento responsabile, OpenAI annunciò il suo Preparedness Framework, struttura finalizzata ad affrontare i potenziali rischi associati alle capacità avanzate dell’IA. E nel febbraio 2025 anche Meta Platforms è uscita con la sua versione.

Leopold Aschenbrenner, genio dell’intelligenza artificiale, laureato con lode all’età di diciannove anni alla Columbia University in matematica-statistica ed economia ed ex ricercatore di OpenAI sotto la guida allora di Ilya Sutskever, suo mentore, ha pubblicato nel giugno 2024 un paper di centosessantacinque pagine su rischi e sviluppi dell’intelligenza artificiale.

Spinto dalla consapevolezza delle opportunità senza precedenti e dei rischi significativi che questi sviluppi comportano, Aschenbrenner indaga le questioni scientifiche, morali e strategiche che circondano l’Agi, gettando luce su un futuro tanto promettente quanto potenzialmente pericoloso e delineando un possibile percorso verso l’Agi entro il 2027. Una previsione temporale che si basa sulla proiezione degli attuali tassi di avanzamento della potenza computazionale e dell’efficienza algoritmica.

Data la natura globale dello sviluppo dell’intelligenza artificiale, Aschenbrenner enfatizza l’importanza della cooperazione e della governance internazionale, proponendo la creazione di accordi e agenzie internazionali di regolamentazione per supervisionare lo sviluppo dell’AGI, promuovere la trasparenza e assicurare un’equa distribuzione dei benefici. Nel documento si legge: «Domineremo la superintelligenza, o sarà lei a dominare noi?».

Lo stesso Sutskever, oggi a capo di una start-up di AI Safe Superintelligence, valutata trentadue miliardi di dollari, ancora, peraltro, in fase di sviluppo, in un famoso post del 2023 su X scrisse: «Se dai più valore all’intelligenza rispetto a tutte le altre qualità umane, passerai dei brutti momenti». Ma non tutti la pensano così.

Autorevoli studiosi come Rodney Allen Brooks, ex direttore del Computer Science and Artificial Intelligence Laboratory (Csail) del Massachusetts Institute of Technology, sostiene che le preoccupazioni sulla superintelligenza sono esagerate e premature. Yann LeCun, vincitore nel 2018 del Premio Turing, Chief AI Scientist di Meta, ritiene che l’intelligenza artificiale possa essere potente, ma controllabile, e critica l’allarmismo in toni coloriti: «La paura della superintelligenza è prematura, è come preoccuparsi per il sovrappopolamento su Marte».

Assistenza per i sovraindebitati

Saldo e stralcio

 

Gary Fred Marcus, professore emerito di psicologia e scienze neurali alla New York University e autore del libro Rebooting AI (2019), è scettico sulle capacità attuali dell’intelligenza artificiale e ne critica la narrativa apocalittica. In un articolo sul Financial Times dello scorso gennaio 2025 scrisse: «Siamo lontani dal capire come costruire un’intelligenza generale. L’idea che possa distruggerci è più filosofia che scienza». Non sono i soli.

Molto interessante il progetto finanziato dal Regno Unito che si chiama Safeguarded AI, che mira a costruire un sistema di intelligenza artificiale in grado di verificare se altri sistemi di intelligenza artificiale siano sicuri. Il progetto, che riceverà cinquantanove milioni di sterline, è finanziato dalla Advanced Research and Invention Agency (ARIA) del Regno Unito, un’agenzia governativa lanciata nel gennaio 2023 per investire in ricerche scientifiche potenzialmente trasformative, gemella della Advanced Research Projects Agency (ARPA) degli Stati Uniti.

Yoshua Bengio, vincitore del Turing Award 2018, considerato uno dei «padrini» della moderna intelligenza artificiale, sta collaborando al progetto e sottolinea: «Attualmente stiamo correndo verso una nebbia dietro la quale potrebbe esserci un precipizio. Dobbiamo costruire gli strumenti per eliminare quella nebbia e assicurarci di non attraversare un precipizio se ce n’è uno. La complessità dei sistemi avanzati significa che non abbiamo altra scelta che usare l’IA per salvaguardare l’IA».

Mustafa Suleyman, cofondatore di DeepMind, nel suo ultimo libro The Coming Wave (2023), sul «contenimento» dell’AGI, scrive: «È una sfida monumentale il cui esito determinerà, senza esagerare, la qualità e la natura della vita quotidiana in questo secolo e oltre. I rischi di fallimento sono difficilmente immaginabili, ma dobbiamo affrontarli. Il premio, tuttavia, è grandioso: niente di meno che il sicuro e duraturo prosperare della nostra preziosa specie. Per questo vale la pena lottare».

Anthropic, nelle conclusioni del più recente paper (marzo 2025) Responsible Scaling Policy, scrive: «Speriamo che questo documento possa aiutare la comunità più ampia a unirsi a noi nel consentirci di accedere in modo sicuro e protetto ai potenziali vantaggi dell’Agi».Riusciremo, per una volta, per il bene comune, a superare i nostri individualismi? Vedremo.



Source link

Assistenza per i sovraindebitati

Saldo e stralcio

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Investi nel futuro

scopri le aste immobiliari