https://www.editorialedomani.it/fatti/parisi-casa-comune-europea-scienza-ia-rjgh070v
di Paola Ancora
«Dobbiamo capire e governare l’IA. L’Europa adesso crei un nuovo Cern»
Il premio Nobel per la fisica ha firmato un appello che, lunedì 22 settembre, verrà pubblicato sul New York Times e che elenca i rischi legati all’intelligenza artificiale e che suggerisce come affrontarli: «La rivoluzione dell’automobile è stata un salto in avanti gigantesco rispetto all’uso dei carri, ma senza un codice della strada, quella stessa invenzione strepitosa si sarebbe rivelata un disastro. Lo stesso vale per l’intelligenza artificiale»
Il premio Nobel per la Fisica Giorgio Parisi, premiato per i suoi studi sui sistemi complessi, ordinario di Fisica teorica all’università La Sapienza di Roma, è convinto che sia ormai un passo ineludibile «non solo per comprendere meglio come funziona l’Ia, ma anche per capire come governarla, come legiferare correttamente sul tema».
Rinvia ogni analisi sulla prima legge italiana dedicata all’Ia – «non ho avuto modo di leggerla», spiega – ma da Lecce, dove sta partecipando al convegno internazionale “Interdisciplinary Statistical Physics” organizzato dall’Università del Salento in collaborazione con l’Istituto di nanotecnologia del Consiglio nazionale delle ricerche (Cnr Nanotec), chiarisce che «la rivoluzione dell’automobile è stata un salto in avanti gigantesco rispetto all’uso dei carri, ma senza un codice della strada, quella stessa invenzione strepitosa si sarebbe rivelata un disastro. Lo stesso vale per l’intelligenza artificiale ».
Professor Parisi, lo sviluppo dell’intelligenza artificiale è accompagnato da un crescendo di timori. Prende piede persino l’“Ai anxiety”, ovvero l’ansia da Ia. Le ritiene paure immotivate, legate magari a scarse conoscenza o dimestichezza con questa nuova tecnologia, oppure si tratta di paure che hanno una ragion d’essere anche per lei, che le conosce a fondo?
Esistono certamente dei rischi concreti legati all’uso dell’Ia. Posso anticiparle che lunedì 22 settembre, sul New York Times, sarà pubblicato un documento, che ho firmato anche io insieme ad altri esperti di Ia e che elenca tali rischi e suggerisce come affrontarli. Quel documento è frutto di un incontro, tenutosi la scorsa settimana in Vaticano, organizzato già da papa Francesco e che l’attuale pontefice, che è un matematico, ha fatto proprio.
Papa Leone XIV, del resto, ha raccolto l’eredità di Francesco rilanciandola sin dalla scelta del nome e – così come papa Leone XIII a fine Ottocento, con la storica enciclica Rerum Novarum, ha affrontato la questione sociale nel contesto della prima grande Rivoluzione industriale – ha subito chiarito di voler affrontare la grande sfida della Ia, partendo dalla dignità della persona e dal lavoro. C’è anche questo nel documento che ha firmato?
Esiste sicuramente ed è concreto un rischio legato al mondo del lavoro. L’intelligenza artificiale aumenterà la produttività di certe filiere, cancellando o ridimensionando fortemente alcuni mestieri e professioni. L’unico modo per contrastare questo fenomeno è una diminuzione ragionata e su larga scala dell’orario di lavoro: si tratta di una scelta politica importante della quale non si discute abbastanza. Ma se non se parla, allora non si farà mai, nonostante sia la soluzione sicuramente meno impattante dal punto di vista sociale.
Quali sono gli altri rischi legati all’Ia e che lei ritiene più urgente affrontare?
Sono rischi di vario tipo, ma fra i più preoccupanti, direi quello legato a un monopolio. Se una sola intelligenza artificiale viene usata per fare le ricerche in rete, il rischio è di ottenere risposte che rispecchieranno il punto di vista di chi ha “addestrato” l’Ia. Per esempio, il sistema Grok Ai creato da Elon Musk attinge a sole fonti di destra e dunque i risultati offerti hanno tutti quella prospettiva, quell’approccio non obiettivo. Non è un problema da poco.
E come lo si risolve? Ritiene percorribile una gestione pubblica all’intelligenza artificiale? Le risorse stanziate per la ricerca sono ritenute da tanti suoi colleghi e colleghe largamente insufficienti.
Gli stati e le istituzioni pubbliche devono avere la capacità di fare intelligenze artificiali alternative a quelle delle singole industrie private per garantire alla collettività una piattaforma di libero accesso. Come avviene per la televisione: sulle reti pubbliche si rispetta la par condicio, su quelle private si fa ciò che si vuole, ma averle entrambe è fondamentale. Anche perché sull'IA c'è ancora molto da migliorare: il nostro cervello funziona in maniera diversa e più sofisticata. In questo senso, le ricerche di Fisica statistica che stiamo portando avanti sono fondamentali per avere una IA più intelligente e più affidabile.
Sull’intelligenza artificiale Cina e Stati Uniti sono già nel pieno di una guerra commerciale e tecnologica. Il Financial Times ha rivelato che la Cina ha proibito alle sue aziende di comprare semiconduttori prodotti dalla statunitense Nvidia, la maggior specialista di chip per l’Ia. Anche in questo contesto, l’Unione europea resta attrice non protagonista dello scenario internazionale, incapace di difendersi e contrattaccare alle politiche protezionistiche e ai dazi Usa. Cosa servirebbe fare?
Circolava la voce che i chip Nvidia potessero essere disinnescati a distanza e sebbene trovi insensata una simile minaccia, certamente questo ci dà la misura di quanto sia deleterio e dannoso affidarsi a un singolo fornitore e accettare monopoli in questo campo, forse anche più che in altri. Per quanto riguarda l’Europa, dobbiamo innanzitutto fare un grande investimento per la produzione di chip. È paradossale che le migliori macchine al mondo per tale produzione siano realizzate in Olanda, ma che ci manchi, ancora, la capacità di progettare i chip, che è poi l’aspetto fondamentale. Dovremmo puntare sulla ricerca pubblica e farlo a livello europeo per costruire una squadra nutrita e competente di persone che lavorino sull’Ia.
Cosa intende, nello specifico?
Serve una grande iniziativa continentale simile a quella che è stata fatta nel 1954 per aprire il Cern a Ginevra, un grande centro di studi per comprendere meglio e insieme come migliorare l’Ia e come regolarla.
Dalle macchine belliche di Archimede all’intelligenza artificiale applicata in campo militare: la scienza ha spesso servito la guerra. Oggi, come nel Secondo conflitto mondiale, assistiamo a conflitti distruttivi e, contestualmente, a una nuova rivoluzione tecnologica. Allora ci sono stati scienziati – come Józef Rotblat, il grande fisico ebreo polacco che ha concepito l’atomica ed è sfuggito al nazismo – che si sono rifiutati, per ragioni morali, di continuare a lavorare al progetto della bomba. Oggi avrebbe senso una scelta simile?
No, oggi non avrebbe senso tentare di fermare la scienza, ma allora come oggi è fondamentale avere iniziative di pace e non possiamo negare che la situazione attuale sia dovuta anche alla completa inazione di alcune potenze mondiali su questo fronte. Nei primi vent’anni di questo secolo si poteva andare in direzione della pace, ma si è lasciato che i conflitti esplodessero e si è permesso che la Russia, che voleva diventare membro Nato negli anni Novanta e che fu trattata a pesci in faccia, diventasse antagonista dell’Occidente, cosa che dal punto di vista socio- economico non ha nessun motivo di essere.