Fragile e spaventosa. Quale futuro per l'Intelligenza Artificiale?

Il dibattito sull’intelligenza artificiale sta sempre più spesso toccando il tema dell’AGI, acronimo per “artificial general intelligence”. Si tratta di una (immaginata) intelligenza artificiale con competenze “generali”, ovvero in grado di competere, e superare, gli umani non più in una singola attività specifica, ma in tutto lo scibile umano. Alan Turing si interrogava sull’impatto di un’intelligenza artificiale di questo tipo già negli anni ’50, ma è solo negli ultimi 10 anni che il tema ha catturato l’attenzione e gli interessi di un numero crescente di ricercatori, sia sul piano prettamente scientifico che su quello divulgativo. Ricercatori come Nick Bostrom hanno dedicato la propria carriera a studiare il problema – arrivando a conclusioni spesso distopiche: l’AGI arriverà (è solo questione di tempo) e una delle prime cose che farà sarà quella di considerare gli umani come un impedimento alla crescita economica e alla sostenibilità del pianeta, e quindi deciderà di disfarsene. Tesi simili sono state negli anni caldeggiate anche da eccellenti scienziati che si occupano però di tutt’altro. Famoso è il caso di uno dei massimi fisici teorici, Stephen Hawking, che una decina di anni fa dichiarò alla BBC che lo sviluppo dell’AGI potrebbe portare all’estinzione del genere umano (“the development of full artificial intelligence could spell the end of the human race”).
Se da un lato ritengo queste tesi estremamente catastrofiste, dall’altro è certamente fondamentale interrogarsi sul tema e analizzare possibili scenari: dopotutto la scienza non deve solo occuparsi del presente, ma anche dei futuri più o meno possibili – e formulare in anticipo metodi e approccio per gestirli al meglio nel caso dovessero effettivamente presentarsi. Stuart Russell, uno dei massimi esperti in intelligenza artificiale e co-autore del libro di testo più utilizzato nei corsi universitari di intelligenza artificiale, ha recentemente pubblicato un libro divulgativo che affronta il problema di come gli umani potranno mantenere il controllo dell’AGI.
Quanto questo dibattito sia ipotetico o piuttosto attuale, è difficile da valutare. La comunità scientifica stessa si sta sempre più polarizzando, con tesi estreme che variano da chi è sempre più convinto che l’AGI verrà raggiunta in pochi anni, e chi pensa che ciò non accadrà mai. (Una nota di metodo: il link precedente porta a un articolo scientifico pubblicato sulla piattaforma arXiv, che permette di depositare “pre-pubblicazioni”, ovvero articoli non necessariamente sottoposti a peer-review). L’elemento di novità dell’ultimo anno non è solo dovuto agli enormi avanzamenti ottenuti soprattutto nell’ambito del machine learning, in particolare con i modelli a diffusione per la generazione delle immagini dal testo e i modelli linguistici per l’interazione in linguaggio naturale, ma anche e soprattutto agli interventi sempre più frequenti delle stesse industrie che stanno lavorando su queste tecnologie. É sufficiente leggere quanto dice Sam Altman di OpenAI sulla missione dell’azienda, Elon Musk su Tesla e la guida autonoma, o Mark Zuckerberg sui recenti investimenti di Meta, per rendersi conto di come queste figure giochino un ruolo ambiguo, da un lato presentando forte preoccupazione per l’AGI, dall’altro indicando che (solo) grazie al proprio modello di business si riuscirà nell’impresa di costruire un’AGI che sia benevola e controllabile.

Chi ha avuto modo di utilizzare queste tecnologie avrà certamente notato quanto stiano evolvendo, ma anche quanto sofisticate e fragili siano allo stesso tempo. Il punto è che al di là dell’enorme lontananza tra queste tecnologie e l’AGI, sono già strumenti potentissimi sia per supportare gli umani nel proprio lavoro, che per aiutarli a danneggiare la nostra società. É di questi giorni la notizia che il World Economic Forum ha inserito la disinformazione al primo posto dei rischi globali a breve termine. Molte foto di celebrità sui social network (come quella qui mostrata) sono fasulle, generate con tecnologie di AI generativa non solo per comodità, ma anche per ottenere corpi (soprattutto femminili) con curve più accentuate, ed ottenere moltissimi, facili “like”. Ancora più preoccupanti sono le immagini contraffatte delle guerre in corso, sempre più difficili da rilevare e spesso rilanciate dalla stampa come reali.
Strumenti così potenti richiedono di definire priorità, e ad un dibattito su “cosa potrebbe accadere” va affiancato un dibattito su “come affrontare quello che sta già accadendo”, non solo a livello di regolamentazione ma anche e soprattutto a livello di sensibilizzazione di tutti. L’intelligenza artificiale non sappiamo ancora bene dove ci porterà, ma sappiamo certamente che non è più solo un tema per informatici.

Marco Montali

Immagine di apertura: L’occhio di Hal 9000 in “2001: Odissea nello spazio” di Stanley Kubrick

 

Ti potrebbe interessare