Trascrizione della Puntata #3 


umAnI | Intelligenze umane ed artificiali: dal cervello a ChatGPT - Tomaso Poggio



Disclaimer: Il testo seguente e’ ottenuto partendo dalla trascrizione automatica fornita da YouTube, successivamente processata da ChatGPT per definire la punteggiatura ed aggiustare la sintassi. Il risultato e’ estremamente fedele all’intervista, e pertanto conserva la natura tipica di una chiacchierata, fatta di pause, interruzioni, etc. Ecco perché a tratti la prosa può sembrare altalenante nella forma. Magari un giorno, se avrò un po’ di tempo, metterò tutto in ordine :-) 



Michele: Tomaso Poggio, uno degli scienziati italiani più conosciuti al mondo, con più di 12.0000 citazioni, centinaia di pubblicazioni… molti ti chiamano uno dei padri dell'intelligenza artificiale! È un grandissimo onore intervistarti stasera ed averti ospite per la puntata del podcast "UmAnI". Grazie di essere con noi!


Tomaso Poggio: Grazie a te!


Michele: Vorrei iniziare con una curiosità: sono andato a cercare un po' della tua produzione scientifica e guardando il sito "Top Italian Scientists" mi sembra che sei il primo o il secondo in computer science, e però c'è questa nota che mi ha incuriosito molto: "il più eclettico". Questo perché evidentemente tu hai scritto e hai fatto ricerca su neuroscienze, intelligenza artificiale, visione sia umana che computazionale. Allora volevo chiederti qualche aneddoto, qualche storia sul tuo percorso e soprattutto dove hai iniziato. Ho visto che ti sei laureato in fisica, questa è una cosa che interesserà tantissimo ai nostri studenti del Dipartimento. E se nel corso del tuo percorso hai avuto una sorta di stella polare che ti ha guidato lungo la strada; qualche domanda che ti ha ossessionato, nel senso buono della parola, fin dall'inizio?


Tomaso Poggio: Eh, una buona domanda, sì. Direi che ancora prima di decidere di diventare un fisico, di fare fisica all'Università, mi ero appassionato al mito di Einstein, alla teoria della relatività, all’idea che si potessero fare dei Gedankenexperiment, cioè degli "esperimenti mentali", e con questi raggiungere delle conclusioni tipo E = m c^2. Però allo stesso tempo mi sono rapidamente reso conto che di problemi tipo quelli affrontati nella relatività, nella relazione tra il tempo e lo spazio, ce n'erano tanti altri di grandi problemi della scienza, ed era impossibile pensare che una sola persona, anche un Einstein, potesse risolverli tutti. Di qui la conclusione che il problema più grosso era quello dell'intelligenza, nostra, quella di cercare di aumentarla, ad esempio con computer che ci aiutano; e per aumentarla, naturalmente, anche capirla. E di qui è nata la mia passione per la neuroscienza e per l'intelligenza artificiale, specialmente il machine learning. Ho deciso di fare fisica perché tra le soluzioni che c'erano allora negli anni '60, tra biologia, fisica e altre facoltà, la fisica era quella che in Italia, a Genova, era sicuramente la migliore dal punto di vista degli insegnanti. La biologia adesso non è così, ma allora era, direi, qualcosa di più simile alla zoologia, non era ancora biologia molecolare. A matematica avevo pensato, ero stato anche spinto da un professore di matematica a far matematica, ma poi avevo deciso che era un po' troppo stretta, diciamo; a fisica si impara un po' di tante cose di matematica, forse un po' superficialmente, ma non ci si mette in un vicolo che può essere molto profondo ma anche molto stretto come spesso succede nella matematica.

Michele: Quindi, diciamo, la fisica, sono d'accordo, ci dà quella sorta di forma mentis che poi abitua a ragionare di diversi problemi. Quindi, cercare di capire l'intelligenza, mi pare di capire, è stata un po' la tua linea guida. Questo è interessante perché ascoltavo proprio qualche giorno fa una lectio magistralis fatta da Geoffrey Hinton (registrata su YouTube) all'Università di Toronto credo, e lui diceva che si è avvicinato al machine learning più o meno seguendo la stessa strada. Cioè, era interessato a studiare l'intelligenza umana, aveva visto che con la psicologia o con le neuroscienze del suo tempo si stava entrando un po' in vicoli ciechi e aveva pensato di studiare, cioè capire qualcosa in più del cervello umano, di come funziona il cervello umano, in particolare l'intelligenza, andando a studiare, a creare di fatto l'intelligenza delle macchine. E allora volevo chiederti, quanto è forte, quanto continua ad essere forte il legame fra intelligenza umana e intelligenza artificiale? Le reti neurali artificiali sono ispirate alle reti neurali biologiche: quanto è potente questa analogia? Possiamo considerarla già saturata in un certo senso, o continuerà a contribuire a scoperte breakthrough?

Tomaso Poggio: È una ottima domanda. Do un po' di contesto. Circa 14 anni fa, dunque aspetta, no, più, abbiamo fondato qua al MIT il Center for Brains, Minds and Machines [di cui Tomaso e’ direttore]. È partito nel 2013, però avevamo uno dei grossi centri del NSF, sono 50 milioni di dollari per 10 anni, per cui rispetto a tanti altri è grande, diciamo. Non è grande rispetto a società tipo Google, DeepMind o simili, però per NSF è un grosso impegno, diciamo. Questo era partito con l'idea che Brains, Minds and Machines era una scommessa sul cercare di capire, di far progresso sul capire l’intelligenza, sia quella naturale che artificiale. Allora, nel 2012, la scommessa era che capire meglio l'intelligenza umana o i processi, la neuroscienza potesse aiutarci a fare dei sistemi di intelligenza artificiale migliori. E questo era vero allora. La ragione per cui lo pensavamo era perché, come dici te, i neural networks erano partiti proprio dall'analogia col cervello. Alcuni dei primi progressi, anche gli stessi progressi in deep learning, partivano proprio da scoperte sulla corteccia visiva, la struttura dei neural networks gerarchica, multi-layers, deve l'idea iniziale a quello che Hubel e Wiesel a Harvard avevano trovato negli anni '70, quando avevano registrato l’attivazione dalle cellule nella corteccia visiva delle scimmie. Avevano trovato varie aree di complessità crescente, che avevano chiamato simple cell, complex cell, hypercomplex cell, come different layers neural.

Michele: Come se fossero i layers convoluzionali gerarchici di una rete conv.

Tomaso Poggio: Esatto. Infatti nel mio laboratorio avevamo sviluppato un modello che era simile al neocognitron di Fukushima, che forse è stato il primo a cercare di mettere queste idee che venivano dalla biologia in un computer. Avevamo sviluppato un modello simile, che si chiamava HMAX, e che anche se veniva sviluppato per essere fedele a quello che conoscevamo delle cellule nella corteccia visiva, proprietà tipo il campo ricettivo, tipo le features a cui questi neuroni rispondevano, però quando l'avevamo sviluppato, nel 2002, era anche uno dei migliori sistemi di computer vision. E per cui questo ci ha dato una spinta per credere che la biologia potesse continuare a farci vedere dove andare coi sistemi artificiali. Quello che però è successo negli ultimi 6 o 7 anni, soprattutto con Transformers e Large Language Models, è che l'ingegneria non ha preso l'imbocco dalla biologia, ma ha sviluppato delle idee proprio senza troppe connessioni dirette. Indirette, sì, perché sono ancora neural networks, eccetera, però l'architettura di un Transformer, l'idea del training su autoregressive word to predict next word, non viene dalla neuroscienza. Viviamo questa, diciamo, spaccatura che nei primi 20 anni la neuroscienza ha guidato il machine learning (dal mio punto di vista), e negli ultimi 10 anni questo non è successo. Adesso è difficile dire cosa succederà nei prossimi anni.

Michele: Esatto, ci leghiamo proprio alla domanda che volevo farti. Siamo a un livello in cui se uno guarda le performance di state-of-the-art neural networks su dataset come ImageNet, ad esempio, dopo un decennio buono di monopolio delle reti convoluzionali, adesso i Vision Transformers sono molto più potenti delle reti convoluzionali, soprattutto quando si fa fine-tuning o transfer learning di modelli già pre-allenati. E come giustamente tu ci raccontavi, questi Transformers, queste nuove architetture, sono un po' distaccate dall'analogia, dall'ispirazione biologica. Allora, forse, adesso siamo proprio nella transizione di fase in cui si può cominciare a prendere dal machine learning per convogliare informazioni nelle neuroscienze. Cioè, fino adesso abbiamo preso cose da un lato e trasportate nell'altro. Adesso magari si può iniziare a fare il contrario. Sei d'accordo con questo? E se è così, se dovessi scommettere, quale ti aspetti che sia il prossimo breakthrough? Cioè, c'è un'architettura secondo te che sarà migliore dei Transformers?

Tomaso Poggio: Difficile dirlo, quasi sicuramente sì, perché non c'è veramente una spiegazione teorica del perché i Transformers dovrebbero essere l'architettura unica o migliore nel fare quello che fanno. Mi aspetto che ci saranno delle architetture migliori, però quali saranno, questa è una domanda da un miliardo di dollari. Letteralmente.

Michele: Esatto, letteralmente da un miliardo di dollari, se si pensa ai valori che ha raggiunto Nvidia o società tipo OpenAI, siamo nel range dei molti miliardi di dollari. Infatti uso proprio questa informazione per chiederti un'altra cosa. Siamo in questo regime di grande popolarità dell'intelligenza artificiale. Adesso si parla di miliardi di dollari, società come DeepMind, OpenAI, Nvidia stanno facendo soldi estremi. Perché? Questo non era così, o almeno non su queste scale, fino a, non so, 5-6 anni fa, forse anche 3 o 4 anni fa. La grande novità è stata ChatGPT, cioè i modelli di auto-regressive large language models. Come funzionano? Sono grandi Transformers, quindi reti neurali particolari. Adesso non entriamo bene nel dettaglio di come funzionano, però vengono allenati su tutto, o quasi, il testo presente su internet, nel caso di OpenAI, quindi GPT, che è Generative Pretrained Transformer. E quello che fanno è predire il token o meglio la parola )(per semplificare) immediatamente successiva. Cosa ne pensi di GPT-4 ad esempio? È qualcosa che possiamo avvicinare al concetto di cui si sente parlare, questo famoso Artificial General Intelligence, o secondo te siamo lontani da lì?

Tomaso Poggio: Artificial General Intelligence (AGI) è stato definito in vari modi. Direi che non ci siamo ancora, ma ci siamo vicini. Preferisco pensare a sistemi che passano il test di Turing: se possiamo distinguerli da una persona o no quando conversiamo. 

Michele: Ma ChatGPT lo passa, lo passa abbondantemente.

Tomaso Poggio: Esattamente. Quello è il punto. Penso che per la prima volta nella storia dell'umanità abbiamo dei sistemi che sono intelligenti come noi. Non voglio essere troppo dettagliato, però questi sistemi, ChatGPT e GPT-4, da certi punti di vista sono più intelligenti di noi. Parla più di 100 lingue! E da altri punti di vista non sono intelligenti come noi, ancora. Però, diciamo, se lo diciamo a livello approssimativo, se non mi prendi troppo nei dettagli, sono intelligenti come noi. Sono forme di intelligenza diverse dalla nostra, ma allo stesso livello, all'incirca. E per la prima volta possiamo studiare queste diverse forme di intelligenza, non solo l'intelligenza umana, ma anche queste intelligenze artificiali. È una specie di comparativo dell'intelligenza che possiamo seriamente cominciare a fare.

Michele: Questa cosa mette un po' i brividi, nel senso è super emozionante. Immagino per gli studenti che stanno appena iniziando debba essere grandioso la possibilità di convivere, tra virgolette, con una forma di intelligenza diversa dalla nostra. Difatti, una specie a tutti gli effetti artificiale, che si può studiare. Si può cercare di capire come funziona. Ilya [Sutskever], ad esempio, da OpenAI, qualche mese fa sentivo una sua intervista in cui diceva: "Ragazzi, guardate che voi criticate tanto questa tecnica del next token prediction, quindi di fatti questa sorta di intelligenza un po' degradata che basa tutto sulla predizione della parola subito dopo. Però per fare questo devi avere una conoscenza codificata in un numero di neuroni che tutto sommato è più piccolo di quello del nostro cervello”.. ma di un fattore 100 se non sbaglio. Quindi è grandioso! 

Tomaso Poggio: Effettivamente; ci sono naturalmente tanti che criticano Transformers e large language models dicendo che sono pappagalli stocastici, però la domanda è: noi cosa siamo? Forse lo siamo anche noi. Cioè, le domande interessanti vengono proprio da lì. Ma siamo diversi? Non è facile la risposta. Non è che si possa dire "Sì, siamo sicuramente diversi". Sicuramente non è esattamente la stessa forma di intelligenza. L'evoluzione ci è arrivata in un modo diverso, non aveva internet a disposizione, eccetera. Però può darsi che ci siano principi comuni, principi fondamentali di intelligenza che sono comuni tra queste diverse forme di intelligenza. Prima parlavo di studiare in un modo comparativo queste forme di intelligenza: come la biologia ha fatto per i vari genomi. Abbiamo trovato un sacco di informazioni utili per la medicina umana studiando il genoma della Drosophila e paragonandolo al nostro. Tanti dei geni sono in comune, il DNA è lo stesso dappertutto. La mia speranza personale è che ci siano principi fondamentali per tutte le forme di intelligenza e che forse potremmo scoprirle facendo questo studio comparativo tra l'intelligenza umana e queste artificiali.

Michele: Questo è bellissimo! Cioè, appunto, è una società, immagino, così a livello di visione e immaginazione, una società in cui convivono tanti tipi di intelligenza diversi. Ci si studia a vicenda, dal nostro punto di vista studiamo l'intelligenza artificiale, il cervello di GPT-4 o GPT-5 quando sarà. Tra l'altro, Sam Altman ha scritto su Twitter qualche giorno fa dicendo "quest'anno sarà un anno di svolta", quindi magari hanno GPT-5 in cantina, non so. Quindi, però, questo è interessantissimo. Ma da un altro punto di vista mi incuriosisce la seguente domanda che voglio farti. Tutto sommato, queste tecnologie su queste scale, quindi parliamo di GPT-4 o Gemini di Google… Tra l'altro, se non sbaglio sei stato il supervisor di Demis Hassabis di DeepMind, vero? Ok, giusto per far capire agli ascoltatori il calibro dell'ospite. Dicevo, queste tecnologie così intelligenti sono nelle mani di industrie. Quindi è emozionante pensare al futuro prossimo, o magari al presente, in cui conviviamo con altri tipi di intelligenza. Però quanto è sensato il rischio che la ricerca e la produzione di queste diverse forme di intelligenza sia guidata da logiche industriali capitalistiche? Perché poi sono loro che hanno questi grandissimi capitali. Invece, nella mia visione ideale del mondo, forse naif, questo sarebbe nelle mani dell'accademia. Quindi, nel tuo lab si studierebbe GPT-4, invece che io sappia i pesi non sono open-source etc…

Tomaso Poggio: Questo è uno dei pericoli grossi dell'intelligenza artificiale. Non è tanto quello che… Naturalmente niente ha probabilità zero, quasi niente. Ma non credo che le probabilità che di colpo un sistema tipo ChatGPT diventi enormemente più intelligente e malvagio e voglia distruggerci siano alte. Quello che però ha una probabilità molto più alta è che questi sistemi vengano usati in modi che danneggiano la società. E questo è già successo con i social media, per cui non è una novità, purtroppo. Chiaramente questi sistemi potrebbero peggiorare la situazione, soprattutto quando sono in mano di pochi. Dal punto di vista del progresso scientifico, credo che ci sia però una grossa opportunità per l'accademia. Forse una speranza un po' naif, ma la speranza è che le architetture di adesso, l'approccio di adesso basato su big data, naturalmente ha prodotto risultati che sono già utilissimi, applicazioni che un sacco di soldi e usate da un sacco di gente. Però non sarà l'ultima architettura, l'ultima idea di come avere dei sistemi intelligenti. Chiaramente non sappiamo ancora come mai questi sistemi funzionano bene quanto funzionano. Non lo sappiamo dal punto di vista teorico, per cui c'è un'opportunità per fare scoperte a livello di fisica teorica, di teoria dell'intelligenza. Non credo che queste architetture siano l'ultimo modo migliore per risolvere questi problemi. In un certo senso, non avere i computer Nvidia, i chips di centinaia di milioni di dollari, forse è un vantaggio per l'accademia, perché dobbiamo trovare altre soluzioni. Dopotutto, il nostro cervello non consuma tutta l'energia che un Transformer di OpenAI ha consumato per fare il training di GPT-4. Per cui ci sono altri modi, si tratta di scoprirli. Credo che ce ne siano diversi, non è una soluzione unica.

Michele: Questo sono sicuro farà molto piacere sentire queste parole a diversi ragazzi del dipartimento del gruppo di Duccio Fanelli, del nostro direttore, che stanno lavorando proprio sulla network dynamics, cercando di spiegare, di fare modelli teorici di come funzionano le reti. Io nel mio piccolo mi imito ad applicare i modelli all'astrofisica, però ci sono anche gruppi qui nel dipartimento che invece ne studiano la teoria per cercare di renderli più efficienti. Proprio l'efficienza hai citato, come funziona, quanta energia spende il cervello. Il nostro cervello funziona con più o meno con 20 W, cioè mangiamo un piatto di pasta al giorno e possiamo pensare cose brillanti per tutto il giorno. Invece GPT-4 ha bisogno di energie assurde. Però voglio farti una domanda legata a questo. GPT-4 consuma in fase di training tantissimo, e consuma anche in fase di inferenza: c’è un costo per token che poi è quello che noi paghiamo quando diamo i soldi a OpenAI, penso che parte di quei soldi vadano nel consumo di energia (si potrebbe anche calcolare quanto costa, però c'è un costo chiaramente più alto di quello del cervello). Però, correggimi se sbaglio, una volta che uno ha GPT-4 e ha i pesi, può copiare e incollare e riprodurre 1000 AI agents con la conoscenza di GPT-4 in pochi secondi. Mentre per fare 1000 esseri umani pensanti bisogna addestrarli per almeno 10 anni. Cioè, uno prima di 10-12 anni non riesce a fare dei pensieri che siano così intelligenti. Non so se mi riesco a spiegare.

Tomaso Poggio: Son d'accordo, certo. Naturalmente c’e’ tutto il discorso sui posti di lavoro e se i sistemi intelligenti produrranno disoccupazione e malessere sociale, eccetera. Personalmente penso che questo sia proprio un problema che, se avverrà, è un problema della società, della politica: non problemi facili, ma non è un problema tecnologico. Se abbiamo una società in cui ci sono macchine con GPT-4, robot con Gemini che possono sostituire quelli che costruiscono case ed edifici, come società non saremmo necessariamente più poveri: saremo ugualmente ricchi, probabilmente più ricchi. Si tratta solo di dare da vivere a tutti e non a pochi individui che approfittano di una nuova tecnologia. Non deve essere per forza un'utopia un mondo in cui la gente ha bisogno di lavorare meno, si può divertire di più, può far degli hobby intelligenti, dagli sport alle arti. Non deve essere, non deve necessariamente succedere che l'intelligenza artificiale produca una società più scontenta. Però, come dicevo, sono problemi di politica che certe volte sono più difficili dei problemi della scienza e della tecnologia.

Michele: Sì, c'è il rischio che se non venga democratizzato l'accesso all'intelligenza artificiale, questa possa contribuire a polarizzare la società. Secondo me questo è il rischio più grande, cioè proprio la sfida più grande dell'AI non è tanto nel cercare l'architettura più efficiente del Transformer a questo livello, o generalization across domains. È piuttosto cercare di evitare un'ulteriore polarizzazione. Il problema è politico, appunto. Così ti chiedo, di pancia, secondo te siamo pronti a questo?

Tomaso Poggio: Ah, no, non ancora. Però c'è un po' di tempo. Il problema, uno dei problemi, è appunto la velocità con cui le cose cambiano. Spero che non cambino troppo in fretta. Mi ricorda qualcosa che Gabriel García Márquez, lo scrittore sudamericano, aveva scritto. Scrisse che i viaggi in aereo erano innaturali per gli uomini perché uno si spostava da un posto all'altro senza potersi adeguare ai diversi fusi orari e avrebbe invece dovuto farlo in modo più naturale, più umano, sostanzialmente camminando, in modo più lento. Questo mi fa pensare che forse l'evoluzione dell'intelligenza artificiale sta succedendo un po' troppo in fretta per noi umani per adeguarci in modo sufficiente a poterne sfruttare i vantaggi ed eliminare i pericoli.

Michele: Sì, l'impressione, la mia impressione da persona che ne sa poco di politica, è che la società viaggi un po' su due binari paralleli ma opposti. Cioè, la tecnologia che avanza, l'AI in questo caso, che raggiunge vette mai viste prima, però la classe politica e le azioni politiche continuano a parlare di problemi troppo vecchi e non siamo a passo con i tempi. La politica è un passo indietro rispetto alla scienza.

Tomaso Poggio: Sì, sì, persino anche la legge è un altro problema. Per esempio, ChatGPT e altri sistemi simili hanno sollevato il problema del copyright. Non è il pericolo più grosso, però è un problema di portare via il lavoro a artisti, scrittori. E chiaramente le leggi dovranno adeguarsi a questo. Purtroppo ci vuole tempo per i vari governi, democrazie o no, per passare leggi che siano giuste per tutti. Per esempio, c'è una causa del New York Times contro OpenAI. Chiaramente OpenAI dovrebbe pagare perché ha sfruttato il lavoro di scrittori e giornalisti. È difficile dire quanto, però ci dovranno essere delle leggi che tengano conto di questi nuovi problemi. Il tempo di cui la nostra società ha bisogno è proprio per prepararsi e confrontarsi in modo equo e giusto con le tecnologie. Il fatto che ci siano nuove scoperte, nuovi sviluppi quasi ogni giorno è estremamente emozionante, però spero che non succeda tutto troppo in fretta per il bene della nostra società.

Michele: Vedremo. Senti, voglio togliermi un altro dubbio. Adesso che ti ho qui con me voglio approfondire tutte le curiosità che ho. Io sto lavorando anche in computer vision; inizierò insieme ad una collega del CNR un corso di computer vision l'anno prossimo nella laurea magistrale in data science. Infatti, sto studiando anche i tuoi libri e articoli. C'è questo bellissimo che si chiama "Visual Cortex and Deep Networks", fatto benissimo. Voglio ricollegarmi un attimo a computer vision perché tornando ai large language models, questi sono allenati su testo, quindi su una rappresentazione del mondo codificata nel linguaggio. Sentivo qualche settimana fa un'intervista di Yann LeCun in cui affermava che secondo lui i large language models non hanno una buona conoscenza del mondo, una conoscenza del mondo che si può dire sufficiente, semplicemente perché sono basati sul linguaggio, che è una proiezione troppo ristretta della realtà. Ad esempio, faceva questo esperimento mentale in cui diceva che un bambino di 4 anni ha visto più informazione nel corso della sua vita tenendo gli occhi aperti 12 ore al giorno di un large language model, seppure quest’ultimo sia allenato su tutto il testo del web, che sono tipo 10^13 Bytes. Comunque, i nervi ottici recepiscono moltissima più informazione. In 4 anni hai preso più informazione, magari ridondante, ma più informazione in termini di Bytes del testo. Quindi provocava un po' dicendo che i modelli di linguaggio diventeranno veramente simili all'intelligenza umana quando cominceranno in maniera nativa ad avere percezione sensoriale, quindi visione, per esempio. Allenati su video, ad esempio.

Tomaso Poggio: È molto difficile calcolare l'informazione effettiva che c'è in un testo e nelle immagini. In termini di Bits per riprodurre le immagini ce n'è tantissima, ma quanta viene veramente usata dal nostro cervello, quanto ha un impatto sulle sinapsi, è tutto un problema molto difficile da discutere. Ora, dal punto di vista dell'intelligenza, ci sono esempi di persone come noi che sono nate cieche e che sono perfettamente intelligenti a livello di come possiamo misurarlo discutendo con loro. Per esempio, sono sicuro che nella maggior parte dei test di IQ queste persone cieche farebbero altrettanto bene di una persona normale. Ora, ci sono parti dei test che coinvolgono immagini o disegni o grafie, escludo quelli. Ma chiaramente una parte grossa della nostra intelligenza è anche la parte di intelligenza motoria. Prendiamo un esempio tipico: l'abilità di riconoscere facce, che è hardwired, genetico praticamente. Ci sono regioni nel cervello che sono specializzate per riconoscere facce.

Michele: Esatto, c'è una ragione evolutiva.

Tomaso Poggio: Sì, riconoscere l'amico, il nemico è molto importante.

Michele: O la mamma, ad esempio.

Tomaso Poggio: Esatto, e inizia proprio lì. Però c'è una variabilità nella capacità degli individui di riconoscere facce. Ci sono super recognizers e altri che non sono così bravi. I politici, probabilmente, tradizionalmente dovrebbero essere bravi. Ed e’ scorrelato con tutte le altre forme di intelligenza, per esempio quella che misuri sull'IQ test. Per cui, se uno include tutti questi aspetti dell’intelligenza… il controllo motorio, per esempio, anche lì ci sono individui che sono super intelligenti in questo campo, sono atleti bravi. Ora, questo naturalmente non fa tradizionalmente parte di quello che chiamiamo intelligenza, anche se personalmente penso che dovrebbe esserlo. Se includi tutto questo, chiaramente Yann ha ragione, i large language models non dovrebbero limitarsi al linguaggio. Tra l'altro, non è che si limitino al linguaggio, però tanto è basato su training linguistico. Ci sono tutte le parti che dal punto di vista dell'evoluzione sicuramente sono state tra le prime abilità a svilupparsi nel cervello, proprio quello di programmare i movimenti, afferrare delle cose. Probabilmente è una delle forme di intelligenza che si è sviluppata prima nella storia dell'evoluzione. E questa non è catturata in pieno dai Transformers o large language models. Questo non dice che non possano arrivare a quel punto nel futuro abbastanza prossimo.

Michele: Wow. Senti, so che non posso tenerti qui con me, vorrei parlare con te per altre ore. Magari una volta che vieni in Italia, ti invitiamo qui, ci fai un talk in dipartimento perché ci sono tante persone che sarebbero interessantissime al tuo lavoro. Lavoriamo con AI sia nel campo dell'astrofisica, neuroscienze, fisica medica, quindi la tua expertise coprirebbe e accontenterebbe molte persone. Prima però di lasciarti ti chiedo solo di rispondere a questa domanda, una curiosità. Mettiamoci un attimo nella prospettiva immaginaria che arriva un tuo studente e ti dice: "Tomaso, ho raggiunto l’AGI”, e ti dà qualcosa che non so, un giorno avrà GPT-10, e ti dice, “te mi hai aiutato nel mio percorso, quindi voglio che tu sia la prima persona ever a fare una domanda all'AGI". Qual è la domanda che chiederesti?

Tomaso Poggio: Gli chiederei per quale squadra tifi.

Michele: Aaha, Grandissimo!

Tomaso Poggio: [ride] E’ che stiamo parlando in Italia, e l’Italia è forse un po troppo pazza per il calcio.

Michele: Questa risposta era completamente inaspettata e dimostra il tuo grado di brillantezza. È stato veramente un onore grandioso parlare con te, Tomaso, veramente. Spero di rincontrarti presto, magari di avere un'altra conversazione e magari di averti qui a Firenze. Grazie mille, davvero.

Tomaso Poggio: Grazie a te!








Email: michele.ginolfi@unifi.it

cover image: HUDF (NASA, ESA)