Storia dell'intelligenza artificiale
a cura di Zoe Sophie Bruno, Giorgio Consani, Samuel Di Michele, Rebecca Ferlito
con la collaborazione della classe 3M, Liceo Musicale
Nascita ed evoluzioni: Le origini risalgono al XVII secolo, proprio quando venne creata una forma primitiva di calcolatrice, ovvero la “Pascalina”, ideata dal matematico e filosofo Blaise Pascal per agevolare le operazioni algebriche. Nonostante noi siamo a conoscenza dell’invenzione di Pascal, il merito andrebbe attribuito anche ad un altro scienziato di nome Wilhelm Schickard, il quale creò lo stesso tipo di calcolatore semplicemente più facile da usare, in grado di eseguire solamente addizioni e sottrazioni che fu però perso in un incendio.
Un’altra ideazione simile al calcolatore sopra citato è quella dei “bastoncini di Nepero”, secondo la quale ruotando i cilindri si è in grado di comporre alcune combinazioni di numeri formando così le tabelline e i multipli, generando quasi una tavola pitagorica.
Lo sviluppo dell’intelligenza artificiale è fortemente legata all’evoluzione nel campo delle tecnologie informatiche; per questo, circa nella seconda metà del XX secolo, nascono dei metodi di programmazione e calcolatori abbastanza potenti da poter effettuare degli esperimenti sull’intelligenza in maniera più generica: la grande novità si trova nella strutturazione, in quanto vengono utilizzati dei tubi elettronici che sostituiscono i relè, ovvero componenti elettromeccanici. Possiamo inoltre affermare che i primi sviluppatori nell’ambito dell’intelligenza artificiale furono Warren McCulloch e Walter Pitts nel 1943, in cui ipotizzano che le reti siano in grado di apprendere tramite un sistema binario “on/off” attivato tramite sinapsi.
Alan Turing, in un articolo sulla rivista “Mind” del 1950, tratta il tema dell’intelligenza artificiale a livello scientifico, ponendosi il quesito se le macchine siano in grado di ragionare e apprendere concetti oppure no. Sostituisce la sua stessa domanda rimpiazzandola con un “imitation game”, che sarebbe il famoso “Test di Turing”: in sostanza si tratta di un esperimento in cui una persona comunica prima con un altro essere umano e poi con un computer, senza vedere nessuno dei due. Se la prima persona non riesce a distinguerli allora la macchina può essere definita “intelligente”.
Un altro metodo, esperimento mentale, usato da John Searle per definire un computer “intelligente” è quello della “stanza cinese”. Il filosofo si immagina all’interno di una stanza mentre da fuori qualcuno gli parla in cinese; dato che Searle non conosce la lingua non sarebbe capace di replicare, ma se avesse a sua disposizione delle istruzioni che gli traducono in inglese le frasi in cinese, potrebbe ingannare la persona all’esterno pur non sapendo la lingua. Praticamente, quindi, Turing e Searle concludono entrambi che la differenza fra la mente umana e l’intelligenza di una macchina è quella della cosiddetta “attività semantica”: l’uomo è dotato di essa, che gli permette di comprendere le azioni mentali, mentre un computer non la possiede.
Sempre partendo con lo stesso concetto di base, Dreyfus sostiene che l’intelligenza artificiale non possa essere paragonata assolutamente a quella umana, in quanto presenta due limiti principali: l’astrattezza e la necessità di essere espressa tramite algoritmi. Infatti, egli afferma che l’intelligenza è per l’essere umano un dato naturale: l’uomo è sicuramente corpo, e proprio nella sua corporeità risiede la sua capacità di essere intelligente.
La vera e propria nascita dell’intelligenza artificiale è da porre nell’anno 1956, lo stesso anno in cui fu tenuta una conferenza a riguardo al Dartmouth College nel New Hampshire. Durante questa conferenza venne firmato un documento informale all’interno del quale quattro redattori (John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester) suggerirono un progetto di ricerca sull’argomento, introducendo il termine per la prima volta, fornendone anche gli aspetti problematici. Lo scopo di questo studio era quello di “capire come le macchine possano utilizzare il linguaggio, formare astrazioni e concetti, risolvere tipi di problemi riservati per ora solo agli esseri umani e migliorare se stesse”. Dopo il successo di questo progetto l’intelligenza artificiale fu ufficialmente riconosciuta come una vera e propria disciplina.
Sempre il ricercatore McCarthy, nel 1958, progetta un linguaggio di programmazione, chiamato Lisp, in grado di elaborare dati come possono essere le formule matematiche, perciò la “struttura simbolica”. Pensare che alcuni software ancora oggi lo utilizzano in campo militare, aeronautico o governativo.
I primi anni dopo la nascita della disciplina furono pieni di successi e sviluppi incredibili, infatti venne sviluppato anche il General Problem Solver (GPS), in grado di agire in un ambiente non reale. Oliver Selfridge, per esempio, elaborò il Pandemonium, un congegno in grado di riconoscere determinati elementi nelle lettere scritte.
Sempre lo scienziato e ricercatore McCarthy concepisce un’altra idea, ovvero quella dei micro-mondi, in cui secondo lui, si debba immaginare la realtà in forme geometriche per riuscire a rappresentare il mondo fisico così che il computer sia in grado di leggerlo.
Ci fu però un cambio di priorità per quanto riguarda l’intelligenza artificiale, proprio dopo la teorizzazione dei micro-mondi: non era più necessario lo studio sull’apprendimento, quanto la rappresentazione della conoscenza. Detto ciò, possiamo dire che ci fu una prova di questo cambiamento con l’uscita del “Dendral”, nel 1965 a Stanford. Questo programma serve per mappare la struttura molecolare attraverso un’analisi spettrale in modo da determinare la corretta possibilità tra tante.
Negli anni Settanta, vennero creati dei programmi per dare risposta a domande specifiche, definiti “sistemi di produzione”. Ma la traduzione automatica inizia a subire i primi fallimenti, e nacquero così le prime critiche ai ricercatori, le quali affermano che l’intelligenza artificiale non può essere creata così com’era stato promesso. Gli stessi ricercatori si pongono quei problemi; abbiamo Weizenbaum (l’inventore di “Eliza”), per esempio, che si chiede se l’intelligenza artificiale sia morale o meno.
Negli anni Ottanta e Novanta, invece, rispettivamente, viene applicata per la prima volta l’intelligenza artificiale in ambito commerciale, e ci fu un’evoluzione della disciplina grazie alla nascita del PC (Personal Computer): il suo sviluppo continuo ha addirittura portato l’inserimento di algoritmi di intelligenza artificiale senza ausilio di hardware appositi al suo interno.
Definizione Il termine "intelligenza artificiale" è composto da due parole: "intelligenza" e "artificiale". L'intelligenza, derivante dal latino intelligentia, si riferisce alla capacità di comprendere velocemente e trasformare ciò che viene appreso in competenze acquisite. Gli esseri umani possiedono facoltà psichiche che permettono di riflettere sulle proprie azioni e adattarsi alle situazioni, sviluppando una connessione collettiva sulla conoscenza del mondo. Questa capacità viene sviluppata da neonati al raggiungimento della consapevolezza dell’Io. "Artificiale", invece, si riferisce a ciò che non esiste in natura, ma è creato dall'uomo. L'intelligenza artificiale nasce quindi dalla fusione di questi concetti, mirando a ricreare nei sistemi informatici i processi mentali complessi tipici degli esseri umani. La ricerca in questo campo si divide in due direzioni: una cerca di sviluppare sistemi che imitano i processi del cervello umano, mentre l'altra cerca di spiegare i meccanismi mentali attraverso delle simulazioni informatiche. L'evoluzione storica di questa idea verrà successivamente descritta.
Gli Anni Del Nuovo Millennio Nel nuovo millennio, l'intelligenza artificiale (IA) ha rivoluzionato il modo in cui i dati vengono gestiti e utilizzati. I database si aggiornano automaticamente, e gli algoritmi di apprendimento automatico consentono di eliminare l'inserimento manuale. Oggi, l'IA trova applicazione in ambiti sofisticati, come le missioni aerospaziali, ma anche in attività quotidiane, ad esempio nei giochi come gli scacchi o nei sistemi domestici intelligenti per il controllo di riscaldamento e condizionamento. In ambito lavorativo, queste tecnologie migliorano la precisione e l'efficienza, sostituendo in parte l'intervento umano.
L'IA è particolarmente impattante nei settori finanziari grazie all'uso di tecnologie avanzate di ICT che elaborano e gestiscono dati per offrire servizi innovativi. Tuttavia, l'evoluzione continua dell'IA pone anche sfide significative, soprattutto in termini di sicurezza ed etica. Per affrontare queste problematiche, nel 2017 si è tenuta una conferenza ad Asilomar, in California, supportata dal Future of Life Institute. Durante l'evento, esperti come Elon Musk e Stephen Hawking hanno stilato un documento con 23 principi per un uso responsabile dell'IA, raccolti nel libro Life 3.0 di Max Tegmark.
I principi, suddivisi in tre macro-aree – ricerca, etica e valori, e questioni a lungo termine – mirano a garantire che l'IA resti sotto controllo umano. Tra le tematiche principali vi sono la sicurezza, la trasparenza, la privacy, la responsabilità e la condivisione dei benefici. In particolare, si sottolinea l'importanza di evitare che l'IA venga utilizzata per scopi militari, come la corsa agli armamenti, e si promuove uno spirito di cooperazione tra ricercatori per il bene comune.
Uno degli interrogativi centrali è come garantire che i sistemi autonomi rimangano sotto controllo umano. La risposta risiede nell'implementazione di regole specifiche e nella supervisione costante. L'etica gioca un ruolo cruciale, con un'enfasi su privacy, democrazia e trasparenza. Nonostante l'intento di creare linee guida universali, permangono scetticismi e dibattiti sulle implicazioni filosofiche e morali dell'IA, che continueranno a sfidare la società negli anni a venire.