N.B.
Per evitare fraintendimenti o risultati poco accurati da parte dell’AI, è importante che chi la utilizza, soprattutto in ambito meccatronico, abbia una conoscenza solida dell’argomento – diciamo almeno l’80% rispetto al problema da affrontare.
Dai vari esempi allegati, ho notato che alcune procedure e calcoli matematici non erano del tutto corretti o adeguati.
Per arrivare a una soluzione efficace, è stato quindi necessario affiancare l’AI con la mia esperienza, guidandola passo dopo passo.
Vedi esempi allegati:
PROGRAMMA ISO Tornio C.N.C. FANUC
CIRCUITO RESISTENZE SERIE E PARALLELE(Chatgpt e Gemini)
FLESSIONE di una Trave incastrata con una estremità libera
Mi aiuti a comprendere cosa sono le allucinazioni o gli abbagli che una AI può incappare?
Cerca di essere il più prolisso possibile e comprensibile per un comune mortale.
Certo! Ti spiego in modo chiaro, dettagliato e accessibile anche a chi non è esperto di intelligenza artificiale (IA), cosa sono le cosiddette "allucinazioni" (o "abbagli") a cui un'IA può andare incontro.
Nel linguaggio delle IA, un’allucinazione è quando l’IA "inventa" qualcosa che sembra vero, ma non lo è affatto.
Può trattarsi di un dato sbagliato, di un’informazione mai esistita, di una fonte inesistente, o anche di un evento storico che non è mai accaduto.
La cosa ingannevole è che spesso queste "invenzioni" sembrano perfettamente plausibili: sono dette con sicurezza, con un tono autorevole e ben argomentato.
Per capire meglio, partiamo da come funziona un'intelligenza artificiale come me (basata su un modello linguistico, o LLM, "Large Language Model").
Non ragiono come un essere umano.
L’IA non capisce veramente ciò che dice.
Non ha un’esperienza del mondo.
Non ha una conoscenza diretta della realtà.
Prevede la parola successiva.
I modelli come me sono addestrati per prevedere la parola più probabile successiva in una frase, basandosi su miliardi di testi.
Non verifico sempre i fatti in tempo reale (a meno che non mi sia stato collegato a internet in quel momento), ma creo frasi basate su ciò che ho "letto" nel passato.
Lavora su probabilità, non verità.
Quello che l’IA dice non è sempre il frutto di un’analisi logica, ma è la combinazione di parole che statisticamente “suonano giuste”, anche se non lo sono affatto.
Se chiedi:
"Qual è la fonte scientifica che prova che bere tè alla menta cura il diabete?"
Un’IA potrebbe rispondere:
"Secondo uno studio pubblicato nel 2019 sul Journal of Herbal Medicine, il tè alla menta ha dimostrato effetti significativi nel controllo della glicemia nei pazienti diabetici."
Suona benissimo. Peccato che quello studio non esiste.
Se chiedi:
"Chi era presidente degli Stati Uniti nel 1802?"
L’IA potrebbe dire:
"Andrew Jackson era presidente nel 1802."
Ma è falso: il presidente era Thomas Jefferson. Jackson divenne presidente solo nel 1829. L’IA ha "confuso" le date, forse perché entrambi sono figure storiche molto citate.
Può succedere anche con la logica:
"Se Marco ha 5 mele e ne dà 3 a Luca, quante gliene restano?"
Una IA meno affidabile potrebbe dire:
"A Marco restano 1 mela."
(Errore grave: ne restano 2, ma l’IA ha “sbagliato” il conto).
Confusione per l’utente.
Se l’IA dice qualcosa con tono sicuro, tendi a crederle, anche se è falso.
Disinformazione.
Un’allucinazione può diffondere falsità o creare contenuti fuorvianti, soprattutto se chi legge non ha gli strumenti per verificarli.
Rischi in ambiti critici.
In medicina, legge, scienza o finanza, un errore o un’invenzione può avere conseguenze molto gravi.
Immagina l’IA come uno studente molto bravo a scrivere temi, che ha letto milioni di libri, articoli, conversazioni online, ecc. Ma:
Non ha una memoria perfetta.
Non distingue sempre il vero dal falso.
Non conosce direttamente la realtà.
Cerca di "non deluderti", quindi tenta sempre di darti una risposta, anche quando non sa la verità.
E, cosa più delicata, non ha la consapevolezza che sta sbagliando.
Chi sviluppa IA usa molte tecniche per ridurre le allucinazioni, tra cui:
Addestramento con feedback umano (RLHF)
Esperti correggono le risposte sbagliate, e il modello impara a comportarsi meglio.
Verifica dei dati con fonti aggiornate.
Alcune versioni di IA sono collegate a internet o a basi dati affidabili, per confermare le informazioni prima di rispondere.
Segnali di incertezza.
Alcune IA cominciano a indicare se una risposta è incerta, oppure evitano di rispondere se i dati sono insufficienti.
Ecco alcuni consigli pratici:
Non fidarti ciecamente. Se l’IA ti dice qualcosa importante, verifica altrove.
Chiedi le fonti. Se una risposta contiene un fatto critico, chiedi: "Qual è la fonte?" — e controlla se esiste davvero.
Fai domande alternative. Se un dato ti sembra strano, prova a riformulare la domanda o chiederlo in modo diverso.
Usa l’IA come supporto, non come oracolo.
Le allucinazioni delle IA sono risposte inventate o errate, che sembrano credibili ma non lo sono.
Non derivano da malizia, ma dal modo in cui queste tecnologie sono progettate: prevedono testi plausibili, non verità assolute.
La chiave sta nel sapere come usarle consapevolmente e integrare il loro aiuto con spirito critico.
Se vuoi, posso anche farti un piccolo gioco di esempio, per mostrarti come può nascere un’allucinazione in pratica. Fammi sapere!