Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia. Forse la più popolare tra le “Leggi di Clarke”: aforismi, più che asserti formali, che tuttavia guidano lo sguardo di chi si appresta a esplorare il fenomeno dell’innovazione tecnologica, frontiera della tecnica che ambisce, con una certa presunzione, a suggerire trasformazioni psicologiche, sociali e persino antropologiche.
Con la piena maturazione del web 2.0 - il secondo stadio di sviluppo della rete globale, caratterizzato da una inflazione incontrollata dei dati in circolazione - abbiamo potuto osservare l'emergere di quella che probabilmente sarà considerata la terza fase dell'evoluzione. La diffusione capillare e il costo lato utente relativamente contenuto degli algoritmi LLM, progettati per comprendere, generare e interpretare il linguaggio umano su vasta scala, hanno reso evidente a un pubblico ampio la significativa portata di questa soluzione tecnologica.
Parallelamente, è noto che per raggiungere un'efficacia che li renda veramente appetibili, tali algoritmi generativi richiedono l'addestramento su vasti insiemi di dati. Il dibattito sulla considerazione delle informazioni come beni commerciali è aperto, tuttavia risulta evidente che, in questo scenario, la loro centralità si manifesta con chiarezza. Ci troviamo pertanto all'alba di due problematiche destinate a prevalere nel panorama attuale: la gestione dei dati - in termini di qualità, accessibilità e proprietà - e l'integrazione di queste nuove tecnologie nell'ampio spettro di applicazioni in via di sviluppo.
L'origine principale dello scetticismo verso questi strumenti deriva dalla stupefacente qualità dei testi che riescono a generare. Questi testi vengono composti senza una reale intenzione, attraverso il calcolo delle probabilità condizionali di sequenze di parole basate sul contesto dato, ma raggiungono un livello di qualità talmente elevato da renderli praticamente indistinguibili da quelli scritti da esseri umani. L'analisi si concentra sulle potenzialità e sfide poste dagli strumenti generativi di testo, mettendo da parte la dicotomia tra visioni apocalittiche e ottimistiche. Il nucleo della questione riguarda la loro abilità nel produrre testi di qualità elevata senza intenzione cosciente, basati su calcoli di probabilità. Questa capacità di generare contenuti linguisticamente validi solleva interrogativi sull'integrazione di tali tecnologie nel contesto sociale e culturale, sottolineando in particolare le implicazioni per l'educazione e la pedagogia.
Gli insegnanti emergono come gruppo particolarmente toccato da questi cambiamenti, dato il loro impatto sulla capacità di attenzione e immersione degli studenti, in un'epoca segnata da dispositivi e applicazioni che competono per catturare l'interesse degli utenti. La riflessione suggerisce l'importanza di contestualizzare questi strumenti all'interno delle dinamiche umane, evidenziando la necessità di adattarsi a un ambiente in rapida evoluzione senza perdere di vista le potenzialità educative e culturali.
Gli esperti di educazione sono ben consapevoli delle sfide poste dal linguaggio e dagli strumenti che possono distogliere dal processo di apprendimento. Gli algoritmi LLM non fanno eccezione. Di conseguenza, emerge la necessità di comprendere appieno questi strumenti.
Diventa essenziale identificare l'opportunità di spostare l'attenzione dall'utensile all'utente - il formatore o l'insegnante - che deve, innanzitutto, riconoscere il proprio ruolo nel contesto sociale e comprendere le dinamiche e i processi legati alla propria professione. Questo approccio permette di integrare correttamente queste tecnologie avanzate, restituendole a una dimensione umana, creata da e per l'uomo, distaccandole nettamente dall'aura di magia che sembrano evocare.