L7: Evoluzione del computer, dal pallottoliere allo schermo grafico e oltre
L8: Dentro i Bits, il mondo Raster
L9: Leggere, Scrivere, Presentare: La Collana La Rivoluzione Informatica in Architettura
L10: Architettura e presenze delle superficie
L11: Tema d'anno TTLine
L7: Evoluzione del computer
Dal pallottoliere allo schermo grafico e oltre
La tecnologia nel corso delle generazioni
Il progresso tecnologico ha avuto un impatto determinante su ogni generazione, orientando la società verso nuove modalità di comunicazione e invenzione. Ogni epoca ha visto l'introduzione di strumenti che hanno rivoluzionato la vita quotidiana delle persone:
Nel periodo di Garibaldi, il telegrafo: una vera e propria svolta nelle comunicazioni, che ha consentito scambi immediati tra città e continenti.
Ai tempi di Terragni, il cinema: una forma di narrazione innovativa che ha cambiato il modo di raccontare storie e diffondere cultura.
Ai tempi di Maiorana, la radio: un mezzo di comunicazione di massa che ha portato informazioni, musica e cultura nelle case di tutti.
Ai giorni di Steve Jobs, il Macintosh: l'inizio della rivoluzione dei personal computer, che ha reso la tecnologia accessibile e creativa.
Oggi, l’iPhone: uno smartphone che ha messo il mondo nelle nostre mani, cambiando per sempre il modo in cui interagiamo e ci connettiamo.
Nel corso della storia, il calcolo è sempre stato affiancato da strumenti o metodi che sfruttavano l’abilità umana per eseguire operazioni complesse. Dall’abaco ai primi calcolatori meccanici, l’obiettivo era alleggerire e velocizzare i calcoli, riducendo l’impegno cognitivo. Questi sistemi hanno progressivamente ceduto il passo ai computer elettronici, ma il principio della “leva umana” rimane una fonte di ispirazione per ogni strumento tecnologico.
Charles Babbage, con il suo lavoro sulla Macchina Differenziale, è stato il primo a concepire una macchina in grado di compiere calcoli automaticamente. Le sue “tavole numeriche” dovevano risolvere problemi matematici complessi, mentre il concetto di "differenze finite" rappresentava la base del calcolo meccanico. Al suo fianco, George Boole ha sviluppato la logica che avrebbe alimentato i calcolatori successivi. La logica booleana, che include operatori come AND, OR e NOT, è alla base della programmazione moderna. Questo sistema, che si fonda sul linguaggio binario inventato da Leibniz, si distingue dal codice Morse, che utilizza cinque simboli per la comunicazione. Il linguaggio binario, con i suoi soli due stati (0 e 1), è alla radice della logica dei computer, grazie alla sua semplicità e potenza.
IBM, inizialmente nota per i suoi calcolatori elettromeccanici, fu una delle prime aziende a intuire il potenziale dei computer nel settore industriale. Con l’introduzione dei mainframe negli anni '50 e '60, IBM ha aperto la strada all'uso dei computer come strumenti di gestione aziendale. Questa evoluzione ha portato alla standardizzazione dei sistemi, consolidando IBM come leader di settore e dando il via alla diffusione dei personal computer.
La transizione dal transistor al chip è stata una delle evoluzioni tecnologiche più significative del XX secolo. Tra i pionieri di questa rivoluzione si colloca l’ELEA, il primo computer completamente basato su transistor, progettato dalla Olivetti. Creato da Ettore Sottsass e Mario Tchou, l’ELEA combinava innovazione tecnica e bellezza estetica, dimostrando come il design italiano fosse capace di unire tecnologia avanzata e stile.
Negli anni '70, l'idea del personal computer ha preso piede, quando i dispositivi elettronici sono diventati più compatti e accessibili. I primi personal computer, prodotti da aziende come Apple e Commodore, hanno trasformato il concetto di computer, portandolo nelle case e nelle scuole. Questo ha segnato l’inizio di una democratizzazione della tecnologia, aprendo la strada alla creazione di software e applicazioni personali.
L’introduzione del sistema operativo DOS, insieme alla legge di Moore (che prevede il raddoppio della potenza dei processori ogni due anni), ha reso possibile l’esplosione del personal computer. Il DOS ha stabilito uno standard operativo che ha consentito agli sviluppatori di creare software compatibili, alimentando la crescita del mercato dei personal computer.
L’evoluzione del Macintosh ha segnato un’importante pietra miliare nella storia delle interfacce grafiche e delle applicazioni multimediali. Con l’introduzione di QuickDraw (1983), PostScript (1985) e QuickTime VR (1996), il Mac ha stabilito nuovi standard per l’interazione intuitiva e la qualità visiva. Un’altra innovazione significativa è stata la nascita del mouse, un accessorio che ha radicalmente trasformato il modo di interagire con il computer, rendendo l’interazione più naturale e fluida, come descritto nell’articolo di Ted Nace su MacWorld (novembre 1984).
La rivoluzione del "bit" si è concretizzata grazie alla sinergia tra hardware, schermo bitmap e plug-in di sistema, che operano simultaneamente per offrire un’esperienza utente migliorata. Tra le tappe fondamentali di questa evoluzione ci sono stati il QuickTime VR (1996), precursore di strumenti come Google Earth, e l’introduzione della condivisione schermo nel 2008, del riconoscimento facciale nel 2009 e della georeferenzialità delle foto nello stesso anno. Tutti questi sviluppi hanno arricchito l’esperienza interattiva degli utenti. Con il lancio di Siri il 12 ottobre 2012, l’intelligenza artificiale è entrata nella vita quotidiana, aprendo nuove possibilità di interazione e ampliando il concetto di bit come interfaccia tra significato e semantica.
L8: Dentro i Bits
Il mondo Raster
L'ingresso nel mondo Raster
Abbiamo varcato la soglia del mondo raster, un universo costituito da punti e griglie, dove ogni immagine che vediamo è composta da minuscole unità grafiche. Questo mondo, rappresentato da software come Adobe Photoshop, è il fondamento delle immagini digitali e della grafica che ormai ci circonda ovunque. La lezione ci guida alla scoperta della rivoluzione degli schermi grafici, che da più di 30 anni fanno parte della nostra quotidianità. Tuttavia, lo schermo non è solo una superficie visiva: è un'entità complessa, fatta di punti grafici e allo stesso tempo capace di "leggere" informazioni strutturate.
Un nuovo personaggio: Leonardo 1
Per comprendere meglio gli ambienti informatici, immaginate di eliminare le tecnologie moderne come computer ed elettricità e di tornare ai tempi di Leonardo da Vinci. Come potrebbe Leonardo trasmettere un disegno o un testo a distanza senza strumenti elettronici? La soluzione si trova nell’idea di una griglia alfanumerica: una rappresentazione logica e schematica dello schermo, dove ogni punto (o pixel) è indicato da una combinazione di coordinate.
Un esempio pratico: Ho appena ricevuto questo codice, come lo decodifico? B2-B3-B4-B5-B6-B7-C4-D4-E2-E3-E4-E5-E6-E7-G3-G4-G5-G6-G7-H3-H5-H7-I3-I5-I7-J3-J4-J5-J7-L2-L3-L4-L5-L6-L7-N2-N3-N4-N5-N6-N7-P3-P4-P5-P6-P7-Q3-Q7-R3-R7-S3-S4-S5-S6-S7
Giorgia Mingotto, Decodifica di un messaggio
Questo schema serve a costruire e trasmettere immagini in bianco e nero, indicando semplicemente la posizione dei punti. La griglia si trasforma quindi in uno schermo raster virtuale, dove ogni cella può essere accesa (1) o spenta (0), creando così l’immagine. Non è il computer a interpretare l’immagine, ma colui che legge il codice: ogni punto bianco o nero rappresenta un'unità base di informazione, che chiamiamo “bottom”, ovvero informazione raster.
La rivoluzione dello schermo e della risoluzione
Gli schermi funzionano a una risoluzione standard di 72 dpi (punti per pollice), ideale per la visualizzazione digitale. Aumentando la densità di punti, la risoluzione migliora: a 150 dpi otteniamo una qualità accettabile, mentre a 300 dpi raggiungiamo la risoluzione minima per la grafica stampata. Anche le tecnologie di ingresso, come fotocamere e scanner, seguono questo principio, permettendo di impostare la risoluzione desiderata.
Colore e profondità del colore: dal bianco e nero all’arcobaleno digitale
Il mondo digitale ha introdotto il colore attraverso il sistema RGB (Rosso, Verde, Blu), dove ogni colore è rappresentato da una combinazione di intensità. Partendo da quattro colori di base (incluso il nero per l’assenza di colore), con l’aumento della profondità in bit, la gamma di colori è cresciuta: prima 8 colori, poi 16, fino a 32 bit e oltre. Con queste tabelle, anche Leonardo avrebbe potuto, in teoria, trasmettere la Gioconda in tutti i suoi colori, creando uno schema per ogni pixel del dipinto.
La realtà e la risoluzione: più dettagli di quelli percepibili dall’occhio umano
La nostra percezione del mondo è fluida, senza evidenti suddivisioni in pixel. Paradossalmente, un’immagine raster ad altissima risoluzione contiene più informazioni di quanto possiamo percepire a occhio nudo, a una distanza naturale. Perché un’immagine ha più informazioni di quelle che vediamo nella realtà? La realtà è complessa e infinita, eppure risulta sfuggente e priva di dettagli definiti. Per esempio, esplorando virtualmente una galleria su Google Arts & Culture, possiamo ammirare particolari impercettibili di opere d’arte. Tuttavia, questa rappresentazione estremamente dettagliata non è "reale" nel senso diretto del termine: si tratta di un'interpretazione, una trasposizione digitale attraverso il sistema raster. Vedere i puntini su uno schermo è ben diverso dall'osservare un'opera dal vivo.
Un esempio emblematico è il dipinto "Gli Ambasciatori" di Hans Holbein, che nasconde un teschio distorto visibile solo da una precisa angolazione. Quest’opera gioca con la percezione visiva, sfidando le convenzioni grafiche.
L’evoluzione del raster: dai layer all’Intelligenza Artificiale
Inizialmente, i software di grafica raster non prevedevano il concetto di layer (strati), che invece è tipico della grafica vettoriale. Con l'introduzione dei layer, la grafica raster ha subito una rivoluzione, permettendo un controllo molto più accurato sulle immagini. Oggi, software come Photoshop e le fotocamere stesse utilizzano l’intelligenza artificiale, per esempio nel riconoscimento automatico di oggetti e volti, nonché nella ricostruzione delle immagini.