Il mondo dei pixel. Materialità e Immaterialità. Hardware e schemi. La digitalizzazione delle immagini. Il mondo raster.

7 / Evoluzione del computer. Dal pallottoliere allo schermo grafico e oltre.

In questa nuova fase ci addentriamo nel mondo del raster. La premessa per spiegare questo aspetto dell’informatica è che l’evoluzione dei computer è parallela all’evoluzione degli schermi, di vitale importanza per la trasmissione delle immagini. 

Calcolo a leva umana: il mondo del digit è strettamente legato al mondo delle dita; abbiamo imparato a contare muovendo le dita e infatti lo stesso sistema decimale deriva da questo. Sono stati nel corso degli anni realizzati diversi strumenti per facilitare il calcolo (come ad esempio l’invenzione dell’abaco usato a lungo nei secoli passati). L’operazione del contare parte quindi inizialmente con la mano fino ad arrivare dopo 1500-2000 anni di nuovo al tattile, possiamo infatti dire che ancora oggi utilizziamo il dito per buona parte delle operazioni tecnologiche con il touch-screen.

La macchina dell’inventore: agli inizi dell’800 (gli anni della Rivoluzione Industriale), il desiderio di avere macchine per il calcolo inizia a farsi sempre più forte. Così un matematico britannico, Charles Babbage, programma un sistema di calcolo meccanico, lontano da quello che era invece il funzionamento dell’abaco. Di particolare interesse è il funzionamento di una particolare macchina industriale chiamata telaio meccanico: ci sono una serie di rimbalzi tra il mondo dell’arte, l’architettura e la tessitura. Il telaio è stata proprio la prima macchina programmabile e programmata. Sempre negli stessi anni un altro matematico George Boole ha questa grande idea apparentemente un po' assurda e cioè di ridurre tutto a zero e uno, sia cifre che lettere, (formalizzare quindi tutto attraverso un sistema binario).

La crescita di IBM: questa macchina inizialmente non ha un grande successo per diversi motivi. Bisognerà quindi aspettare l’inizio del ‘900 quando arriva un grosso salto rappresentato dalla IBM. Questa industria elabora la cosiddetta “Patchwork card”, il quale configura dati statistici individuando delle categorie. Ogni scheda è individuale e può essere sia programmata, sia letta al contempo fornendo tutte le info necessarie. Un cambiamento avviene nel periodo della guerra. Si passa al sistema elettrico: per trasmettere delle informazioni non si utilizza più un qualcosa di fisico (come la scheda perforata), ma l’elettricità. Questo mezzo per funzionare ha però bisogno di un linguaggio, di un sistema binario. Si ritorna allora all’invenzione di Boole e questo permette a queste macchine di diventare calcolanti non solo in termini di formulazioni matematiche, ma anche in termini di formulazione logiche.

Dal Transistor al Chip: un grande salto evolutivo si ha con l’arrivo del Transistor, il quale non è più una valvola ma un circuito stampato (all’interno del quale sono presenti anche minerali molto rari e preziosi). Nasce quindi il cosiddetto Chip, il quale ha un’influenza fortissima nella cultura di massa: ad esempio con la radio che diventa più piccola. Questo cambiamento nella radio poi sarà anche evoluto all’interno del computer, permettendo di miniaturizzare il computer stesso. Nasce così il primo computer a transistor di stampo italiano (ELEA di Adriano Olivetti).

Il Personal computer: Uno dei primi personal computer è chiamato Altair di Ed Roberts: si tratta in realtà di un assemblaggio di una serie di componenti. Successivamente Steve Jobs si unisce insieme al suo amico Wozniak e decisero di mettersi in proprio, fondando la Apple Computer nel 1976. Jobs ha un’idea di base, ossia quella di voler compattare tutti i componenti all’interno di una scatola di legno (Apple1). La rivoluzione di Apple è stata quella di estendere questa tecnologia al pubblico a livello di produzione di massa. Con una serie di finanziamenti riescono ad evolvere questa prima idea dando vita all’Apple2 realizzata in questo caso con la plastica in maniera molto più elegante.

Dos e Pc: differente invece è la storia di Bill Gates, che ha una intuizione molto particolare: precedentemente i computer prima di essere accesi dovevano avere un sistema operativo (ossia bisognava indicare cosa effettivamente dovevano andare a fare), la sua idea fu quella di uniformarlo, ossia di fare un sistema operativo di basso contenuto tecnologico, ma che poteva di fatto funzionare su una ampia gamma di computer; dandogli il nome di DOS (Disk Operating System). Nel 1975 fonda la Microsoft Corporation, la quale produce non hardware ma solo software e un primo sistema operativo. Tutto questo diventa ancora più importante quando l’IBM adotta il sistema di Bill Gates.

Mac e Bit: sul fronte invece del Mac, Steve Jobs ha una seconda intuizione: la prima è quella del case, caratterizzando anche il prodotto come prodotto di consumo. La seconda grande idea è quella di mettere a profitto tutto quello che si faceva all’interno di un’altra azienda, la Xerox. Questo gruppo escogita il cosiddetto “schermo bitmappato”; originariamente gli schemi erano stati pensati per contenere delle linee di calcolo o di testo, poter disegnare all’interno di queste linee era però un qualcosa di estremamente laborioso. La Xerox ha quindi l’idea di creare questi schermi bitmappati in cui ogni dot dello schermo può contenere informazioni (grafici, testi, vettoriali) e lo schermo lo traduce in puntini. Questo schermo può essere navigato con un puntatore (nasce così il concetto del mouse) che può riconoscere il tipo di informazione di ogni singolo puntino. Vengono poi ideati anche dei menù a tendina che permettono di fare differenti operazioni; questo porta anche ad una terza rivoluzione, ossia quelle delle finestre. Lo schermo di un pc può essere organizzato in diverse finestre rifacibili alla stessa matrice (browser) oppure a finestre appartenenti a matrici diverse. La Apple arriva a realizzare nell’83 un computer chiamato Lisa, fino ad arrivare all’84 quando realizzerà il Macintosh. Ci sono delle differenze tra questo ultimo computer e il DOS: il sistema DOS era un sistema aperto, al contrario invece del Macintosh che invece era chiuso e questo permetteva di creare una forte sinergia tra hardware e software. Era inoltre un sistema destinato al consumer products.

Bill and Bits: dopo le grandi invenzioni di Jobs arriva un’altra persona chiave che è Bill Atkinson. Negli anni successivi i sistemi operativi saranno dotati sempre più di nuove routine costruite all’interno del sistema stesso. Ad esempio nel ’85 nasce il post script: fino a quel tempo i disegni e i testi erano bitmappati, lo schermo mandava queste informazioni alla stampante (che era uguale allo schermo ossia per punti), con il post script si passa ad una descrizione, non è più legato al punto. Questo ha permesso di creare anche risoluzioni molto più alte (ad esempio la lettera A non era più data da un insieme di puntini che realizzavano la forma, ma proprio da una sequenza matematica). Fa anche un’altra invenzione, scopre il linguaggio multimediale in cui prodotti di tipo diverso possono comunicare tra loro tramite link; nasce quindi negli anni ’90 l’HTML.

Lo script in informatica rappresenta un tipo particolare di programma scritto in una classe di linguaggi di programmazione, detti linguaggi di scripting. Si tratta generalmente di un programma semplice composto da una sequenza di istruzioni che possono essere eseguite direttamente dal computer, ad esempio al momento dell’accensione del computer, oppure possono essere interpretate da un altro programma. Si tratta quindi semplicemente di un insieme di codici, testi e informazioni scritti utilizzando un linguaggio di programmazione, in modo tale da andare a formare un algoritmo o una funzione specifica di quel programma. All’interno dello script possiamo anche andare ad utilizzare delle variabili (ossia dei contenitori di dati situati in una porzione di memoria, destinata a contenere valori che possono essere modificati nel corso dell’esecuzione di un programma. Generalmente una variabile è caratterizzata da un nome, inteso solitamente come una sequenza di caratteri e cifre). Queste variabili sono molto utili perché permettono di memorizzare informazioni extra e poi riutilizzarle in altre parti del programma senza doverle riscrivere o ridigitare.

In informatica il termine macro sta ad indicare una procedura, ossia un insieme di comandi e istruzioni, tipicamente ricorrente durante l’esecuzione di un programma. Consente quindi di eseguire una serie di operazioni con l’invio di un solo comando. Ad esempio in un foglio di calcolo alcune operazioni tipiche di una marco sono inserimento, eliminazione di righe e colonne, la formattazione del testo o la scelta di un colore, ma anche il copia e incolla, o l’esecuzione di varie funzioni come la somma, la stampa, il salvataggio ecc. Non prevede l’uso di un linguaggio di programmazione, trattandosi di una semplice registrazione di una serie di comandi che sono già disponibili all’interno del software.


8 / Dentro i Bits. Il mondo Raster.

Il primo passo da fare è quello di immaginare la tecnologia che noi oggi viviamo, pensandola nella sua essenza concettuale e cognitiva. Per farlo ci sposteremo mentalmente nel tempo fino all’epoca di Leonardo, domandandoci come questa tecnologia attuale poteva essere programmata nei suoi tempi. Seguiremo quindi i vari ambiti del mondo informatico domandandoci come questi potessero essere formalizzati.

Primo quesito: come faccio a trasmettere un disegno a distanza se sono ai tempi di Leonardo? 

Il primo step è quello di trovare una codifica comune, ad esempio facendo uno schermo bitmappato, strettamente collegato alla griglia di base per un disegno. Gli elementi principali della codifica del sistema sono: la griglia (ad esempio 5x5) e le coordinate (A,B,C,D,E e 1,2,3,4,5). Il disegno adesso viene scomposto in pixel, il passaggio da fare ora è quello di colorare una casella e dare le coordinate di questa casella colorata all’altro individuo. Questo procedimento ha tutta una serie di conseguenze e un grande campo di applicazioni, in particolare nel mondo raster e nello schermo bitmappato, come ad esempio nei programmi tipo Photoshop (che usano pixel su griglie). Tra i vari fattori più importanti abbiamo appunto la risoluzione, ossia la grandezza della griglia di riferimento. Fino ad ora abbiamo trasmesso solo un disegno in bianco e nero, come faccio a trasmettere un colore? Questa informazione può essere trasmessa tramite il sistema RGB (red, green, blue), cambiando la quantità di ogni colore genero sempre dei colori differenti. RISOLUZIONE PRINCIPALE: 72 dpi (risoluzione minima dello schermo). DPI (dots per inch) = unità di misura della quantità di punti di inchiostro che una stampante può depositare per ogni pollice. Maggiore è il numero di pixel per pollice e più ci saranno informazioni nell’immagine (quindi l’immagine sarà più precisa), per esempio una risoluzione di 300 dpi significa che l’immagina ha 300 pixel in larghezza e 300 pixel in altezza, conterebbe 90.000 pixel (300x300 dpi). 150 dpi è una risoluzione intermedia usata nel caso in cui abbiamo disegni molto grandi (non sarà una risoluzione comodissima, ma può facilitare lo scambio dei file). 300 dpi è invece una risoluzione tipografica, utilizzata ad esempio per pubblicazioni su rivista. Se si sta lavorando invece con immagini in bianco e nero, come ad esempio le piante, è consigliabile utilizzarne il doppio, quindi 500/600 dpi. PROFONDITA’ DI COLORE: posso leggere dei colori all’interno di una palette di 16 colori e avrò ad esempio tot variazioni di giallo all’interno; se invece di 16 colori prendo una palette di 32 colori, le variazioni di giallo saranno di più (saranno quindi maggiori quanti più colori ho). Di norma nel mondo raster abbiamo 3 diverse profondità: 8 bit, 16 bit e 32 bit (raramente utilizzato). La profondità di colore dipende anche dal dispositivo che stiamo utilizzando, per questo dobbiamo fare due differenziazioni tra profondità del colore e l’acquisizione della profondità del colore. In un sistema raster l’unica cosa che veramente esiste è una porzione di schermo, l’unica cosa che possiamo realmente fare è dire “opera all’interno di questa porzione di schermo”.

Secondo quesito: perché una immagine raster ha più informazioni del reale? 

Ad esempio se prendiamo una immagine raster di una bottiglia, questa ha più informazione di una bottiglia reale. Questo perché si il reale è un contenitore di infinite informazioni, ma queste informazioni non sono codificate (ad esempio posso vedere la bottiglia come peso, come massa, come geometria); la tesi bizzarra (ma interessante) è che nel momento in cui l’immagine diventa una immagine raster viene codificata e fatta diventare informazione, non acquista più valore rispetto alla situazione reale, ma contiene più informazioni. Se guardo ad esempio il quadro dei due ambasciatori all’interno della National Gallery nella vita reale siamo in grado di vedere alcune caratteristiche del quadro stesso senza però scovare i veri segreti perché l’occhio umano non riesce a percepirli essendo troppo piccoli e noi essendo troppo lontani; ed è qui che entra in gioco l’immagine raster, la quale ci permette di compiere degli zoom talmente ravvicinati da poter vedere questi segreti. Oltre al poter zoomare l’immagine raster ti permette anche di guardare il quadro da prospettive diverse.


9 / Aniene Flows.

L’approccio alla periferia apre un nuovo mondo di problematiche di abbandono e di degrado. L’idea iniziale è stata proprio quella di riprendere queste aree, dando vita ad una collezione chiamata UnLost Territories. Il primo passo è stato quello di approcciare a queste aree con l’utilizzo dell’arte contemporanea, utilizzarla come arma all’interno di questo sistema. Successivamente si è deciso di estendere questo pensiero non solo alle zone periferiche, ma anche a tutte quelle aree che si trovano lungo il fiume Aniene, passando così da UnLost Territories ad Aniene Rims. L’idea fondamentale è che in questo caso non si può lavorare solo sul singolo lotto, ma innanzitutto bisogna investire sulle nuove infrastrutture, bisogna trovare il modo di attrarre potenze imprenditoriali e investire in questi luoghi, lavorando contemporaneamente sia a proposte progettuali per le aree stesse, proporre nuove infrastrutture e in alcuni casi pensare al recupero e al riuso di infrastrutture già esistenti. 

Le vie cave rappresentano una logica sistemica, un ragionamento circolare. Sono dei percorsi scavati nel tufo. Questo aspetto è molto importante nel nostro campo perché è il primo esempio di infrastruttura, le possiamo definire multitasking, fanno molte cose insieme. Le vie cave rappresentano l’unione tra città e natura, sono strade processuali per la contemplazione della natura; ma hanno anche una funzione simbolica. Inoltre essendo “cave” voleva dire scavare, e tutto questo materiale che veniva estratto per realizzare queste vie, veniva poi riutilizzato per le costruzioni degli edifici. 

Possiamo individuare 5 principi delle infrastrutture della nuova generazione dentro la città costruita:

Multifunzionalità.

Green system.

Information technology.

Living accessibility.

Cittadinanza, bellezza civica.


10 / Leggere, scrivere, presentare. "La Rivoluzione Informatica in architettura".


11 / Architettura e presenza delle superfici.

In questa ultima parte si conclude il discorso sul “mondo raster”, e verrà compreso come questo ha influito nel mondo dell’architettura. Vi è un rapporto tra l’immagine e lo schermo. Questo grazie all’elettronica e a tutti gli sviluppi “superficiali” che l’architettura ha fatto in questi anni. Che significa però “pelle superficiale”? Cosa nasconde e cosa rivela? Che rapporto ha questa pelle con l’organismo? Nell’ottava parte del libro “Architettura e Modernità”, il professore vuole spiegare il fatto che costantemente noi siamo circondati da immagini raster: 

“Il primo, certamente il più epidermico, riguarda la maniera con cui le "nuove presenze" dell'immagine elettronica che ci circonda in mille occasioni nel mondo d'oggi, si riversano in alcuni motivi del progetto architettonico. Mi riferisco ai temi del mapping e della superficie, alla compresenza dinamica tra diversi layer figurativi e funzionali del progetto, ai temi della frammentazione delle masse, ad una stessa multivalente e obliqua luce che illumina concettualmente queste nuove architetture. La luce di questi progetti non è quella dell'alba calda con cui alcuni fotografi amano vedere classicamente il mondo, ma quella elettrica, luminescente, fredda e intermittente dei neon delle insegne, delle scie di auto e delle nuvole di un mondo che è irrimediabilmente altro. Tutta una serie di progetti usano le influenze della presenza quotidiana dell'elettronica e dei nuovi media come temi che ispirano, a volte dichiaratamente a volte no, la figuratività del progetto. Interessante notare come in Italia queste influenze siano ibridate con alcuni temi della nostra architettura del Novecento fornendo esiti senz'altro di crescente interesse”. 

Un materiale di grande interesse in questo campo è l’EFTE; si tratta di un materiale plastico usato in diverse opere, come nel caso dello stadio dell’Allianz Arena a Monaco che ha non solo capacità termiche notevoli, ma può diventare una sorta di schermo su cui andare a proiettare diverse cose. Viene infatti generalmente accoppiato a dei sistemi a led, in modo tale che ogni punto luminoso può variare e diventare immagine schermo. 

Come il tema della superfice entra nell’architettura. Dobbiamo innanzitutto considerare il primo momento in cui la profondità diventa piano. Significativi sono i disegni di Durer. Importanti sono anche le visioni di Caravaggio, con l’utilizzo di nuovi strumenti, come lo specchio e la camera oscura. Alla fine degli anni ’90 e l’inizio degli anni 2000 si ritorna a parlare di superficie, in quanto il mondo precedente eliminava proprio tale concetto (decorazioni e utilizzo di materiali diversi) in quanto si era troppo fissi al pensiero di realizzare edifici-macchina. Rientra in gioco attraverso due grandi caratteristiche: la prima è che diventa una sorta di “pelle” che rimanda all’idea di schermo e ad un mondo che ha una figuralità naturale: un esempio è la biblioteca di Utrecht in Olanda di W. Arets. Un ulteriore esempio è la Torre Agbar a Barcellona di J. Nouvel. In quest’opera siamo in un mondo in cui l’espressione è quella del pixel. Il mondo del pixel diventa non solo espressività, ma anche realtà, è un mondo che appunto può cambiare perché questi pannelli non sono fissi. Durante la notte si integra con un sistema di led che proietta sull’edificio una serie di immagini con differenti colori. Due sono gli architetti che possiamo considerare i pionieri del mondo delle superfici, Herzog e de Meuron.