docente: Pietro Costa
collaboratore: Mario Ciaramitaro
Cosa direbbero di noi gli oggetti che abbiamo attorno se potessero parlare?
Gli oggetti contemporanei (dai prodotti connessi agli assistenti personali intelligenti) possono “sentire” e “pensare” in modi totalmente nuovi e differenti rispetto al passato. Ogni gruppo ha provato a rendere “senziente” un oggetto della quotidianità, attraverso l'utilizzo di una narrazione Thing-Centered centrata sul prodotto anziché sull'utente.
Come possiamo immaginare il futuro attraverso le intelligenze artificiali? L'esercitazione parte dall'utilizzo di un modello di machine learning "text-to-image", che riceve come input una descrizione in linguaggio naturale e produce un'immagine corrispondente a tale descrizione. Le immagini generate (dall’oggetto fino agli spazi urbani) diventano utili a determinare le caratteristiche di un’isola nel futuro, in cui la vita delle persone, degli oggetti e degli animali è organizzata sulla base di una precisa evoluzione.
In che modo si può collaborare con le AI nella progettazione? In questo caso la fase di progettazione formale è stata totalmente demandata ad un modello di machine learning "text-to-image". Ogni gruppo ha generato e poi modificato un dispositivo futuribile per ambienti spaziali differenti (casa, ufficio, negozio). Il risultato è una piccola collezione di cartoline, a cui è stato aggiunto un layer informativo che illustra le caratteristiche del prodotto attraverso l'ausilio della realtà aumentata.