Seleziona una pagina

Tra le tesi progettuali dei miei coetanei di quasi 15 anni fa emergevano almeno tre tematiche principali, il post-human (ovvero l’evoluzione hardware del corpo umano), la globalizzazione (ovvero la realizzazione, attraverso i mercati, di un generale densificazione dei tempi, dei luoghi, delle identità e dei codici linguistici, una direzione forzata del Postmoderno, per certi versi) e la contaminazione (ovvero la riapertura dei sistemi simbolici e il decadimento di ogni possibile genealogia storica e critica).
In generale, quindi, si tentava di definire un paradigma architettonico genericamente aperto, con consistenti spazi lasciati all’imprevedibile, laddove, ad esempio, capitava che l’architettura ‘rubasse’ all’arte alcune strategie spaziali senza temere che la spazialità risultante non rispettasse al 100% la funzionalità.
Naturalmente in 15 anni l’evoluzione nelle ricerche (e nelle realizzazioni) ha portato la composizione e la progettazione architettonica a lidi differenti (ma non diversi). Perché, a mio avviso, non si tratta di una divergenza, quanto di un aumentato livello di complessità del paradigma generale.
Ricordo un bel testo di M. Waldrop sull’Istituto di Santa Fè e sulle loro ricerche sulla complessità. All’epoca (circa 30 anni fa) si trattava di uscire dal paradigma obbligato dell’entropia (analogo per certi versi al liberismo economico) per ragioni di prevedibilità del futuro. Ci si era accorti, infatti, che le formule di previsione del futuro (dalla metereologia all’economia) potevano essere radicalmente in errore se non tenevano conto di certe variabili, anche se apparentemente di poca importanza. La vera innovazione nel pensiero complesso è di considerare i fenomeni (le reazioni chimiche, le transazioni finanziarie, etc..) in modo olistico (accadono simultaneamente), iterativo (accadono più di una volta), reiterativo (non sono reversibili e si applicano a se stessi, nidificandosi), e diffuso. A livello intuitivo il cervello opera già in questo modo, ma per prevedere in modo complesso il futuro e poterlo anche rappresentare era indispensabile ricorrere ai computer e agli automi cellulari. Fu in quel momento che si cominciò a parlare di sistemi adattativi, composti da elementi interconnessi, operanti secondo regole semplici (e radicalmente ‘democratiche’), e ad elevata iteratività.
In definitiva si forzò la mano della scienza (e dell’informatica) per giungere ad una rappresentazione simulata del futuro, scalzando le certezze e gli assoluti delle visioni ideologiche.
E alla fine degli anni ’90 queste rappresentazioni simulate sfociavano spesso in utopie urbane (come il Ponte dei libri di W. Gibson, o i Cluster di B. Sterling, o l’Agglomerato di N. Stephenson) o in folies architettoniche, che avevano l’unico scopo di mostrare un’alterità e una generale apertura della composizione e della progettazione. Si trattava (forse) di rappresentazioni di un pensiero poetico che si sforzava di essere nuovo.
Il Parametricismo (a cui ho dedicato un piccolo saggio tempo fa) sembra aver forzato ancora di più la rappresentazione, rendendola egemone rispetto alla poetica (del soggetto) e alla materialità (dell’oggetto). Si è creata un’alleanza fortissima tra rappresentazione e prototipizzazione formale grazie alla comune funzione ibridante. Se fossimo filosofi e preoccupati della Verità diremmo che entrambe sono potenzialmente fasulle rispetto al mondo e alla sua realtà materica, ma enormemente stimolanti per la creatività umana.
Invece siamo prudenzialmente realisti. E rimarchiamo il fatto che il dilemma di ogni architetto ragionevole è la fatica (economica e fisica) per formalizzare un pensiero in un’opera di architettura. In altre parole all’autonomia della composizione continuiamo a voler affiancare le ragioni della progettazione. Se poi guardiamo al ruolo civico dell’architetto (e dell’urbanista) e al suo ‘potere’ sulla città, ci accorgiamo che la prassi è già inclusiva (forse non ancora chiara al punto di essere rappresentabile), poiché il ruolo dell’architetto è già coordinato ad altre figure determinanti, istituzionali ma anche economiche. E le iterazioni (ma pure le interazioni) tra gli elementi del sistema sono già numerose.
Quello che manca è, appunto, una rappresentazione simultanea del sistema, adatta a predeterminare i risultati del processo. Poiché (e in questo rimando a Hofstadter e Godel) esiste sempre un’incompiutezza di fondo della rappresentazione/modellizzazione del mondo. E in quello spazio oscuro, interstiziale, irrisolto, invisibile, putrido, risiede la poetica del soggetto, a cui non spetta solo la fascinazione del sublime ma pure l’onere della scelta.
Come dicevo i livelli di complessità (e quindi le iterazioni e le interazioni) sono aumentati. Il paradigma networking sta modellando il presente, ma sono dubbioso sul fatto che una poetica possa essere sradicata da un soggetto e diffusa. Forse non è più necessaria, semplicemente. Sempre che non emerga una nuova unità in grado di annullare definitivamente il soggetto. Come quando eravamo tutt’uno con la Natura.