ARCHITETTURA, DIGITALE, INTELLIGENZA, ARTIFICIALE – 4

Parte quarta – per una filosofia del design digitale: continuità o discontinuità?

Ho concluso la terza parte di questa mia analisi dei processi creativi digitali ibridi affermando che occorreva dotarsi di una filosofia del design digitale. Con questo intendevo spingerci a considerare definitivamente la creatività digitale come un ambito concettuale, sottraendola, a forza, dall’estrattivismo che, invece, ci spinge a consumare rapidamente gli esiti compositivi delle IA, senza renderci conto che siamo il tassello finale di questa filiera di estrazione di dati. Immaginazione, composizione e pensiero sono vicinissimi e si scambiano, per osmosi, trascrizioni e modi.

Ammetto quindi che questa quarta parte è purtroppo complicata, dunque dovremo essere pazienti. I più, grazie alle IA, speravano di trovarsi di fronte ad una creatività automatica, con la quale poter, semplicemente, scegliere l’immagine più bella. E invece, fino a qui, abbiamo trovato solo complicazioni! E il tempo è probabilmente la complicazione maggiore. La sublimazione della temporalità che abbiamo rilevato nella diffusione globale del visivo, ci spinge dunque ad indagare la prassi dell’architettura (che ha un conto aperto con il tempo), cercando di capire se e come dovremo recuperare un senso del tempo per affrontare, culturalmente, proprio la fine del tempo implicita nel nuovo regime climatico.

Poiché il nostro interesse è rivolto alle idee che sono state inscritte nelle prassi (le teorie pure sono purtroppo molto più arretrate), ci siamo interessati ai lavori di Matias Del Campo e di Tom Wiscombe. Anche se irriducibili tra loro, ci hanno permesso di ampliare le nostre riflessioni all’utilizzo dell’Intelligenza Artificiale e dei network neurali generativi, la moltiplicazione del possibile, una certa autonomia degli oggetti, lo straniamento e il coinvolgimento da parte dell’architettura contemporanea. Grazie al fascino irresistibile del nuovo, da un lato l’IA ci portava a immaginare la possibilità dell’ennesimo nuovo paradigma, mentre dall’altro le esistenze dei singoli oggetti, non più costretti in configurazioni formali stabili, ci spingevano a non considerare più la forma dell’opera come un principio di unità.

Metaverso e IA hanno così messo apertamente in discussione almeno tre cardini del progetto moderno: la realtà, la costruzione e l’autore. È accaduto quasi senza alcun supporto filosofico o critico, poiché si tende ad applicare vecchi concetti a nuove prassi, mancando in aderenza, sotto la spinta della costante accelerazione nelle prassi di produzione. Le teorie sono oramai costrette a inseguire le prassi, ma non accettano facilmente di venire trasformate da esse. Stessa sorte sembra riguardare il soggetto.

Il problema filosofico che si cela dietro ai processi di allucinazione delle IA e dell’apparente libertà d’azione virtuale del Metaverso è duale: da un lato il problema delle forme di esistenza degli oggetti, o ontologie, caratterizzato dalla dualità tra il differente e il simile; dall’altro, come abbiamo detto, il problema dei modi di conoscenza delle ontologie, o epistemologie, caratterizzato dalla dualità tra la differenza e la ripetizione. Nonostante l’autonomia del visivo e la sua celata dimensione politica, nel vasto impatto che il digitale sta avendo sulla cultura e sulla produzione, sembra mantenersi un certo principio di persistenza dei valori e dei significati già espressi e materializzati in precedenza. La produzione digitale, anche se in minima parte, sembra dunque comportarsi come un’enunciazione, costretta, per sua natura, ad essere correlata a quanto è già stato enunciato. Il processo di campionatura da parte della visualizzazione è costretto a mantenere attivi, anche dopo l’espianto, i valori e i significati che erano stati trascritti nella realtà degli oggetti. La persistenza di questo valore estetico, per nulla automatica, è una forma di garanzia, un assunto che sembra non aver bisogno di dimostrazione alcuna. Le componenti dotate di valore (non sappiamo decidere se esse siano parti di un valore composto o se abbiano un valore in sé – il rapporto tra Tutto e Parti diviene irrisolvibile) possono dunque subire un trasferimento nelle nuove composizioni. E queste composizioni saranno “immagini dall’elevato valore artistico”, scrive Matias Del Campo.

L’idea che un insieme di campionature di dati sufficientemente correlati e dotati di valore estetico possa garantire, anche attraverso processi di disaggregazione>composizione, che il valore estetico stesso possa essere disaggregato e ricomposto in formazioni differenti, ha radici profonde, che non riguardano le nuove tecnologie ma hanno a che fare con il presupposto che i nostri artefatti (e dunque anche le loro rappresentazioni) siano materializzazioni permanenti dei valori estetici e culturali presenti al momento della loro costruzione. In definitiva, ciò che garantisce, esteticamente, la validità dei processi di uno style transfer neural network è la presenza di un set di significati che possa, simultaneamente, riferirsi ad una cultura, ad una storia e ad un libero arbitrio (come nella definizione di stile data da Semper e ripresa dallo stesso Del Campo), pur venendo processata come semplice proprietà visuale, ricomponibile, indipendentemente dalla cultura e dalla storia. Quello che accade tra la disaggregazione e campionatura delle proprietà visuali e la loro successiva ricomposizione appartiene ad un Mezzo sempre più denso e sempre meno trasparente.

Poiché accade sempre più di frequente che le prassi precedano le teorie, occorre verificare la possibilità di elaborare una corretta filosofia in grado di occuparsi di design digitale. È un tema ingarbugliato, che attira linee di pensiero spurie e discipline che fino a poco tempo fa erano entrate in contatto tra loro solo attraverso la metafora. La componente digitale ha accelerato il processo, mettendo a disposizione apparati di traduzione universale tra diversi sistemi di segni, unificando la progettazione e la realizzazione in un unico processo quasi sincronico. Questo è il miscuglio che abbiamo cercato di dipanare, ricavandone alcuni appunti, che riportiamo qui di seguito.

Innanzitutto, dobbiamo chiarire qual è l’oggetto di una filosofia del design digitale. Il digitale non è riducibile alla sola restituzione del materiale: ciascuno dei due, il digitale e il materiale, ha le proprie regole, e sarebbe riduttivo intendere la digitalizzazione come semplice traduzione del secondo nel primo. È probabilmente più aderente ai processi di digitalizzazione affermare che essa è in grado di rielaborare gli oggetti fin nelle loro più intime ragioni di esistenza, cioè fin dentro alle loro ontologie. Un oggetto digitale non possiede una bordatura formale o una specifica sostanzialità. La cosalità della cosa, come la chiamerebbe Heidegger, sublima nell’oggetto digitale: la sua è un’ontologia della dispersione, correlata ad un campo di mantenimento (dato da relazioni, circuiti, crittografie, reti, archivi). Come vedremo, la digitalizzazione somiglia molto ad una enunciazione, ma con un campo di enunciazione infinitamente più denso e compatto rispetto a quanto descritto da Foucault per l’enunciato.

Inoltre, la costruzione digitale non ha l’obbligo di rispettare le leggi della fisica, anche se deve poter essere sufficientemente plausibile per un osservatore umano. Infine, se lasciato agire in modo sufficientemente autonomo, il digitale può essere imprevedibile, formalizzando composti che non avevamo immaginato. Gli elementi digitali entrano molto più facilmente in composizione, rispetto a quelli materiali, presentando una loro specifica collosità. Questo spinge la ricerca formale ad acquisire una certa prevalenza sulle nostre consuete griglie di controllo, e si innesca un dialogo serrato tra il fascino dello smisurato e la rigidità del misurato. Ma probabilmente il risultato maggiore è che nelle fratture tra il fisico e il digitale possiamo intravedere transiti di influenza reciproca. E’ questo Mezzo ad essere il principale oggetto di attenzione della nostra ipotetica filosofia del design digitale. E’ difficile da descrivere, anche se molti autori si sono sforzati di trascriverne le proprietà. Troviamo tracce del Mezzo nella superficie assoluta di Ruyer, nel piano di immanenza di Deleuze, nel campo di enunciazione di Foucault e nei fantasmi di Derrida. Ma sono stati i science studies a rilevarne il ruolo attivo nella formulazione (di teorie, di materialità e di forme), caratterizzando la conoscenza secondo la performatività e non secondo la rappresentazione (si veda l’opera di Latour o i più recenti saggi della fisica e filosofa Karen Barad). Se seguiamo questo flebile filo rosso, che parte idealmente dalla tesi di dottorato di Ruyer, Esquisse d’une philosophie de la structure (1930), possiamo abbracciare quasi un secolo dedicato al tentativo di dare “spessore ontologico” (così scrive Daniele Poccia, nella Prefazione a La Superficie Assoluta) alle relazioni e ai legami tra gli oggetti e i soggetti. Gli stati di questo Mezzo sono quantificabili in informazione, e il digitale ha permesso alle sue ecceità (che non sono né soggetti né – ancora – oggetti) di esprimere le proprie agentività (traduzione italiana di agency) in atti effettivi, non più limitatamente potenziali. Nel Metaverso, ad esempio, un edificio progettato da ZHA non è una rappresentazione di una costruzione potenziale, ma è effettivamente costruzione digitale. È in corso una inebriante fusione tra filosofia e design.

Abbiamo cercato di capire, in fase d’opera, quali fossero le trasformazioni in corso nell’architettura, e quali invece le ibridazioni prodotte dall’ingresso nel digitale e dalle sue influenze nei processi più tradizionali, dalla raccolta delle referenze, allo schizzo preliminare, fino al controllo della realizzazione attraverso il passaggio di scala. In ciascuno di questi passaggi il progetto viene specificato e verificato, mostrandosi al progettista secondo la sua temporalità. Senza questa rituale processualità, il progettista non avrebbe l’opportunità di conoscere il progetto e di farlo proprio. Senza questa obbligata temporalità, il progetto non potrebbe acquisire quanto necessario alla propria produzione (spazio, autorizzazioni, finanziamenti, materiali, logistica e manodopera). Il digitale tende invece a raddensare questa processualità, a renderne ininfluente la temporalità, a comporla invece in simultaneità.   

Occorreva tirare le somme, cercare di mappare insieme queste tendenze, che conducono ad una composizione senza più il tempo. L’idea stessa di un ordine generale, sia esso un Cosmo complesso oppure un Globo semplificato dall’economia, sembra sublimare di fronte alla crescita esponenziale del numero di oggetti che popolano la superficie, reale e virtuale, del pianeta. Come ci ricordano Morton e Harman, gli oggetti sono divenuti così autoreferenziali da poter essere smisurati nello spazio e nel tempo, come accade per gli iperoggetti, di scala geologica. Dunque il tempo che a loro manca è, a ben vedere, solo quello umano. E’ come se, grazie al digitale, si stia affermando una temporalità non-umana, priva del suo più intimo senso di finitudine, discontinua e non lineare, che si esprime ai due estremi del tempo umano: nella simultaneità dell’evento iperlocale e nella persistenza dell’archivio globale. In entrambi i casi l’umano assume un ruolo collaterale, tuttavia ancora necessario: quello di interprete tra questi due estremi, in quanto è nel mezzo che si dà la possibilità di una coabitazione ibrida tra i soggetti umani e i nuovi oggetti fisico-digitali. E’ tra la simultaneità e la persistenza, dunque, che avvengono l’enunciazione e la formalizzazione, anche se, oggi, esse risultano pratiche distribuite anche tra attori non-umani. Ci chiediamo allora se questo ecosistema ibrido, che si è recentemente reso visibile in campo estetico, presenti caratteri di assoluta novità o se rechi ancora traccia dell’umano, non nelle prassi ma nei modi, nella formalizzazione di certi nuclei estetici prevalenti, o nella direzione delle esplorazioni che in esso avvengono.

L’ecosistema ibrido ha avuto la necessità di operare all’interno di vasti archivi del mondo fisico, che fossero sufficientemente neutri e decolonizzati dal soggetto umano. Penso che l’ipertesto del WWW e gli attuali dataset possano essere considerati come tali. Mi soffermerò solo sui secondi, di cui abbiamo già parlato. Per costruzione, i dataset assomigliano alle ontologie piatte in cui si raccolgono oggetti indipendenti, tuttavia componibili. Ne emerge così un primo sintomo, comune alle ricerche sui network neurali generativi e a quelle sull’autonomia degli oggetti: l’eterogeneo subentra all’unico, generando discontinuità. Non possiamo sapere se la discontinuità sia un prodotto filosofico del nuovo regime climatico, o di quello che alcuni conoscono come Antropocene; tuttavia, essa assume un’importanza determinante dal punto di vista della creatività.

Purtroppo, una volta organizzati i dataset e le ontologie piatte, avremo fatto solo una piccola parte del viaggio. “Il mio consiglio è di riporre in valigia meno attrezzatura possibile, non dimenticare di pagare il biglietto e prepararsi ai ritardi”, ha scritto Bruno Latour. Se non ascoltiamo il suggerimento del filosofo di Beaune, imponendoci un viaggio lento e misurato, rischiamo di correre al punto delle definizioni, e di voler subito affermare cosa è l’architettura digitale o cosa è l’intelligenza artificiale. Ma il sintomo iniziale, cioè che entrambe lavorano necessariamente sul discontinuo, non è ancora sufficiente. Perché il discontinuo è così conturbante, ammaliante e coinvolgente? Perché, di fronte al discontinuo, non ci assale più quella nostra vecchia ansia, legata al caos, all’horror vacui, al perturbante, al non domestico, tutti nomi dati a quanto rimaneva escluso dal design e dalla cultura, ma sempre comunque presente, proprio a garanzia implicita di ogni continuità?

Fermiamoci un momento, prendiamo fiato e cerchiamo di capire. Perché, dal logico Charles Peirce all’architetto Lars Spuybroek, la continuità è stata un’ipotesi essenziale per il fondamento del pragmatismo e di gran parte della transarchitettura della seconda metà degli anni ’90 del secolo scorso? Sembra che la principale questione in gioco fosse il rapporto tra il Tutto e le Parti, con conseguenze anche sui legami tra percezione sensibile e conoscenza. “Noi riusciamo a vedere, a cogliere, le parti attraverso i sensi, per così riuscire a ricostruire il tutto”, scrive Spuybroek, per poi metterci in guardia: “l’architettura del continuo è un’architettura della singolarità, con cambiamenti repentini nel sistema dell’organizzazione, da uno stato all’altro, con salti di scala e di livello”. Il continuo sfugge ad una conoscenza completa, ma è logicamente necessario per sostenere la singolarità delle Parti che posano su di esso. Spuybroek afferma che il continuo di Peirce sia un analogo del piano di immanenza di Deleuze, dunque un taglio bidimensionale nel caos che permette il formalizzarsi di ecceità, le Parti che compongono la nostra idea di realtà.

A quanto pare abbiamo fatto un passo in avanti, e stiamo discutendo di come il continuo sia strettamente legato alla nostra interpretazione della realtà. Fino alla fine del secolo scorso, il reale era la nostra principale occupazione. Ogni volta che pretendiamo di poter descrivere dettagliatamente e completamente la realtà, attraverso discorsi, teoremi o immagini, si raddensa l’ipotesi di una continuità tra il reale e la nostra rappresentazione di esso. Per questo, nella continuità, dobbiamo considerare esistente anche quello che non abbiamo (ancora) rappresentato. Anche Foucault, nel presentare la sua teoria dell’enunciazione, pur proponendosi di indagare la discontinuità, è costretto a mantenere attivi alcuni legami (il campo enunciativo) tra gli enunciati, i discorsi e le discipline. “Non esiste enunciato libero, neutro e indipendente; ma sempre un enunciato che fa parte di una serie o di un insieme, che fa la sua parte in mezzo agli altri, si appoggia su di loro e se ne distingue: esso si integra sempre ad un meccanismo enunciativo, in cui ha una parte, per leggera ed infima che sia”.

La continuità mette al centro l’osservatore umano, un soggetto in grado di dominare la realtà rappresentandola e conoscendola, fornendole unità proprio grazie a questa conoscenza. Per spodestare il soggetto dal suo ruolo centrale, permettendo agli enunciati, agli oggetti e alle cose di comporsi con maggiore libertà, era dunque necessario mostrare che la continuità era un’ipotesi fuorviante, poiché serviva solo a garantire al soggetto (come osservatore o autore) il suo dominio sul mondo.

Ammettere che la discontinuità sia più aderente al mondo, e dunque meno ipotetica della continuità nel descrivere il suo funzionamento, ci porta tuttavia a correre altri rischi, per i quali dovremo fare molta più attenzione. Non sembra essere possibile sostituire l’ipotesi del continuo soggettivo con quella del discontinuo oggettivo senza dover compiere alcune radicali amputazioni concettuali. Cosa accade infatti al piano di immanenza, o del campo enunciativo, con le sue interazioni costanti tra le Parti? Senza di loro non riusciremo né a distinguere concettualmente il possibile dal caotico, né a riconoscere le connessioni che preesistono alle Parti. E se il discontinuo implica la sublimazione sia dell’opera che dell’autore come concetti centrali, in che modo si potranno costruire, d’ora in avanti, cronologie e progetti? Senza le dovute cautele, il rischio è che il discontinuo ci conduca ad un eterno presente, dove il possibile potrà prendere forma senza divenire necessariamente atto.

La soluzione universale, adottata da molti per mettere da parte dubbi concettuali come questi, è solitamente quella di dare nuovi nomi o di rivedere le precedenti definizioni, semplificandone o arricchendole di nuovi campi semantici, contenti di esserci tolti di mezzo le cronologie storiche, le stratificazioni concettuali, le densità delle storie delle idee. Matias Del Campo, ad esempio, non ha difficoltà a considerare i processi dell’architettura neurale capaci di portare ad una “innovazione sostanziale nella disciplina dell’architettura”. Tom Wiscombe, da parte sua, propone i suoi edifici “Flat Out Large”, così grandi “che possono creare il proprio microclima interno”.

In fondo era accaduta la stessa cosa con il decostruttivismo di Eisenman, intento a smontare le unità linguistiche e semiotiche, o con la transarchitettura, che mirava a trasformare parallelamente i corpi generati e i corpi prodotti,o con il parametricismo di Schumacker, nel quale la ricerca formale attraverso algoritmi modificabili attraverso parametri veniva proposta come concreta alternativa alla rielaborazione tipologica. L’architettura ha pazientemente trasferito questi picchi culturali in manufatti ancora degni di nota, come il Museum Haus am Checkpoint Charlie di Eisenman, il Fresh Water Expo di Spuybroek e Nio, o il centro culturale Heydər Əliyev di Hadid.

Ad uno sguardo esterno ai processi, sembra che l’architettura, come fosse un nome da connotare a piacimento, pur essendo invece un raro assemblato di processi e di rappresentazioni spuri, venga facilmente considerata una disciplina linearizzabile e normalizzabile attorno alla centralità dell’opera. Una volta costituitosi il centro dell’opera, costruita materialmente o digitalmente, per linearizzare il processo sarà sufficiente prolungarne le due estremità nel tempo: da un lato, in direzione del prima, verrà ricostruito il processo autorale e generativo (che tenderemo a descrivere come un processo umano, non-umano o collaborativo); dall’altro lato, verso il poi, grazie alla costruzione e alla forma, gli effetti dell’opera verranno semplificati in uno stile o, peggio, in un nuovo paradigma. Il mio scetticismo deriva dalla nostra comune propensione a considerare i prodotti, anche di architettura, dall’esterno, come se si trattasse di formalizzazioni isolate. Invece, se vogliamo tener conto delle riflessioni di Foucault sul campo di enunciazione, dovremmo cominciare a intuire l’esistenza di un terzo punto di vista, concettualmente posizionato tra il continuo e il discontinuo. Si tratta di un campo intermedio e residuale, nel quale sono finiti gli scarti concettuali sia del continuo che del discontinuo. In questa zona intermedia troveremo quasi-oggetti e quasi-soggetti, quasi-cose e quasi-progetti, tutti attivi simultaneamente ma privi della capacità di mettere ordine.

Intuiamo l’esistenza di questo campo intermedio, del Mezzo, proprio a partire da cosa non funziona nel discontinuo. Perché, ad esempio, pur esaltando il suo ricco panorama di possibilità, non siamo in grado di rendere altrettanto discontinuo anche il nostro pensiero critico a riguardo? È probabile che, come scrive Graham Harman, il nostro problema sia quello di non riuscire mai del tutto ad abbandonare la centralità dell’umano, il suo essere sempre presente in tutti i processi costruttivi. Harman ha criticato questa matrice sociologica del pensiero di Latour, proponendo la duplice alternativa dell’umano come osservatore e dell’umano come ingrediente. “Gli umani sono uno dei principali ingredienti della società umana. Ma ciò non significa che la società corrisponda a ciò che l’osservatore umano pensa che sia”, scrive Harman in Conversations About Architecture and Objects (2021).

Quando ci troviamo di fronte alle architetture neurali di Del Campo, o alle composizioni di oggetti di Wiscombe o di Gage, la nostra umanità, per quanto residuale, ci spingerà ancora a considerarle, semplicemente e nel migliore dei casi, innovative. Non riusciremo a liberarci del soggetto semplicemente mostrandone la narcisistica centralità, o diffondendo la sua agentività tra gli oggetti e i non umani. Sarà sempre un soggetto, con la sua radicata continuità, a dover valutare prodotti di una discontinuità altrettanto radicale. È probabile che, semplicemente, il soggetto sia ineludibile, anche se dovrebbe essere ricodificato al di fuori della logica di dominio della modernità. Potremmo dunque leggere la straordinaria diffusione dell’IA al di fuori della denuncia che ne dà Naomi Klein, basandosi sulla sua dirompente estrattività (poiché opera su dataset che noi forniamo gratuitamente e involontariamente). Potremmo interpretarla senza dover aver bisogno di indicare colpevoli (siano essi i ricchi, le piattaforme web, i programmatori, i ricercatori…), vedendola come una cessione del ruolo del soggetto, incluse soprattutto le sue responsabilità nei confronti del mondo e delle sue asimmetrie (quanti film hanno presentato l’IA come unica causa di distruzione del mondo?). Considerare l’IA colpevole (dell’estrattivismo, della fine del lavoro, della fine della creatività, del collasso ecologico), nel nostro intimo più oscuro, è una posizione di comodo, tipica del più triviale pensiero occidentale. E’ una disposizione d’animo verso cui scivoliamo facilmente e volentieri, soprattutto dopo i due shock culturali dell’Antropocene (fine della centralità dell’umano) e del nuovo regime climatico (fine del mondo). Inoltre, nel campo intermedio, che cerca di mostrarsi a noi nella sua straordinaria fragilità strutturale, gli enunciati, le cose, gli oggetti, sono radicalmente interrelati, e raramente si presentano a noi come elementi. L’horror vacui non è più esterno al recinto delle discipline, ma è esattamente nel mezzo. Si tratta di una situazione inaspettata, per questo preferiamo non esplorare questo caos, demandando invece ai network neurali delle IA (che, in questo caso consideriamo alleate e non nemiche), o ad altre procedure di linearizzazione della complessità, il compito di ritrovare un ordine possibile, che possa anche condurre a rinsecchire proprio il campo intermedio, riportandoci al vecchio pensiero duale, fatto di conflitti solo potenziali.

Data la continua accelerazione culturale, mancano infatti le occasioni per esercitare adeguate metodologie e prassi del discontinuo. Usiamo il discontinuo per la defamiliarizzazione e lo straniamento che facilmente produce, rimaniamo catturati dalla sua straordinaria creatività, dimenticandoci che essa, come abbiamo visto con Margaret Boden, è un’abilità che opera su quanto già esiste. Un’opera creativamente innovativa potrà essere il risultato di combinazioni inusuali, di esplorazioni mai sperimentatein un campo concettuale già consolidato, o di trasformazioni che sfidano i limiti delle mappe mentali precostituite. Nel caso dell’IA, più ampio sarà il dataset, maggiore sarà la probabilità che i risultati dello straniamento risultino innovativi. Tuttavia, aggiunge Boden, per definizione “la creatività è l’abilità di giungere a idee o artefatti che possano essere nuovi, sorprendenti e valutabili”. Dunque, la novità, per poter essere anche innovativa, dovrà poter passare per una valutazione. E, sfortunatamente, “i valori sono estremamente variabili”.

Boden ci ricorda poi, con grande lucidità, che la definizione dei valori è spesso oggetto di disaccordi. Nella discontinuità, la definizione del valore estetico e del valore sociale sembrano dunque essere accomunati dal medesimo processo: la controversia (come l’ha definita Latour). Se vogliamo invece arrivare alle definizioni, o a costruire fatti oggettivi, o a considerare innovativo un progetto generato da dataset, saremo costretti ad una tacita ricostruzione del continuo, restaurandolo ad ogni costo.

Per quanto sia doloroso, anche un pensiero ecologico privo di controversie sembra attraverso una sottile distorsione nel percorrere un pensiero ecologico, nel considerarlo un circuito chiuso, per quanto ampio, nel quale l’interdipendenza, tra i singoli elementi e le rispettive agentività, ci sembra già una struttura, con un suo principio d’ordine latente. È talmente doloroso tenere separate l’ecologia e l’idea di una Natura unitaria e non conflittuale, che alla fine il senso comune preferisce considerarle come due componenti inestricabili di una nuova forma di unità, come accadde negli anni ‘80 per il concetto di corpo o negli anni ’90 per quello di rete. E se invece, come sostiene Tom Wiscombe, ‘il non sapere fosse il modo più ecologico di vedere il mondo”? Come riuscire a disattivare quei dispositivi, costruttivi e concettuali, che ci illudono continuamente della possibilità di tornare all’unità del continuo?

Per quanto, seguendo gli oggetti di Harman, Morton, Wiscombe e Gage, o il design ibrido di Del Campo, possa sembrarci quasi necessario calarci in un non-umanesimo fatto, banalmente, senza l’umano, sarebbe un azzardo. Occorrerà infatti dedicare tempo e fatica a questa transizione (certamente inevitabile, ma tutta da progettare!), ed essa non potrà rinunciare all’uomo, poiché il politico e l’umano sono intrinsecamente correlati, come affermava Valery nel 1919. Ce lo ricordava Derrida, nel suo Specters of Marx, riportando che: “il politico implica sempre una qualche idea di uomo”. Se è il non-umanesimo ad essere il tema del nostro futuro prossimo, allora dovremo chiederci se noi stessi siamo umani. E’ su questa riflessione che concluderò questa mia esplorazione, con la quinta e ultima parte.

Condividi

Altri articoli

Condividi