ARCHITETTURA, DIGITALE, INTELLIGENZA, ARTIFICIALE – 3

Parte terza – il Mezzo, i dataset, la fine del tempo.

Vi ho raccontato solo alcune delle stratificazioni che incrostarono il nostro processo immaginativo per il nostro albergo digitale. Certi di poter ricorrere alla creatività per liberarci dalle zavorre di quanto è già stato, ci siamo ritrovati ancora più immischiati in un groviglio di linee temporali. Ogni linea, ogni schizzo, ogni forma, anche se liberi da ragioni costruttive ed economiche, rimandavano a queste interazioni viscose.

Questa residualità giunse quasi inaspettata, ponendoci di fronte alla difficoltà di immaginare, autonomamente, il nuovo. Per farlo, allora, avremmo voluto liberarcene, ma siamo ancora costretti a fare i conti con essa, anche quando non abbiamo l’obbligo di confrontarci con il reale. Sembra che il nuovo non possa che essere considerato come un effetto. Non possiamo porci direttamente il nuovo come obiettivo, poiché lo si raggiunge solitamente come effetto collaterale. È più facile trovare novità tra gli strumenti o le tecniche, che non nelle composizioni. Possiamo usare una nuova tecnica costruttiva, o un nuovo modellatore 3D, oppure un nuovo materiale (come il cemento armato di Monier, il titanio impiegato nel Guggenheim di Bilbao o il radiant alla Defense di Almere). Ma le composizioni, in nuove forme o in nuove opere, trascineranno con sé un tal numero di connessioni, legami, prescrizioni, trascrizioni, interazioni, da non poter invocare la necessaria autonomia del nuovo. Esso emerge come un effetto di dissimilitudine: appare a metà strada tra una realtà che si dota di strumenti o tecniche differenti e un’immaginazione che si sforza di uscire dalle formalizzazioni pregresse, anche rinunciando all’oggettività. La migliore definizione data a questa ingarbugliata ricerca del nuovo è quello che Salvador Dalì e Rem Koohlaas definirono metodo paranoico-critico. Per giungere al nuovo occorre spostarsi nel delirio, nell’incubo delle libere associazioni, come nella nota sequenza del sogno in Spellbound del 1945, o nel mondo soggettivo di The Cell del 2000, in cui l’immaginario estetico postbellico di Bacon si ibridava con quello transumano di Joel Peter Witkin e di Damien Hirst. In entrambi i casi, il simbolismo degli oggetti e delle rappresentazioni rimandava ad altro. Il soggetto osservatore poteva così non partecipare al delirio, messo in salvo dall’interpretazione che stabiliva una certa distanza critica, garantita dal poter esser certi di un ritorno all’oggettivo. È questo vuoto ad essersi riempito, catapultandoci purtroppo dentro l’allucinazione.

Se si potesse ampliare questa zona franca, caratterizzata da una scarsa influenza delle tecniche costruttive e delle formalizzazioni (prodotte dalla storia, dalla cultura o dalla critica estetica), se si potesse essere spettatori di un processo creativo propriamente delirante ma non legato ad un singolo soggetto, allora potremmo sperare di ottenere un nuovo come fine, a patto di non venire travolti dalla sua estrema vicinanza. I prodotti di questa zona franca (che ho già chiamato, banalmente, il Mezzo) saranno il risultato di operazioni di sostituzione dei vecchi legami genealogici e storici con nuove connessioni, del tutto non culturali e non naturali. Queste connessioni sono il nuovo artefatto della nostra attualità. La composizione non è più una disciplina rivolta alla costruzione dell’unità attraverso una sapiente messa in forma delle sue parti. La composizione, oggi, è divenuta capillare, percolando tra le innumerevoli parti che compongono gli oggetti, senza potere più anelare all’unità. Si tratta di processi di disaggregazione delle vecchie serie in elementi poi facilmente ricomponibili, e potranno sopravvivere temporaneamente solo qui, a metà strada tra un reale intriso di rappresentazioni e un immaginario delirante, in attesa. Mentre, in passato, la costruzione di artefatti permetteva di trasformare la città in un archivio culturale e di salvaguardare la cultura attraverso la materia, oggi queste forme di condivisione degli oggetti culturali e di apprendimento collettivo restano un retaggio che persiste solo grazie alla materia. Questi processi cognitivi, collettivi e situati, hanno durate che sono potenzialmente fuori sincrono rispetto alla simultaneità dei processi produttivi generati dalle IA. Inoltre, non ci è possibile apprendere più nulla da questi processi. Le stesse allucinazioni delle IA possono essere lette come processi di errore controllato, da sottoporre alla valutazione estetica dell’utente umano per affinare le procedure di composizione nelle iterazioni successive, grazie ad un apprendimento controllato, che però è rivolto solamente alle IA.

I catalizzatori che hanno portato ad ampliare a sufficienza la zona franca possono essere individuati, fin troppo semplicisticamente, nel Metaverso – che elide i correlati della costruzione – e nell’Intelligenza Artificiale, applicata al neural style transfer (NST) e al form finding generativo – che fa dell’allucinazione il suo principale prodotto grezzo. Le allucinazioni emergono dai processi mediante il quale le IA compongono proprietà e pattern possibili, riconosciuti nei dataset e riproposti attraverso processi di disaggregazione>composizione, senza utilizzare alcun principio di similitudine per filtrare i risultati. Dobbiamo capire cosa sono e come vengono prodotti i dataset. Verificheremo così quanto il principale processo di campionatura ed etichettatura operata dalla visualizzazione della realtà celi, effettivamente, un atto politico.

Possiamo immaginare il dataset come un abaco piatto, contenente oggetti raggruppabili secondo uno stile, o specifiche proprietà, o addirittura funzioni. Questo abaco non sarà mai esaustivo, non potrà contenere tutti gli oggetti che presentano le specifiche caratteristiche del dataset; tuttavia, potrà raccogliere un campione sufficientemente ampio dei modi in cui quelle caratteristiche sono state assemblate o composte. Tra gli elementi dei dataset non sussistono relazioni, ma solo caratteristiche (features) potenzialmente condivise. L’IA è progettata per riconoscere queste caratteristiche, per estrapolarle dal loro stato di relazione reciproca, per individuarne le composizioni in pattern e per ricomporle in modi nuovi. Il riconoscimento è procedurale, avviene per layer che affinano la ricerca, setacciando le caratteristiche più evidenti, ma è la ricchezza del dataset a determinare il valore del risultato della ricerca.

Il digitale ha attraversato da tempo la soglia della rappresentazione, riconfigurando i processi del design. Il concetto di dataset è centrale per questa riconfigurazione, poiché gli è stato assegnato il compito di costituire la base culturale di ogni successiva ricomposizione. I modi in cui vengono costruiti i dataset sono purtroppo oggetto di un dibattito fin troppo collaterale, anche se meriterebbero un posto centrale nell’elaborazione di un sistema culturale e produttivo post-globale. Il più vasto dataset disponibile è quello di Image Net, contenente più di 14 milioni di immagini organizzate in più di 20.000 categorie. Per la creazione di Image Net è stata utilizzata una forza lavoro umana delocalizzata e resa accessibile tramite Amazon Mechanical Turk, che ha distribuito il processo di etichettatura delle immagini. Un operatore umano, con la sua specifica educazione e con il proprio retroterra culturale, ha avuto a disposizione dai 2 ai 3 secondi per etichettare una singola immagine (fonte: Matias Del Campo, Neural Architecture, p. 97). Tre secondi per scegliere in quale categoria, tra le 20.000 disponibili, inserire una singola immagine. In tre secondi sono stati obliterati secoli di serie, accumuli, archivi, enunciazioni, interrelazioni, spogliando l’immagine da ogni sua ricchezza, da ogni sua appartenenza alla continuità della produzione culturale.

Il processo di costruzione dei dataset sembra essere dunque l’opposto del processo di design. La democratizzazione degli strumenti visuali (inclusi quelli più avanzati, come dataset, network neurali, IA e Metaverso) “permette al lavoro di venire pianificato, distribuito, realizzato”, ma non si tratta più di design, si tratta di un lavoro d’ufficio rivolto alla dispersione delle responsabilità politiche e culturali che, un tempo, erano affidate all’autore. “Un ufficio è come un piccolo laboratorio, in cui molti elementi possono venire connessi insieme solo perché le loro scale e le loro nature sono state livellate: testi legali, specifiche, standard, mappe, indagini”, scrive Latour. Il dataset è la frammentazione resa sistematica e riaffermata come fondamento di ogni successiva ricomposizione. Il dataset è un piano di oggetti affiancati ma non coesistenti. Il dataset spezza il ritmo delle immagini, sublimandone la specifica temporalità, per renderle disponibili ad una composizione caratterizzata dalla simultaneità.

Non si tratta qui di denunciare l’inconsistenza culturale della costruzione di Image Net, e nemmeno di invocare di nuovo la centralità dell’autore nel sottolineare come le sue immagini sono un prodotto della creatività umana (come ribadisce Naomi Klein). Dovremmo piuttosto essere interessati alla nostra generale mancanza di interesse nei confronti di questa radicale elusione della temporalità dalla nostra cultura.

Tuttavia, non è del tutto vero che il tempo non conti nulla. Anzi, è un parametro assolutamente determinante, ma non per ragioni culturali o teleologiche (cioè riguardanti le ragioni della nostra progettualità), quanto per semplici ragioni produttive ed economiche. Il tempo misura l’efficienza delle intelligenze artificiali. Per comprendere le ragioni di questa affermazione, dovremmo rileggere il saggio seminale di Marvin Misky, Steps Toward Artificial Intelligence, del 1960, nel quale l’autore suddivide la ‘teoria dell’intelligenza’ in cinque sottosezioni: la Ricerca, il Riconoscimento dei Pattern, l’Apprendimento, la Pianificazione e l’Induzione. Le prime tre sottosezioni devono necessariamente “suddividere gli oggetti complessi e descrivere le relazioni complesse tra le loro parti”, per riuscire a dare risultati utili nel minor tempo possibile. “In pratica, le definizioni teleologiche (cioè gli scopi che indirizzano le ricerche umane, nda) spesso devono essere rimpiazzare da approssimazioni pratiche, solitamente con un certo rischio d’errore; con questo intendo che le definizioni devono essere rese euristicamente effettive, o economicamente utilizzabili”. Sull’euristica si pone dunque una questione ingarbugliata. Mentre per il soggetto umano le euristiche vengono solitamente considerate come scorciatoie cognitive che ci conducono ad errori di valutazione da evitare, per le intelligenze artificiali le euristiche divengono necessarie proprio perché scorciatoie, in grado di accelerare i processi cognitivi artificiali, anche a rischio di errore. Nell’economia generale della sovraproduzione cognitiva artificiale, è più conveniente commettere molti errori in poco tempo. Come ci ricorda Minsky non è possibile non utilizzare le euristiche, poiché “anche se organizzassimo tutte le particelle della nostra galassia in un qualche tipo di computer parallelo operante alla frequenza dei raggi cosmici, l’ultima elaborazione richiederebbe ancora un tempo intollerabilmente lungo; non possiamo aspettarci solo aggiornamenti nell’hardware per risolvere tutti i nostri problemi!”.  

Potremmo riassumere il passaggio dal tempo umano a quello artificiale (anche se non intendo porlo come un’opposizione) come un transito tra il ritmo e la frequenza. Mentre il ritmo rende centrali il cambiamento e l’improduttivo, la frequenza rimane vincolata alla produzione. Questo si rende più evidente nella sottosezione dell’Apprendimento, nella quale l’IA si trova obbligata a decidere cosa apprendere secondo il principio di un aumento di efficienza. Ecco come lo descrive O. G. Selfridge nel suo Patterm recognition and modern computers (riportato da Minsky): “Prima o poi, alcune sequenze (casuali, nda) si dimostreranno significative. (…) Con la guida di queste sequenze alla guida, speriamo che il processo divenga molto più veloce. La domanda cruciale, tuttavia, rimane: come possiamo costruire sequenze ‘come’ altre sequenze ma non identiche?”. La frequenza predilige l’identico, poiché anche l’Apprendimento delle IA è vincolato alla produzione. Avevamo sperato che il nuovo potesse emergere dalla potenza generativa di un’alta frequenza, ma abbiamo scoperto che i processi di generazione artificiali, probabilmente, sono soggetti a vincoli ancora più tenaci dei nostri.  

Non possiamo approfondire oltre le questioni in campo, non senza dotarci prima di una filosofia adeguata, quella dedicata al design digitale.

Condividi

Altri articoli

Condividi