Oggetti e Soggetti del Progetto nell’Era della Computazionalità

Angelo Luigi Camillo Ciribini - Università degli Studi di Brescia e ITC CNR 29/10/2018 672
The building profession is in a radical shift of paradigm from architectural representations of unconnected data to practices with an overwhelming amount of information rich data. _ Martin Tamke et alia 
 
Simulation and analysis, soon to be bolstered by machine learning, create a design environment where a range of outcomes, from cost conformance, constructibility and code compliance through to, eventually, occupant behavior can be predicted a priori and those predictions can be used to hone  the design. _ Phil Bernstein
 
ANGELO-CIRIBINI-03.jpg
L'ipotesi ventilata da parte del governo di attribuire una centralità rafforzata all'Agenzia del Demanio nell'ambito dei contratti pubblici ha suscitato una ferma reazione contraria da parte di RPT e di OICE.
Nella replica di questi ultimi si menziona negativamente, come spauracchio paradigmatico, l'esperienza di Italstat, risalente al periodo storico della partecipazioni statali, peraltro, spesso evocato nella attuale congiuntura politica per altri scopi.
Il caso di Italstat, così come quelli, differenti tra loro, di Fiat Engineering o di SNAM Progetti, ancora, invero, poco indagati sul piano storico, possono, però, essere considerati come importanti tentativi prematuramente interrotti per risolvere, tra le altre, la questione produttivistica e quella dimensionale che, nello scenario della funzione committente e dell'offerta professionale dei servizi di architettura e di ingegneria, così come dell'imprenditorialità di settore, restano centrali, a fronte di una frammentazione esasperata del tessuto.
 
A prescindere, dunque, dal merito della vicenda, l'occasione è preziosa per ribadire una volta di più che l'assetto strutturale della Domanda e dell'Offerta appare, nell'ottica della digitalizzazione, sempre più critico e meritevole di un dibattito aperto e franco.
Nel comunicato redatto da parte di RPT e di OICE, non a caso si cita il Building Information Modeling (BIM) che, appunto, sollecita una riflessione profonda sugli statuti e sulle identità dei ceti professionali, come si evince, ad esempio, dal recente saggio, pubblicato da Birkhäuser, di Phillip G. Bernstein, intitolato Architecture Design Data.
 
Si tratta, perciò, di interrogarsi sul significato ultimo dell'atto progettuale, di architetti e di ingegneri, così come deriva dai processi digitalizzati, nonché sulle ricadute che esso può avere sulla conservazione o meno degli attuali tratti strutturali del mercato.
 
Per prima cosa, è evidente che l'introduzione dei processi di istruttoria di committenza, di briefing, nell'ordinamento relativo ai lavori pubblici, avvenuto in Italia nel corso degli Anni Novanta, aveva, assieme a quella della verifica e della validazione del progetto, sancito un rinnovato ruolo di progettualità della committenza pubblica, peraltro raramente attuato nei decenni successivi, ruolo che nella dimensione computazionale della digitalizzazione, riveste un peso assai più rilevante.
 
Almeno potenzialmente, infatti, architetti e ingegneri, in qualità di progettisti, si trovano a dover misurarsi con intenzioni formalizzate e orientate della committenza che, attraverso gli acronimi AIR e OIR contenuti nelle norme UNI EN ISO 19650-1 e UNI EN ISO 19650-2, definiscono vincoli, espressi in modalità computazionale, in merito alle esigenze patrimoniali e fruitive dei cespiti commissionati, quali fondamentali e decisivi dati di ingresso per i progettisti.
Se, pertanto, gli Asset Information Requirements richiedono ai progettisti di tenere sin da subito in considerazione le esigenze manutentive espresse dal committente/proprietario (o gestore) del cespite, gli Organizational Information Requirements costringono gli stessi a tenere in considerazione i contenuti delle attività e dei servizi che in essi e attraverso di essi si svolgeranno e si erogheranno.
Nel momento in cui, dunque, ai progettisti fossero davvero forniti capitolati informativi fortemente computazionali, la risposta dovrebbe avvenire in sintonia, avendo come obiettivo la committenza e la progettazione di (edifici che veicolano ed erogano) servizi.
Tutto ciò, pone, per via degli AIR e degli OIR, due cruciali sfide:
  • la prima di esse riguarda il bisogno di configurare, entro e al di fuori dei modelli informativi, ma sempre all'interno dell'ambiente di condivisione dei dati, modelli e strutture di dati che vadano ben oltre la componente geometrico dimensionale (a favore di quella alfa numerica) e che non siano mirati a generare documenti ed elaborati, bensì a in-formare i dati numerici;l
  • a seconda, ancor più significativa, attiene all'oggetto della progettazione, da intendere come sintesi di elementi (della costruzione), spazi (del vivere) e flussi (dei comportamenti).
Si può, allora, tranquillamente affermare che i modelli informativi che dovrebbero scaturire da questo approccio attengano principalmente alle modalità di funzionamento sia del bene tangibile sia del comportamento immateriale che, non lo si scordi, restano contrattualmente gli oggetti principali dei contratti ispirati al Partenariato Pubblico Privato, ove l’efficienza del contenitore e l’efficacia dei contenuti influiscono significativamente sull’esecuzione del contratto di durata.

Per questa ragione, i modelli informativi, come «gemelli digitali», dovrebbero essere finalizzati alla virtualizzazione piuttosto che non alla virtualità del cespite: il che, tuttavia, può avvenire, in termini interoperabili, solo eliminando le cesure tra ambienti di calcolo e di modellazione, poiché i dati alfa numerici, in particolare, per non restare statici, dovrebbero permettere la simulazione del «funzionamento» dell'entità che «rappresentano».
Se riconduciamo queste osservazioni al piano pragmatico della operatività, possiamo notare, anzitutto, come l’enfasi riposta sugli aspetti generativi, legati al cosiddetto optioneering, vadano forse visti con maggiore senso critico, ma, in definitiva, ciò che conta davvero è l’approccio multi criteriale che cerca di trovare una diversa accezione di ottimalità.
 
Non è tanto importante, infatti, sottolineare la multidisciplinarietà quanto evidenziare la centralità della cosiddetta ingegneria delle prestazioni, nei confronti del «funzionamento» del bene immobiliare o infrastrutturale, che cerca di bilanciare fattori eterogenei.
 
In altre parole, mentre l’intendimento originario dell’approccio prestazionale era rivolto a mantenere il più a lungo possibile una libertà di scelta sulle soluzioni oggettuali che si sarebbero adottate, qui la prestazionalità conserva più direttamente la propria rilevanza anche oltre questa specificazione: si potrebbe forse affermare che digitalmente il «calcolo» continua a restare attivo, tanto più in un contesto prospettico di sensorizzazione e di interconnesssione.
 
Per questo motivo, la «interoperabilità» non può essere ridotta a una questione di mero protocollo di scambio informativo, proprio perché la comunicazione tra ambiti eterogenei è la cifra fondamentale di ciò che si definisce ambiguamente «condivisione» o, addirittura, «collaborazione».
 
La interazione tra l’ambiente di «calcolo» (ad esempio, relativo alla composizione architettonica, alla ingegneria strutturale e all’ingegneria energetico-impiantistica) e l’ambiente di «modellazione» risulta, infatti, determinante.
Su di essa si concentra la partita decisiva, poiché vi si addensano due ipotesi che Phil Bernstein sottolinea con efficacia: il disporre di schemi interpretativi e di algoritmi causali che interpretino i fenomeni che si intendono «dominare» o «governare», simulandoli, e l’avvalersi di serie storiche strutturate per produrre le stesse «previsioni» e «predizioni», «imparando dal pregresso», ciò che forse potrebbe vedere contrapposti white box e black box modeling.
Machine learning (spesso citato da Bernstein) e data mining appaiono così elementi basilari per la professione del prossimo futuro, in cui le esperienze del passato, tradotte in maniera computazionale, opportunamente elaborate, permetteranno di comprimere i tempi di concezione delle nuove commesse, ridurre il personale coinvolto e ottimizzare i risultati.
Lo spazio «interoperabile» entro cui dovrebbero muoversi committenti e progettisti è, di conseguenza, uno spazio del «continuo», mentre il «BIM», «aperto» o meno che sia, ancora resta lo spazio del «discreto».
 
È, comunque, interessante osservare come i modelli informativi, sino a oggi, in questo contesto «interoperabile», siano stati percepiti come un mezzo per supportare una progettazione più efficiente ed efficace, ma essi, in realtà, iniziano, appunto, a valere secondo altre ottiche.
Per un canto, infatti, analizzando il modo in cui essi sono prodotti è possibile fare business intelligence sulla singola commessa, come faceva CASE Inc., mentre, archiviandone alcune centinaia o migliaia, come fanno Buro Happold o Sweco, si può praticare l’apprendimento automatico.
D’altronde, come indica IBM, i modelli informativi relativi a un singolo progetto, una volta connessi ai sensori presenti nel cespite realizzato, possono fornire serie storiche di dati sia per affinarne la gestione sia per supportare successive attività progettuali.
Nel caso della società svedese, in particolare, ciò riguarda l’ingegneria strutturale, basandosi sulle esperienze pregresse di modellazione informativa, integrate da saperi empirici, con esiti sempre più incoraggianti, cosicché gli algoritmi che suggeriscono le design option sono sempre meglio «allenati».
Certo, il progetto necessita di veicoli di comunicazione visuale e giunge, sinora almeno, alla generazione di documenti e di elaborati che prescrivono, cogentemente, per via contrattuale, ciò che andrà eseguito.
 
Sotto questo profilo, si potrebbe affermare che il «funzionamento» prevalga sulla «descrizione» prima della fase realizzativa, nella committenza e nella ideazione, eppoi in quella gestionale, subendo una soluzione di continuità proprio nello stadio intermedio.
Paradossalmente, nel momento in cui si rimprovera ai progettisti una insoddisfacente corresponsabilizzazione nelle scelte esecutive, ai costruttori si pone l’esigenza di porre attenzione a ciò che oltrevalica la realizzazione: i modi di funzionamento.
 
Schizzi, script, formule, algoritmi: essi giacciono tutti sulla stessa direttrice che conduce i progettisti a due sfere distinte, ma connesse.
La prima di queste contempla la configurazione di oggetti (come, ad esempio, elementi edilizi, strutturali e impiantistici), prescritti e descritti parametricamente attraverso entità che posseggono identità distinta e intelligenza relazionale: al contempo, però, la loro conformazione origina da «intuizioni», come le definisce Bernstein, che, a loro volta, dipendono in parte da «teorie» e da «modelli», oltre che, appunto, da «esperienze».
Ci si muove, pertanto, nell’area di transizione tra calcolo e modellazione, in cui, per alcuni versi, le scelte progettuali effettuate, corroborate eventualmente da verifiche numeriche e sperimentali, si concretano (sia pure virtualmente) secondo schemi interpretativi del «funzionamento» occupativo, strutturale ed energetico.
D’altro canto, quelle entità che sono state «calcolate» e «modellate» avrebbero la possibilità di essere, più o meno senza mediazioni, direttamente inviate agli impianti di produzione, avvicinando (è questo uno dei principali leitmotiv della letteratura nordamericana sul digital master builder) i progettisti (gli architetti, nello specifico) alla operatività dell’assemblaggio, dell’edificare in cantiere.
Che si tratti di digital sketch, di script o di algoritmi, fatto sta che nel corso della progettazione sono in gioco inizialmente le «prestazioni» secondo percorsi logici che giungono infine alle «entità», e non viceversa.
Parimenti, la morfogenesi dello spazio inizia oggi a essere sviluppata attraverso simulazioni che restituiscono i flussi e le interazioni, a livello individuale e collettivo, tramite game engine e immersive environment, implicando, a titolo esemplificativo, anche l’apporto degli psicologi cognitivi.
La centralità del functional deployment e dell’operational occupancy ritornerà, successivamente, al termine della ultimazione dell’opera, anche in questa occasione nella duplice modalità dei componenti sensorizzati e degli spazi sensorizzati (anche degli occupanti sensorizzati, se si vuole).
A questo proposito, ciò che (i dati numerici) istantaneamente, lungo il ciclo di vita del cespite, sarà comunicato dovrà essere interpretato, permetterà di sottoporre costantemente le opzioni progettuali a verifica e a valutazione di «funzionalità».
È palese, dunque, che il ruolo nella decisione e il sistema di responsabilità degli architetti e degli ingegneri sia destinato a mutare non poco e con esso la questione dimensionale ritorna preponderante.
 
Se il visual programming e altri artifici tendono a semi-automatizzare alcuni processi progettuali, riducendo il fabbisogno di capitale umano intellettuale («fare di più con meno» vuole anche dire con minore ricorso a risorse umane), la massa critica non si misura forse più in soggetti attivi nell’organismo di progettazione, quanto nella mole di dati computazionali strutturati (e destrutturati) risalenti a commesse precedenti.
La dimensione quantitativa, l’esigenza di supportare processi aggregativi, non consiste probabilmente solo nell’accomunare risorse intellettuali, ma anche quei volumi di dati che consentono di praticare l’artificial intelligence.
Alla fine, perciò, il «progetto», che si esprime ancora attraverso documenti ed elaborati, tratta degli «elementi» della costruzione, li «rappresenta» e li «specifica», ma se, ad esempio, la «forza» e il «flusso» pertengono al «funzionamento», occorre domandarsi quale possa divenire l’«oggetto» della progettualità.
Che cosa stia al «centro» o quanto il «progetto» sia baricentrico è, tutto sommato, la domanda per eccellenza che occorre porsi: dalla risposta che se ne vorrà dare dipende il futuro degli architetti e degli ingegneri.
Parole come «creatività», «istinto», «sensazione», secondo Phil Bernstein, manterranno il diritto di cittadinanza, anzi la priorità, a condizione che si sia consapevoli.
Il rimando a Italstat riguardava, in una epoca analogica, la questione dell’economia di scala, ma locuzioni quali artificial intelligence, machine learning, deep learning, ricondotte a una dimensione non fabulistica, pongono l’interrogativo sulla economia di conoscenza.
Per prima cosa, in che modo le micro e le piccole organizzazioni, in uno scenario in cui le ipotesi progettuali relative alle prestazioni dei cespiti e di chi li occupa saranno validabili numericamente grazie alla sensorizzazione e alla interconnessione in tempo reale in ogni istante potranno rispondere dei risultati effettivamente conseguiti?
 
Come Phil Bernstein afferma ripetutamente nel suo testo, riflettendo un pensiero diffuso, la computazionalità nei mezzi di produzione e la connessione negli immobili realizzati impedisce di fatto all’architetto di seguitare a frapporre una distanza tra se stesso e le fasi di realizzazione e di gestione dell’opera, di allontanarsene.
Come le micro e le piccole organizzazioni professionali potranno accumulare in maniera strutturata e destrutturabile una sufficiente mole di dati per poter utilizzare approcci efficienti che ottimizzino realmente i processi progettuali, tanto più che esse si cimentano spesso su casi considerevolmente ripetibili e poco eccezionali?
 
Probabilmente dovranno fare ricorso all’«intuito», ma, soprattutto, aggregare, condividere le esperienze condotte computazionalmente.
Se si guarda a piattaforme come Brickschain, si può capire quanto la micro e la piccola professionalità siano a rischio se non saranno in grado di organizzarsi in forma «collaborativa», non solo nel senso di cooperare nel corso della progettazione attraverso l’ambiente di condivisione dei dati e la modellazione informativa, ma pure grazie alla condivisione delle esperienze maturate.
Se non lo faranno attivamente, attraverso le rappresentanze, ci penseranno piattaforme private a «ospitare» gratuitamente le commesse professionali tradotte in «numeri» per eterodirigere e condizionare attraverso algoritmi raccomandativi le scelte degli operatori, a prescindere da qualsiasi tutela della proprietà intellettuale e della riservatezza informativa.
L’automated professional coniato da UCL non è più una fantasia, ma esso non si presenta nella fattispecie di un automa, bensì di algoritmi che apprendono.