CAD, BIM, AI, Behavioural Design: gli Architetti e le altre Professioni Tecniche nell'Era della Computazionalità

A number of firms have started hiring data scientists. This is not to say that I think our designs are becoming the resultant of data, but that our designs are being better informed and strengthened by this embrace of data in the industry.

Andrea Love
, AIA

With the maturation of business intelligence tools such as Tableau’s Tableau Desktop, Microsoft’s Power BI, and Google’s Data Studio, firms of all sizes can simultaneously investigate multiple databases—as complex as a SQL database or as simple as an Excel spreadsheet. Combining disparate bits of data distributed throughout a company’s network in ways that are visually oriented empowers companies to migrate data to information and even further to knowledge, which can then be leveraged to understand most anything, including financial metrics, project planning, and building information model health, more deeply.

Architects can leverage such business intelligence tools to transform the design process and client relationships. 

Charlie Williams, AIA

If we’re not careful, the ability to do analysis and collect big data could overwhelm the fundamental value proposition of being a designer, which is to have unique insights and perspectives and to advance ideas. Designers still need judgment and intuition. Those qualities are not going away, and they shouldn’t.

Phil Bernstein


progettare.jpg

Phil Bernstein offre del BIM la seguente definizione: BIM is a set of knowledge structures that will empower new uses of technology in designing, making, and using buildings. What comes next is the digitization of a lot of processes… There will be new ways of organizing and integrating information so it can be leveraged and interconnected. Right now we have piles of unrelated digital data. We need strategies for integrating it.

Le tematiche relative all’Artificial Intelligence e ai Big Data stanno permeando ogni settore, creando, da una parte, aspettative forse eccessive e, per un altro verso, innescando una serie di iniziative concrete fondate sulla strutturazione dei dati (spesso storici) e sulla loro elaborazione (statistica).

A livello internazionale, specie al di fuori del contesto europeo e comunitario, l’argomento si fa progressivamente strada anche per quanto riguarda le professioni tecniche e, in particolare, quella di architetto.

Naturalmente, è difficile sottrarsi a suggestioni basate sull’automated professional imperniate iconicamente nell’automa dalle sembianze umanoidi, che possiede una presa emozionale ben maggiore della raffigurazione di algoritmi che apprendono.

Chiaramente, per gli architetti, l’Intelligenza Artificiale rappresenta, almeno nell’immaginario prevalente, sia una minaccia alla creatività sia una ipoteca sull’occupabilità, poiché ci si immagina che essa via via sottragga diritto di cittadinanza all’intelligenza naturale e che incrementando le procedure legate ad automatismi si riduca il fabbisogno di capitale intellettuale umano.

Paul Audsley, CIO di NBBJ, Columbus, Ohio, recentemente dichiarava ad Architect Magazine che as our world and industry becomes increasingly complex and the available tools more sophisticated, we’re finding that the interfaces between technologies often pose the biggest challenges and opportunities. All too often technologies work well in isolation but fail when integrated into an established workflow. Solutions that both enable this integration and streamline data flow increase both the speed of delivery and the confidence in the output.

Islay Burgess, Digital Design Manager di Gensler, ritiene che from interpreting building codes to solving a software limitation with Python programming, 2019 will push our industry to embrace how technology helps address global design challenges. We are seeing a fundamental shift in the knowledge base required to move the AEC industry forward. Exposure to digital processes across the design practice is increasingly important. There will be a level of understanding required of everyone working on a project—including team members who do not use any software. This is not a singular use case, but a shift in thinking that can start now but will continue to evolve in the coming years.

Si tratta di una prospettiva che apparentemente è antitetica rispetto a una continuità della tradizione della professione di architetto; al contrario, presso la Harvard Graduate School of Design, Stanislaus Chaillou sostiene che rather than a disruption, we want to see here a continuity that led Architecture through successive evolutions until today. Modularity, Computational Design, Parametricism and finally Artificial Intelligence are to us the four intricated steps of a slow-paced transition.

Lo stesso autore afferma, inoltre, che Artificial Intelligence is fundamentally a statistical approach to architecture. The premise of AI, that blends statistical principles with computation is a new approach that can improve over the drawbacks of parametric architecture. “Learning”, as understood by machines, corresponds to the ability of a computer, when faced with a complicated issue, first to grasp the complexity of the options showed to him and second to build an “intuition” to solve the problem at stake.

Due recenti saggi di Phil Bernstein e di Randy Deutsch, intitolati rispettivamente Architecture - Design - Data: Practice Competency in the Era of Computation (Birkhauser, 2018) e Superusers: Design Technology Specialists and the Future of Practice (Routledge, 2019), accomunati, appunto, dal riferimento alle attività professionali dell’architetto, fungono da ausili preziosi per ragionare sulla trasformazione digitale in relazione alla cultura architettonica e alla classe professionale che la esprime.

Conoscenza e applicazione della metodologia BIM nella professione tecnica

Il Building Information Modeling è stata di recente per la prima volta citato nel report annuale di ACE CAE sulla professione di architetto in Europa, riportando alcuni dati sul grado di consapevolezza e di adozione nei diversi Paesi, e di esso si offre una diffusione tendenziale crescente da parte dell'Osservatorio CNAPPC/CRESME.

I corsi sugli strumenti e, più di rado, sui metodi a esso legati si diffondono anche negli atenei italiani, nelle scuole di architettura, nei diversi livelli di studio, privi, peraltro, dei riferimenti alla Data Science che, invece, come abbiamo visto, spingono le società di architettura statunitensi a reclutare tali esperti con intenzioni sinergiche nei confronti dei processi ideativi.

In altre parole, l’intento è quello di creare workflow condivisi proattivamente tra design team leader, digital technologist e data scientist.

Un recente inserto de Il Giornale dell'Architettura proponeva, per il BIM, tratti incoraggianti, accanto a toni un poco millenaristici, sia pur intenzionalmente, si spera, provocatori.

La rappresentanza professionale nazionale sta per editare un volume esplicativo, probabilmente ispirato ad analoghe iniziative: prima tra tutte quelle della omologa tedesca.

Si tratta di segnali incoraggianti? 

Può darsi, ma servono diverse ed eterogenee avvertenze per l'uso che, tra l'altro, non possono non evocare la somma blasfemìa: potrà mai la creatività nuocere alla redditività dell'esercizio professionale? Una domanda, questa, che non si traduce solo nelle frequenti dispute inter-professionali sulle competenze (oggi arricchite dalla polemica comune verso la cosiddetta centrale pubblica di progettazione), bensì anche nella attribuzione di una cultura industriale all'architetto e alla sua performatività (l'architetto performante suona a molti come espressione offensiva e dispregiativa).

La tesi principale dello scrivente è che buona parte della cultura architettonica italiana abbia affrontato la questione della digitalizzazione in maniera «strumentale», laddove con questo attributo si intende un fenomeno collaterale che abbia la sua sostanziale rilevanza in quanto dispositivo di efficientamento delle condizioni attuali del mercato professionale, mentre la natura di instrumentum regni del fenomeno consiglierebbe tutt'altra interpretazione.

A mio parere, tale approccio appare assai discutibile, nella misura in cui scansa accuratamente, al contrario, la questione fondamentale che attiene ai seguenti aspetti:

  1. le condizioni di riconfigurazione strutturale dell'offerta dei servizi di architettura (e non solo);
  2. gli aspetti statutari e identitari della professione;
  3. la evoluzione della cultura progettuale.

Il ruolo della Intelligenza Artificiale nella progettazione (architettonica)

Occorre, anzitutto, riflettere, come già anticipato, sul ruolo che locuzioni quali Intelligenza Artificiale o Automazione abbiano sul vissuto professionale prospettico a medio termine: naturalmente, esse alludono a una nozione, definibile come sostituzione del lavoro intellettuale con il lavoro della macchina, vale a dire come la riduzione dell'intelligenza naturale che, per l'architetto, in particolare, si riassume nella creatività e nell'intuito.

In verità, più che il rimpiazzo, la tematica più impegnativa riguarderebbe la sinergia tra uomo e macchina, declinata nello specifico architettonico.

Orbene, è chiaro che abbia poco senso distinguere tra Information Modeling e Computational Design allorquando il solo accettare di tradurre in numeri l'esito del proprio pensiero e della propria azione faccia ricadere gli accadimenti appieno nell'ecosistema digitale.

Qui, se vogliamo, il problema attuale è che tale introduzione avviene spesso generando dati non strutturati, non abbastanza qualitativi per sviluppare, ad esempio, forme di machine learning.

Parimenti, la stessa parcellizzazione esasperata di mercati professionali, quali quelli italiano e tedesco, di fatto impedisce una raccolta unitaria di esperienze progettuali tradotte in dati numerici che l’ammontare complessivo dei professionisti consentirebbe.

Da questo punto di vista, è chiaro che la competizione professionale si svolgerà sempre più attraverso la conoscenza, di cui dato e informazione sono premesse.

Per questa ragione, la modalità più avanzata di industrializzazione, di cultura industriale, per il settore professionale consisterà proprio nella produzione, nella gestione (e nella condivisione?) dei cosiddetti laghi di dati.

Per questa ragione, è inevitabile che, a fronte, di un mercato professionale così atomizzato (almeno nella ufficialità), oltretutto duramente provato dalla «madre di tutte le crisi», qualche gestore «esterno» di piattaforme digitali potrà riuscire nella raccolta e nella aggregazione dei dati.

Si tratterebbe, al contrario, in altri termini, di capitalizzare (e di socializzare?) patrimoni esperienziali all'interno di ciascuna organizzazione professionale o, al limite, tra più di una di esse, ma per fare ciò non si dovrebbe partire dal BIM, come è inteso comunemente.

È evidente, infatti, che, paradossalmente, per motivi legati alla cultura analogica del documento, una buona parte dei professionisti che aderiscono alla logica digitale, intesa come numerica, affronti la produzione dei modelli informativi in guisa che tutto ciò non stia avvenendo nel modo migliore per favorire lo sfruttamento dei dati.

D'altronde, di fatto, è pur vero che già oggi gli strumenti di produzione dei dati (chiamati di BIM Authoring) contengano spesso in seno meccanismi di semi-automazione di alcune attività ripetitive, ma, soprattutto, che alcuni gestori di flussi di lavoro prefigurino ambienti di supporto alle decisioni, oltre che di capitalizzazione delle scelte progettuali pregresse.

Ancora, il combinato disposto dei software di Space Programming, di BIM Authoring e di Code & Model Checking sta a indicare come la produzione della concezione architettonica (e, in senso lato, strutturale e impiantistica) sottolinei una dimensione del controllo dei processi che passi attraverso l'istruttoria e il controllo: da parte del committente, ma pure all'interno delle strutture professionali.

Questa considerazione è particolarmente importante per due ragioni:

  • la disponibilità di numerosi applicativi e di diversi specialismi impone una sorta di infrastruttura immateriale costituita proprio da ambienti/ecosistemi/piattaforme digitali: ambiguamente a supporto/condizionamento degli operatori;
  • quantunque l'enfasi maggiore sia riposta principalmente sul rapporto esistente tra struttura di committenza e organismo principale di progettazione, le maggiori criticità possono rivelarsi, orizzontalmente e verticalmente, all'interno della catena di fornitura dei servizi professionali.

Che poi, allo stato presente, la modellazione informativa sia poco coincidente colla gestione delle informazioni, che poi essa si risolva nella principale finalità, legata agli aspetti strettamente geometrico-dimensionali, di produrre documenti, in ispecie elaborati grafici, emerge certo come un paradosso, ma del tutto coerente colla natura analogica degli operatori.

In definitiva, l'enfasi riposta sulla clash detection, intesa prevalentemente nel senso geometrico-dimensionale, riflette proprio una istanza di coerenza documentale (spesso smentita, invero, dai contenuti dei modelli informativi rispetto ai quelli che si trovano nei documenti digitalizzati) che rischia di risultare fuorviante, poiché mette sullo sfondo l'indivisibilità del contenuto e del contenitore, della decisione e del suo veicolo informativo.

In qualche modo, gli specialisti dell'informazione si sottraggono sistematicamente a una accountability sulla qualità delle scelte progettuali: la stessa nozione di design optioneering sta a significare che lo specialista dell'informazione genera una serie di alternative, lasciando al decisore creativo la responsabilità dell'autorialità, anche se poi la diffusione di middleware tende a fare che sì che la intermediazione sia ancora orientante.

Vero è, a questo proposito, che la maggior parte dei racconti sulle forme di automazione generativa prendono le mosse giusto dalla valutazione dell'investimento e dal progetto di fattibilità tecnico-economica, a sottolineare il ruolo dell'AI nel predisporre i progettisti ad avviare il percorso creativo a valle dell'analisi e della generazione di una serie di vincoli e di soluzioni contestuali.

In qualche modo, dunque, tra i requisiti informativi computazionali e gli automatismi propri al progettista stesso, si fa sì che l'architetto, nella sua fase di maggior espressione creativa, anche attraverso sketch o maquette (dati non strutturati) sia, comunque, contenuto in un alveo sorvegliabile.

La sequenza operativa poc'anzi accennata, peraltro, vede una prima potenziale gravissima lacuna nello Space Programming, in quanto esso obbliga il committente a formalizzare computazionalmente (la pecca della maggior parte dei capitolati informativi) le proprie richieste, cercando di non separare Employer's Information Requirements ed Employer's Requirements.

Non sarà certo, in effetti, il fatto che la normativa internazionale abbia mutato in Exchange la E di Employer a cambiare lo stato delle cose.

Il punto saliente è, tuttavia, che la formulazione dei requisiti (non solo informativi) in forma strettamente computazionale e, di conseguenza, leggibile dalla macchina, non presuppone un cieco asservimento dei progettisti alla conformità delle regole di committenza, bensì una forte dialettica tra le parti interessate.

Se, però, si rafforza la metrica che permette di misurare le deviazioni o gli scostamenti tra ciò che analiticamente è stato richiesto dalla committenza e ciò che è proposto dai progettisti, è opportuno, altresì, che il dialogo avvenga in senso letterale costruttivo, che non si limiti all'accertamento rigido di conformità.

Altresì, la stessa natura dei livelli di fabbisogno informativo (Level of Information Need), tutti incentrati sulle necessità specificamente finalizzate degli obiettivi, implica l'esistenza di un committente consapevole a cui i professionisti, in primo luogo gli architetti, dovrebbero saper rispondere a tono.

La relazione che intercorre tra committente e progettisti qui dovrebbe davvero farsi collaborativa, nel senso di costruttiva, allorché le famigerate entità contenute nei modelli informativi sono, appunto, strutturate e tettoniche al tempo stesso, entro un sistema di vincoli e di opportunità che inizia collo space programme e coi rule set, le regole di verifica dei modelli informativi e dei progetti che ne determinano pure i contenuti minimi, giacché nulla che non sia presente è verificabile e validabile.

L'accezione che deriva da questa impostazione è piuttosto, per così dire, meccanicista, tanto che, non a caso, la fase digitalmente più debole rimane quello della ideazione preliminare, sia che avvenga tramite schizzi o modelli, più o meno digitali e più o meno immersivi.

La produzione dei modelli informativi

La natura, relativa, dei livelli di fabbisogno informativa e l'essenza, costruttiva, delle entità parametriche suggerirebbero una inedita centralità del dato, computazionale, così che si parla dei primi progetti realizzati senza la produzione di un solo disegno, riprendendo una suggestione proposta in alcuni ambiti manifatturieri che vedono il modello digitale farsi direttamente agente della produzione e che aveva, nel passato, ispirato l'icona del Digital Master Builder, vale a dire dell'architetto che si fa produttore.

E' quest'ultima una immagine al contempo dionisiaca, perché l'architetto ritornerebbe a essere faber, ma pure apollinea, in quanto l'architetto controllerebbe direttamente i mezzi di produzione, nella vece del costruttore, a cui è tradizionalmente avvinto da una relazione contrastata.

Simultaneamente, poi, il documento (testuale) e l'elaborato (grafico) ci mostrano in quale misura la produzione dei modelli informativi rimanga sempre rivolta alla generazione di documenti, il più possibile tratti in maniera coerente da modelli informativi aggregati o federati.

La dannazione del documento non può essere, però, considerata come un accidente formale, in quanto il documento stesso, non necessariamente strutturato, vale per l'ordinamento procedurale e per l'apparato mentale dei committenti e dei professionisti come irrinunciabile.

Sicuramente, il documento, sia pure digitalizzato, al contrario del dato, se numerico, non ha il potere di influire (automaticamente) sulla produzione, ma, nel quadro contrattuale vigente, rimane riferimento sicuro di prescrizione e di comunicazione.

Che si ricorra agli strumenti di Code & Model Checking con intensità diverse o meno, il fine sembrerebbe rimanere sempre quello della verifica dei documenti progettuali ai fini della loro validazione: le interferenze, prevalentemente geometriche, avvengono tra oggetti (tendenzialmente tri-dimensionali), è indubbio, ma il loro scopo è sempre incline ad assicurare la coerenza tra i documenti e le rappresentazioni.

D'altra parte, a dispetto di qualsivoglia interoperabilità, quale è la vera sincronia concettuale tra gli ambienti di modellazione (informativa) e gli ambiti di calcolo (energetico, strutturale, impiantistico)? 

Lo scambio informativo è ancora in parte indiretto; la possibile, errata, doppia computazione, ad esempio, tra oggetto architettonico (proprio così è definito, per quanto sarebbe forse più edilizio) e oggetto strutturale, tutto sommato, testimonia una certe impermeabilità tra i due universi professionali.

Alla stessa stregua, al di là dell'attendibilità dei modelli analitici presenti nei modelli informativi (modelli nei modelli!), le stesse proprietà espresse alfa-numericamente presso le entità bi- e tri-dimensionali (anche mono-) permetterebbero sì, ad esempio, di effettuare calcoli e simulazioni, ma forse non consentono compiutamente di virtualizzare il comportamento del singolo oggetto (elemento costruttivo o impiantistico ovvero unità funzionale-spaziale).

Lo stesso ragionamento si applica ancor meglio alle strutture prefabbricate, per cui l'intelligenza delle connessioni assume un rilievo affatto centrale nel gioco delle combinatorie: non da oggi, non dall'ambiente digitale.

Eppure, cominciano a comparire entità autonome, che apprendano progressivamente, in grado di simulare il comportamento singolare oppure sistemico, di scegliere, dunque, una collocazione autonoma rispetto al progettista, in base a fattori e a parametri complessi: sulla scorta del sapere collettivo di altri progettisti?

E' questa una forma di semi-automazione che probabilmente comporta specificità rispetto alla idea di eseguire routine ripetitive e tediose: avremo oggetti informativi parametrici in grado di ribellarsi ai propri ideatori, sulla base, ad esempio, di un vincolo logistico o finanziario?

La crasi tra Employer's Requirements e Employer's Information Requirements (o, se si vuole, tra documento di indirizzo preliminare e capitolato informativo) restituisce una nuova connotazione al Digitally Enabled Design Management, nella direzione di eliminare, appunto, qualsiasi soluzione di continuità tra scelta ideativa e suo veicolo informativo: l'informazione qui diventa decisione, nel senso che una determinata struttura di dati darebbe forma alla scelta progettuale.

Questa continuità tra il piano nobile della decisione e quello, prosaico, della informazione, se fosse davvero destinata ad avverarsi, riallocherebbe decisioni e identità in modo rilevante, tanto che si sta avviando una riflessione giuridica sul rapporto tra detenzione del dato e proprietà dell'idea, basata sulla ripetitibilità.

Le precedenti notazioni ci suggeriscono un paesaggio assai incerto tra approcci tradizionali e approcci inusitati, così come, ad esempio, le curve di MacLeamy, quale espressione di una certa concezione della professionalità organizzata di stampo anglosassone piuttosto rara alle nostre latitudini (sia sufficiente rimandare alle statistiche, in questo caso continentali, di ACE CAE) evocano una dimensione della professione di architetto (e non solo) capace di anticipazione in quanto in grado di porsi dal punto di vista degli altri attori del processo e della commessa.

Il che non semplicemente poteva far ritenere che la design ownership potesse essere contendibile dai costruttori o da altri soggetti, ma anche che vi potesse essere una forma audace di Architect-Led Design-Build Procurement.

Il gioco di rimandi tra sviluppo della progettazione ed evoluzione strutturale della organizzazione professionale induce ora a concentrarsi sul passaggio rimosso, o meglio occulto, nella sequenza di istruttoria, di progettazione, di verifica e di validazione della ideazione digitalizzata: la Business Intelligence sottesa alla produzione e alla gestione dei modelli informativi basata sulle Data Analytics inerenti al BIM Authoring.

Occorre, dunque, nella lunga fase di transizione digitale, accettare la compresenza tra la ricerca della coerenza dei documenti progettuali (abilitata dalla modellazione informativa) e il ricorso al discernimento dei rapporti e dei comportamenti inter-organizzativi (consentito dall'analisi dei dati attinenti alla modellazione informativa medesima).

In questo delicato rapporto che sussiste tra la tangibilità (il documento come esito della prestazione professionale e come deposito della creatività intellettuale) e l'immaterialità (la comprensione delle relazioni tra i soggetti coinvolti nella progettazione) si situa tutta l'ambiguità del tema che sfocia in quello che chiameremmo la questione della intelligenza artificiale nella cultura architettonica.

Valore del dato e dell'AI come terza ondata digitale, dopo il CAD e il BIM

Si tratta di un tema sensibile, ma non impronunciabile, come dimostra il crescente interesse nutrito da parte della cultura architettonica nord-americana nei confronti del valore del dato e dell'AI come terza ondata digitale, dopo il CAD e il BIM.

E' impressionante constatare come gli architetti statunitensi maggiormente digitalizzati parlino apertamente di historical e di big data to inform design: in quanti studi o società di architettura italiani ciò sarebbe immaginabile? In alcuni per certo, nella maggior parte è improbabile.

Se si leggono in dettaglio, come proveremo a fare in altre occasioni, i saggi di Bernstein e di Deutsch, ma anche se si osservano i tweet di Brian Ringley o di Alain Waha, si può capire come nello scenario degli automatismi e delle correlazioni, molto più spinte dalla generatività,  la preoccupazione principale sia quella di valorizzare gli aspetti intuitivi dell'architetto nell'alveo, sempre più ristretto, del machine learning e di altri approcci tesi a efficientare le azioni ripetitive e  a effettuare previsioni nella concezione.

E' interessante osservare la vivacità del dibattito che si dipana tra il Connecticut e l'Illinois, che non riguarda, tuttavia, solo la East Coast né tantomeno l'ambito accademico, diffondendosi presso l'American Institute of Architects.

La sensazione che si ha dal volume di Bernstein è di un dialogo tra tame e wicked che obbliga a un continuo riposizionamento l'architetto, sino alla sfida cruciale, era evidenziata dall'antico collaboratore di Cesar Pelli e già Vice Presidente di Autodesk in una ancor più recente intervista al periodico degli architetti irlandesi, ove enfatizzava l'assunzione di responsabilità dell'ideatore nella fruizione lungo il ciclo di vita del cespite: una maniera per dire che l'architetto è chiamato nel tempo a rispondere del funzionamento degli occupanti assieme a quello del bene: come dimostra la popolarità degli strumenti simulativi e immersivi legati ai comportamenti degli occupanti.

Il tono del saggio di Deutsch è simile, laddove i Doer, qui Super User, eroicamente conservano lo spazio dell'ideatività all'interno della dis-umanità possibile della concezione, come, nella premessa, la definisce Ian Keough, colui che ha concepito Dynamo.

Ritorniamo, quindi, alla trilogia dei quesiti iniziali:

  1. le condizioni di riconfigurazione strutturale dell'offerta dei servizi di architettura (e non solo): quali sono le condizioni al contorno (processi aggregativi facilitati dal diritto societario, equità nei compensi e nei tempi della progettazione; attitudine collaborativa tra gli attori, ecc.)?
  2. gli aspetti statutari e identitari della professione: chi detiene l'autorialità, chi risponde della fruibilità evolutiva dei cespiti, a che cosa servono i beni immobiliari?
  3. la evoluzione della cultura progettuale: quale soglia della creatività è indotta dall'estensione della Design Automation di cui parla Jaimie Johnston per l'Off Site?

Si tratta di interrogativi troppo importanti per essere lasciati a una didattica e a un utilizzo del BIM che non fuoriesca dai confini angusti di una strumentalità, in parte inconsapevole.

Può ben essere che, come ritiene Stanislas Chaillou, there is no doubt that AI will never — could never — automate the architect’s intuition and sensibility. The human uses the machines as its tool. Not the over way around. However, benefiting from an intelligent assistant is within our reach and should be carefully studied, tested and experienced.

Intuizione e sensibilità sono due termini frequentemente evocati da Bernstein e da Deutsch per invitare i professionisti, nella fattispecie gli architetti, e le loro rappresentanze ad attrezzarsi per conquistare spazi inediti in un mercato destinato a cambiare radicalmente.

Il rischio maggiore che si possa correre consiste, però, nel focalizzare l’attenzione sugli aspetti più riduzionisti della trasformazione digitale.

In altre parole, se si vuole iniziare dal BIM Authoring occorre partire dall’«aprire la scatola del modello informativo», dal possedere piena contezza delle logiche che animano gli applicativi di produzione dei modelli informativi, da quali modelli e strutture di dati essi siano animati.

È, altresì, significativo osservare come, al di là delle numerose sperimentazioni inerenti alla realtà immersiva, sempre più articolate e complesse, gli architetti statunitensi si stiano predisponendo ad affrontare il paradigma della interconnessione, ben al di là dei Building Management System.

In una recente analisi di CB Insights a proposito di We Company, si leggeva che based on knowledge of its building layouts and meeting rooms utilization, the company can predict meeting room usage for a layout that has yet to be constructed. In a test of the neural net system, the program estimated room usage 40% more accurately than WeWork’s human designers did. The graphs below show the number of hours a meeting room was utilized vs. its predicted hours, with the neural net achieving far more linear correlation.

Al di là della celebre, iconica, immagine che associava Adam Neumann e Bjarke Ingels, il messaggio da recepire è che la «rivoluzione digitale» per gli architetti si fonda sulla Data Science, ma solo per giungere a Form follows Behaviours: affiancando agli scienziati dei dati gli psicologi della cognizione, l'architetto diventa a tutti gli effetti progettista dei comportamenti, in nome dello User Centrism e di ogni prefisso Co- possibile.

Il che vuol dire che l'architetto che ha ideato l'opera non solo non potrà più prenderne distanza, ma anche che dovrà co-rispondere nei confronti della soddisfazione degli occupanti e degli utenti.

Si tratta di una aspirazione antica, all'interno della sua identità umanistica: non senza molte zone oscure, perché nel Behavioural Design il confine tra coercizione e persuasione è piuttosto labile.

Phil Bernstein, nell'ottica della fruizione come driver per la progettazione afferma: if your firm’s doing healthcare work and your clients are leveraging information from their electronic medical records systems to correlate actions and outcomes, the architect must transfer those expectations onto the design process. The old “I’ve done 17 hospitals so trust me” model isn’t going to work anymore.

In ogni caso, sostiene il Royal Institute of British Architects che practice revenues overall are rising at twice the rate of the rise in staff numbers. Contrast the 21% increase in practice revenues since 2015 with the 9% growth in the total number of staff employed in chartered practices over the same period.

Secondo Bernstein, there will be a shift from relying entirely on judgment and intuition to rationality. 

In definitiva, aumentare la produttività, diminuire l'intensità di lavoro intellettuale, evitare la commodization, accrescere il ruolo della creatività come value proposition appaiono gli obiettivi da porsi: praticabili entro le attuali strutture e configurazioni del mercato professionale domestico?