Validazione, specializzazione e interoperabilità

 La sempre crescente complessità degli organismi edilizi, sia essa architettonica, con forme sempre più ardite e complesse, sia essa strutturale, anche per la necessità di studiare la risposta dinamica o non-lineare, oltre che statica lineare delle strutture, sia essa impiantistica, con impianti sempre più complessi ed integrati con l’edificio, fa sì che i software rivestano una importanza sempre crescente nell’ambito della progettazione.

Quando si guardi all’edificio nel complesso, diventa sempre più importante poter far riferimento ad un ambiente di progettazione che consenta di condividere tra i diversi attori che prendono parte allo sviluppo ed alla realizzazione di un progetto lo stesso database di informazioni. Ciò consentirebbe di diminuire fortemente la ridondanza delle informazioni e, soprattutto, la propagazione degli errori, derivante dal fatto che ciascun soggetto coinvolto nella progettazione abitualmente lavora a partire da un elaborato autonomo o semi-autonomo, praticamente “rilucidando”, per usare un termine ormai desueto, le tavole architettoniche o strutturali, ricavandone solo le informazioni strettamente necessarie.

Tra le tante difficoltà di un approccio di questo tipo, generalmente identificato con BIM (Building Information Modelling), vi è quella dell’interoperabilità di diversi software specialistici, e la loro frequente incompatibilità, con un singolo database.

Quando si parla di strutture, si sente spesso parlare di validazione dei software di calcolo. D’altra parte, la crescente complessità della geometria degli edifici, la necessità di eseguire verifiche nei confronti di azioni sismiche, ormai praticamente indispensabili per qualsiasi struttura esistente o da edificare sul territorio nazionale, il sempre più frequente ricorso ad analisi statiche o dinamiche non-lineari, soprattutto utili quando si intenda verificare la vulnerabilità sismica del costruito, rendono ormai imprescindibile il ricorso a software per l’analisi strutturale sempre più complessi e di utilizzo generale.

In un panorama così complesso è inevitabile che la validazione del software assuma una importanza che molti non esitano a definire addirittura fondamentale. In realtà si dovrebbe fare un distinguo tra validazione dell’analisi, e quindi del calcolo svolto, e validazione del software, distinguo che spesso sembra sfuggire, forse per motivazioni che poco hanno a che vedere con l’ingegneria.

Quando si parla di validazione del software ci si dovrebbe limitare a richiedere che il software dia i risultati corretti quando si affronti l’analisi di casi studio la cui soluzione sia nota, o perché sono disponibili soluzioni analitiche, tipico per problemi di analisi lineare, o perché sono disponibili dati sperimentali che possono essere utilizzati per definire utili benchmark numerici, come tipico per le analisi non-lineari. Se questo è ciò che si intende per validazione, è possibile fissare degli standard e definire dei benchmark di qualificazione che consentano di garantire l’affidabilità del software, con particolare riferimento alla correttezza della formulazione degli elementi, dei legami costitutivi, degli algoritmi di integrazione, ecc. È quindi possibile fornire un protocollo di “collaudo”, per usare un termine caro a noi ingegneri, del software, che porti alla sua validazione.

D’altra parte, il fatto che un software sia eventualmente validato, e quindi dia i risultati giusti quando si affronti lo studio di problemi noti le cui condizioni al contorno (vincoli, carichi, geometria, materiali, ecc.) siano univocamente e chiaramente definite, non vuol dire che l’analisi di una struttura reale svolta con quel particolare software validato sia corretta.

Qui si innesta il problema della validazione dell’analisi, e quindi la competenza del tecnico che utilizza il software, validato o meno che sia. Si deve infatti realizzare che il modello di calcolo che adottiamo per rappresentare una struttura altro non è che una astrazione ed una semplificazione, spesso brutale, della realtà. Eppure, malgrado le semplificazioni che si introducono, spesso un calcolo eseguito su un modello semplice fornisce risultati ben più affidabili di quanto non avvenga utilizzando un modello complesso, solo apparentemente più aderente alla “realtà”, ammesso che sia possibile identificare la realtà per una struttura esistente o in progetto. Questo perché le incertezze e le difficoltà insite nel governare il calcolo ed interpretare correttamente i risultati crescono molto rapidamente con la complessità del modello.

Un analista esperto si distingue spesso dal principiante proprio dalla capacità di semplificare al massimo il problema, cogliendo gli aspetti salienti della risposta della struttura, riuscendo a governare l’analisi e fornendo risposte al problema ingegneristico, anziché semplicemente numeri, che spesso altro non sono se non esclusivamente numeri, anziché valori rappresentativi della realtà. Nel fare ciò, spesso l’analista esperto arriva al modello finale di calcolo per gradi, passando da modelli semplici, sia per poter aver un raffronto con calcoli manuali, sia per potersi costruire una “sensibilità” sulla risposta della struttura.

Il progettista di strutture deve pertanto conoscere in maniera approfondita gli strumenti di calcolo, deve essere in grado di interpretare i risultati e valutarne la correttezza, ma soprattutto deve avere una elevata sensibilità strutturale, così da poter governare i processi di analisi, ed interpretare correttamente lo schema statico, affinché il modello di calcolo possa fornire risultati coerenti con la realtà.

 

Il Magazine

Sfoglia l'ultimo numero della rivista Ingenio

Newsletter Ingeio

Seguici su