Data Pubblicazione:

Validazione e sperimentazione: "connubio" indispensabile!

 Con l’entrata in vigore del D.M. 14 Gennaio 2008, e ancora prima dell’Ordinanza 3274-3431, il ruolo dell’analisi strutturale nell’ambito dell’ingegneria sismica è diventato sempre più importante a tal punto da pensare che il progettista non possa essere tale senza l’ausilio di un opportuno strumento di calcolo. Sempre più spesso si riscontra nel mondo professionale la tendenza ad affrontare analisi più o meno complesse “affidandosi” ciecamente al software impiegato e “fidandosi” in maniera incontrollata dei risultati ottenuti.
L’ingegnere strutturista deve ritornare ad essere un utilizzatore consapevole, preparato e critico di procedure numeriche sempre più complesse. Cosa significa “consapevole, preparato e critico”?. Capace di compiere scelte, secondo criteri scientifici, nel passare dalla struttura reale, al modello numerico attraverso una opportuna discretizzazione del continuo fino a giungere alla soluzione finale con le relative relazioni di calcolo.
Il tutto è ulteriormente complicato dalla notevole evoluzione che, negli ultimi anni, i metodi di analisi hanno subito nelle norme tecniche: in dettaglio, nell’analisi e verifica sismica si è passati da metodologie lineari statiche (nel materiale e nella geometria solitamente anche bidimensionali) all’uso di modelli, spesso per non dire sempre tridimensionali, altamente non lineari (effetti del secondo ordine, parametri costitutivi di calcestruzzo ed acciaio, grandi deformazioni, ecc.). Inoltre, va aggiunto, ad ulteriore complicazione, che le verifiche di sicurezza su edifici esistenti richiedono di determinare nel modo più accurato possibile la risposta strutturale non solo nei confronti delle azioni in condizione di esercizio, ma anche allo stato limite ultimo.
Tre i passi procedurali che l’ingegnere deve seguire per potersi orientare nel mondo della numerica avanzata:
1. idealizzare la struttura reale da progettare attraverso un modello matematico con un opportuno grado di dettaglio;
2. suddividere il modello matematico costruito in precedenza in elementi finiti;
3. risolvere numericamente il modello discreto, interpretare i risultati e scrivere una relazione di calcolo.
Volendo applicare le fasi appena indicate ad un caso reale, prendiamo la struttura, riportata in figura, e testata sperimentalmente nei laboratori Eucentre su tavola vibrante. Nessun dubbio sul fatto che la prima fase possa ridursi dicendo che lo schema statico è banalmente quello di una mensola incastrata alla base con una massa concentrata in sommità. Il professionista oppure il ricercatore che nella fase precedente è stato chiamato in causa in merito al passaggio dalla pila in scala reale al modello numerico, ora nella seconda fase deve passare alla discretizzazione e poi al dovuto controllo dei risultati. Deve quindi scegliere il tipo di elemento finito da impiegare (fibra, beam classico), un approccio alle forze oppure agli spostamenti, considerando che la scelta dell’una o dell’altra alternativa non è assolutamente ininfluente, elementi a plasticità diffusa o concentrata, numero di punti di gauss per l’integrazione, modello di smorzamento, criterio di convergenza e così via. In questo particolare caso, il progettista si trova a scegliere, come succede nella maggior parte dei software commerciali, tra matrice di rigidezza iniziale e tangente. Avendo a disposizione i risultati sperimentali risulta chiaro che la scelta della prima porta ad una sottostima della risposta strutturale di diversi ordini percentuali più bassa rispetto al reale comportamento. Il che sottintende una sovrastima consistente delle capacità dissipative della struttura analizzata.
Come è possibile per il professionista evitare di incappare in queste sgradevoli situazioni che possono capitare ogniqualvolta si ha a che fare, per esempio, con edifici esistenti? Sicuramente il progettista non ha la possibilità (e neanche deve averla!) di validare un software, ma ha comunque l’obbligo di formarsi partecipando a corsi di aggiornamento professionali con una propria specificità formativa principalmente rivolta a creare una figura competente nell’ambito appena descritto. Quindi una figura professionale con approfondite conoscenze numeriche e teoriche, trasversale ai diversi ambiti dell’ingegneria civile ed esperta di calcolo strutturale mediante l’impiego di differenti software di calcolo.
Questo però non basta! Alla centralità e responsabilità del progettista, si devono affiancare, lavorando di concerto, Istituzioni, Centri di Ricerca e software-house che devono avere fra i propri obiettivi la validazione dei codici e delle “subroutines” tramite: casi studio analitici in letteratura scientifica, comparazione con altri solutori, ma soprattutto confronti con dati sperimentali come l’esempio di prima spero sia riuscito a dimostrare.
Esiste quindi un rapporto biunivoco tra validazione e sperimentazione che dovrebbe avere un obiettivo comune a varie figure coinvolte (ricercatori, progettisti, sviluppatori, professionisti): la scrittura del classico (almeno in ambito anglosassone) manuale di “Validation and test cases” che dovrebbe diventare un dovere fondamentale di ogni produttore, implementatore e distributore di software.
Una seria ed operativa realizzazione delle fasi delineate in precedenza costituirebbe per il futuro una buona regolamentazione nel panorama confuso degli utilizzatori indiscriminati di “black box” a risultato garantito. Concludo con una solida convinzione già espressa in passato in contesti simili a questo: non esiste un software che in assoluto sia superiore a tutti gli altri, ma esistono singoli strumenti di calcolo peculiari per certe applicazioni e meno per altre.