Per analizzare un manufatto, una porzione di esso o un materiale (sia in ambito edile sia industriale) è necessario distruggerne una piccola porzione eseguendo un carotaggio di una determinata struttura (in edilizia) o il prelievo di un frammento di un pezzo meccanico (in industria) al che, prelevato un campione quantitativamente sufficiente all’indagine, si procede con la sua successiva analisi in laboratorio con gli idonei metodi e strumenti del caso.

La moderna tecnica ed il progresso scientifico, ci vengono in aiuto con le “P.N.D.” (prove non distruttive) definibili anche “C.N.D.” (controlli non distruttivi).

Queste analisi, mirano ad esaminare con differenti metodi, impiegando protocolli d’indagine codificati e standardizzati le caratteristiche di manufatti o materiali senza doverli alterare prelevandone porzioni o compromettendone la forma e/o la quantità di materia che li compongono.

Per completezza di trattazione, va detto che tra le metodologie di P.N.D./C.N.D. sono citabili, in riferimento alla UNI EN 473 / ISO 9712, le seguenti :

– PT – Liquidi penetranti: si basa sull’esaltazione della visibilità di difetti superficiali mediante contrasto cromatico tra una sostanza liquida che penetra per capillarità nei difetti (penetrante) ed uno sfondo (rivelatore).
–  RT – Radiografia: comprendente i sistemi Raggi X e Raggi gamma.
–  UT – Ultrasuoni: tecnica che fa impiego di onde acustiche ad alta frequenza (nell’ordine dei MHz per i materiali metallici, dei kHz per materiali più eterogenei quali quelli lapidei ed i conglomerati cementizi), e che comprende anche la metodologia TOFD (time of flight diffraction ultrasonics).
– ET – Correnti indotte: tipologia di controllo basato sullo studio della variazione di impedenza di una bobina in funzione del campo magnetico indotto.
ECT – Eddy-current testing: test che si basa sull’esame delle correnti parassite indotte mediante un campo magnetico alternato.
– VT – Visual test: sistema di controllo visivo.
– MT – Magnetoscopia: verifica delle alterazioni di flusso del campo magnetico in prossimità della superficie del particolare posto sotto esame.
– AT – Emissione acustica: sistema per l’identificazione di propagazione delle difettologie.
– TIR (o TT) – Termografia: analisi della risposta termica in presenza di discontinuità del materiale.

Abbiamo recentemente appreso dai media la notizia circa la criticità nella tenuta termica dell’involucro riscontrata tramite termografie ad infrarossi effettuate da Legambiente sui nuovi edifici appena ricostruiti a l’Aquila dopo il sisma ( leggi anche Tutti in Classe A: le termografie bocciano gli edifici de L’Aquila)

Molti di noi, in quanto tecnici, sapranno certamente cosa sia indicativamente un termogramma e cosa esso metta in risalto (le differenti temperature di parete sono evidenziate da colori diversi), però sulla disciplina vi è ancora grande incertezza e troppa “aura leggendaria” dovuta soprattutto alla scarsità e frammentarietà di informazioni veicolate, utilissime ad approfondirne e chiarirne i vari aspetti.

Va premesso invero che la materia non è proprio per tutti in quanto presuppone di possedere un minimo substrato cognitivo in merito all’ottica, alla trasmissione del calore ed in particolare alla fisica tecnica  dell’irraggiamento che si dipana a partire dalle equazioni di Stefan-Boltzmann, di Plank, di Kirchhoff e di Wien.

Cercherò comunque per quanto mi è concesso in questa sede di essere il più semplice possibile nella trattazione, così da provare ad essere chiaro e comprensibile per tutti (o quasi) i lettori.

Partiamo dalla normativa con  le Normative internazionali e Nazionali sulla termografia.

Da come avrete già potuto ravvisare dal ben corposo elenco di norme di settore, la termografia non è affatto una disciplina così nuova e nemmeno priva di norme specifiche che la regolamentano.

Infatti il primo apparecchio commerciale è datato ben 1965! Il sensore dell’epoca, immerso in azoto liquido, vedeva un obiettivo grande più o meno come un “tubo da stufa” attraverso un sistema di prismi che ruotavano e producevano immagini di poche linee.

Al giorno d’oggi abbiamo invece termocamere grandi poco più di un cellulare, e già si intravvedono nel prossimo futuro trasformazioni radicali del panorama mondiale, grazie alla composizione di più termogrammi per ottenere risoluzioni sempre maggiori.

Inoltre il “post processing” digitale dei termogrammi che, sovrapposti con l’immagine (fotogramma) visibile ad occhio nudo, rende più nitide e leggibili le immagini, evidenziando al meglio ogni discrasia riscontrata, senza più sfumature ed effetti di “pixeling” (scalettatura).

La termografia nasce, guarda caso, per scopi prettamente militari (individuare il nemico in condizioni visive critiche o attraverso strutture non eccessivamente isolanti) ed è tutt’ora impiegata preponderantemente proprio in ambito bellico; giusto per questa ragione, un po’ come accade per la tecnologia di geolocalizzazione satellitare (G.P.S.), i “videoradiometri ad infrarossi”, volgarmente definiti “termocamere” hanno tutti risoluzioni geometriche (pixels) non elevatissime e costi decisamente notevoli (per ragioni di brevetto), così da limitarne l’uso e l’acquisto ai fini di un loro impiego per scopi esclusivamente non legati all’ambito bellico / offensivo.

Si può senz’altro affermare con sicurezza, che si è creato con il passare degli anni un circuito virtuoso nella comunità tecnico-scientifica per mettere a punto tecniche di misura sempre più efficaci e precise. In sintesi, la termografia si è trasformata col tempo e la pratica in un consolidato strumento professionale per molte attività di rilievo ed indagine non distruttiva, compreso l’ambito medicale, di cui non tratterò per ovvie ragioni di impossibilità di esercizio della professione in ambito diagnostico e medico. È noto, ché la termografia in molti casi risulta essere così efficace in virtù della sua natura ottica, che le consente di operare senza contatto con l’oggetto esaminato. Conseguentemente, non è invasiva e non interferisce in modo apprezzabile con la misura stessa.

Inoltre, l’indagine termografica va normalmente eseguita ad una certa distanza e perciò elimina la necessità di raggiungere le superfici oggetto di studio con ponteggi e cestelli ed allontana pertanto l’operatore da potenziali pericoli. Per contro, è ovviamente necessario disporre di un accesso ottico verso le superfici di interesse. Questo problema però tende a ridursi con la miniaturizzazione delle termocamere, conseguente all’adozione dei sensori a matrice (FPA: focal plane array) o in rari casi con le fibre ottiche.

Vediamo allora che la termografia diviene anche disciplina fondamentale per controllare e monitorare componenti critici d’impianto come i quadri di distribuzione elettrica, motori, forni, etc. senza interrompere il servizio e riducendo al minimo i rischi ispettivi. Tra l’altro, la radiazione IR (infrarossa) non ha alcun effetto nocivo (a meno di non mettere l’operatore ad eseguire le termografie dentro ad un forno acceso!).

Esiste però un altro sostanziale vantaggio della termografia rispetto ad una rete, seppur fitta, di sensori termici e cioè la produzione di un’immagine (il “termogramma”), ossia di una matrice bidimensionale di punti di misura, così densa, da essere praticamente continua nello spazio.

È molto importante comprendere appieno l’enorme beneficio di poter visualizzare ed analizzare la distribuzione di temperatura.

Innanzitutto, l’immagine infrarossa dell’oggetto permette un’immediata localizzazione del problema o della difformità; inoltre, la visione panoramica è di enorme ausilio nella comprensione dei fenomeni, che generano un’eventuale anomalia termica.

In questo modo, si possono facilmente eseguire indagini comparative tra aree dell’oggetto esaminato con oggetti simili, ad esempio contenenti o meno difettosità. Infatti, è risaputo che i metodi relativi di controllo sono molto sensibili e più semplici dei metodi assoluti.

E’ però necessario sottolineare che questa tecnica porti a condurre un’indagine di tipo QUALITATIVO e non quantitativo e che per avere la certezza del risultato sia, in alcuni casi specifici, ovviamente necessario procedere ad ulteriori misure con metodi differenti, in modo da ottenere riscontri univoci e sovrapponibili (ad es. si suole verificare quantitativamente con un termoigrometro a contatto il fenomeno di risalita capillare o di condensa interstiziale individuato qualitativamente nelle pareti tramite termografia).

Nei settori edile ma soprattutto industriale ogni prodotto di importanza critica (travi per l’edilizia, viti di sostegno, componenti aeronautici, componenti automobilistici, corpi a pressione) deve essere controllato per la verifica della sua integrità e conformità alle norme vigenti o alle specifiche tecniche proprie del prodotto stesso. E’ noto infatti che una piccola crepa superficiale, innocua in condizioni normali, se sottoposta a sollecitazioni da fatica (stress ciclico), cresce costantemente di dimensioni fino a portare a rottura il componente.

La diffusione di un servizio ispettivo e preventivo è così alta, che sul mercato si trovano apparecchiature specifiche, di una praticità impensabile solo pochi anni addietro. In industria infatti si tende ad eseguire indagini cicliche a cadenza fissa e periodica in modo da prevedere rotture dei macchinari e fermi impianto in base ai surriscaldamenti degli organi oggetto di usura e stress (cuscinetti, alberi motore, attriti localizzati, etc.).

 

Dal web


Dal web

Gli Speciali

3 Commenti

Scrivi un commento