Rad 4 - lezione radiodiagnostica PDF

Title Rad 4 - lezione radiodiagnostica
Course Genetica
Institution Università degli Studi di Sassari
Pages 8
File Size 465.8 KB
File Type PDF
Total Downloads 98
Total Views 157

Summary

lezione radiodiagnostica...


Description

Tomografia computerizzata Abbiamo visto che ho una matrice di numeri che riassume le alterazioni dei raggi X, e questa matrice di numeri deve essere traslata in immagine visibile attribuendo a ognuno di questi numeri una scala in toni di grigio. Vedete come una combinazione numerica può trasformarsi in immagine. Questo modo di fare, quindi trasformare una scala di attenuazioni in una scala in toni di grigio, rappresenta la scala di Hounsfield; noi non possiamo guardare una serie di numeri, ma una matrice colorata, e quella ci permette di interpretare le immagini. Da un punto di vista tecnico le scale Hounsfield possono essere variabili, ma ha alcuni punti fissi: lo 0 è codificato come il valore di attenuazione lineare dell’acqua. Per cui quando noi misuriamo 0 HU, noi stiamo vedendo acqua; i materiali che determinano un assorbimento di raggi X superiore all'acqua, hanno valori positivi, come l’osso che ha valori fino a +1000. I materiali che hanno assorbimenti più bassi dell’acqua, avranno valori negativi; la struttura che assorbe di meno i raggi X è l'aria, che ha un valore -1000, mentre un esempio di tessuto biologico che ha un valore negativo è il grasso, che vale intorno a -50 HU, perché l'attenuazione che esercita è inferiore all’acqua. Normalmente vi è un'equazione che determina quale è il numero TC, (μ−μ H2O )/μ H2O dove μ è il coefficiente lineare del tessuto biologico, μH2O è il coefficiente lineare dell'acqua. Quindi ricordate: al valore 0 abbiamo l'acqua, per attenuazioni superiori valori positivi, attenuazioni inferiori valori negativi. Attualmente le scale Hounsfield sono settate per avere 4096 livelli di grigio, valori negativi fino a -1024 HU e valori positivi fino a +3071 HU; abbiamo tessuto adiposo che si trova nell'intervallo -110/-70, i parenchimi nell'intervallo +20/+70, osso spongioso nell'intervallo +250/+1600, rocca petrosa e osso temporale superano i +3000HU. Noi utilizziamo una codifica a 12 bit, ovvero 2 alla 12 che fa 4096, proprio perché possiamo codificare all'interno di ogni casella numerica un numero compreso tra questi valori. Inizialmente, quando si creavano le prime TC, si lavorava con codifiche più basse, 5-6 bit, e in futuro probabilmente si avranno codifiche ancora superiori, fino alle scale colorimetriche. Perché secondo voi guardiamo le immagini TC e radiologiche digitali a toni di grigio? Perché quando sono state inventante queste tecnologie non esistevano gli schermi Led a colori, ma esistevano schermi a toni grigi; si utilizzava già il digitale del colore, e tutta questa architettura è rimasta per 40 anni. L’occhio umano riconosce 35-40 toni di grigio, quindi non si ha una sensibilità altissima per questi; quindi si ha una codifica per 4096 numeri e una capacità di discriminazione ottica di 40 toni di grigio. Attualmente le industrie si spingono sul colore, poiché la sensibilità visiva sui colori è superiore; noi riconosciamo 7 colori principali con una maggiore serie di sfumature rispetto al grigio, cioè più di 40 toni di verde, e in più distinguiamo il verde, il rosso, il blu, e così via. Quindi un balzo tecnologico nel futuro sarà utilizzare scale cromatiche. A tutt'oggi si è lavorato solo con i toni di grigio; qual è il problema dei toni di grigio? L’osso ha un intervallo di attenuazione di circa 50-1000, il sangue di 35-120, il rene di 45-80, quasi tutti gli organi nobili si trovano con valori di attenuazione che vanno fra 30-100, con tutti gli altri tessuti corporei meno importanti che si trovano da altre parti. Noi abbiamo 4096 codifiche di toni di grigio, ma la sensibilità ottica umana è di 40 toni di grigio, per cui la capacità umana di discriminazione in toni di grigio è di 100HU, ovvero si percepisce una differenza in toni di grigio che è di 100 HU se si guarda tutta la finestra contemporaneamente; perciò non si riesce a distinguere un surrene, dal punto di vista delle densità, da alterazioni di fegato, milza o pancreas, poiché sono molto simili tra loro. Questo è un problema, perché i valori di attenuazione degli organi e dei tessuti normali sono

quasi simili. Per ovviare al problema, si deve riuscire ad ottimizzare la visualizzazione, avendo però una capacità di discriminazione visiva più raffinata; aumentando in dettaglio la scala, abbiamo rene, pancreas, sangue, fegato, e vedete come sono più distanziati. Il problema è che non si ha questa capacità di discriminazione; Hounsfield perciò creò anche il concetto di finestra, ovvero un operatore Booleano per cui tutti i valori sopra una soglia diventavano bianco e tutti i valori sotto la soglia diventavano tutto nero, e la nostra capacità di discriminazione a 40 toni di grigio funzionava all'interno di un intervallo che non era di 4096, ma molto più corto, per esempio 300. In quei 300 si riusciva ad avere 40 toni di discriminazione, poiché anziché distinguere variazioni di 100 HU si riusciva a distinguere variazioni di 10 HU, e questo si ottiene con la finestra. In poche parole mi muovo all’interno della scala tono di grigio tagliando valori al disopra di una soglia che identifico, e sono bianchi, e tagliandoli al disotto di un'altra soglia che si identifica, e sono neri; quindi potenzio la mia percezione del contrasto. Quello che potete vedere qua sono due immagini; dal punto di vista della matrice numerica, sono equivalenti, ovvero nei pixel che la compongono la codifica numerica è uguale punto per punto nello spazio. Cambia la finestra; al computer dico di tagliare tutto ciò che è sopra i 400 HU e fallo bianco, e taglia verso il basso tutto ciò che è al di sotto dei 200 HU e fallo nero, e codificare solo i pixel tra le due variazioni, trasferendo i toni di grigio a questo livello. Facendo così si può studiare bene, come in questo esempio, il parenchima polmonare. Con la stessa identica serie numerica, posso visualizzare tutti i valori che ci sono tra -50 e + 100; il parenchima non lo percepisco più, è diventato tutto nero, quello che prima era nero diventa bianco, e quindi cambia tutta la visualizzazione benché il motore interno alla matrice sia identico. La finestra cambia nient'altro che la capacità di percepire le variazioni nei toni di grigio. Quelle che vedete qui sono immagini che rappresentano un encefalo; è rappresentato tre volte, e la matrice numerica di questi dati è uguale, punto per punto. Finestra per parenchima cerebrale, fatta per distinguere la sostanza grigia dalla sostanza bianca, questa è una finestra per studiare l’osso, per uno studio selettivo del cranio e questa è una finestra per studiare la presenza di ematomi epi-subdurali. Quindi tre finestre diverse che mi fanno vedere tre cose differenti, e qui si entra in un altro concetto della tomografia computerizzata, ovvero l'enorme quantità di dati che possiamo recuperare dagli esami. Quando si fa una TC per sospetto nodulo polmonare, i radiologi vanno a refertare quello che interessa, ovvero si va a cercare con la finestra per il parenchima il nodulo, e se c'è lo si misura. In realtà l'equazione dei dati che si acquisiscono è molto più complessa, poiché sì, si stanno acquisendo dati sul polmone, ma all'interno della matrice si hanno dati anche su tessuti subcutanei, su muscoli, su ossa; per cui alla fine faccio galleggiare solo i set di dati che mi interessa. Nella finestra ci sono due parametri importati che sono il centro e l'ampiezza; il primo rappresenta il punto centrale di visualizzazione di toni di grigio, la seconda quanti toni di grigio sto utilizzando in totale. I toni di grigio intermedi vengono distribuiti in maniera lineare all'interno della finestra, per cui l'ampiezza mi dice quanti ne recluto in totale, il centro mi dice il punto di reclutamento. Per WW=400, ho in totale 400 toni di grigio, l’occhio ne riconosce 40 per cui la mia capacità di discriminare toni è di 10 HU. Per un WW=80 avrò una capacità di discriminazione di 2 HU. Se ho un WW=100 e WL=100, devo convertire in scala di grigio i numeri compresi tra -50 e +150, con lo zero come punto centrale. Se ho WW=100 e WL=200, dovrò utilizzare come punto centrale 200, una parte di questi 100 andrà sopra e l'altra metà sotto, per cui avrò da +150 a +250. Consideriamo il caso di WL=20 e WW=500; avrò valori compresi tra +270 e -230. Nel caso in cui utilizzassi un'ampiezza di 1800, con

WL=-600, vedete che avrò una differente distribuzione di toni di grigio: nel caso precedente avevamo una finestra corta, e li avevamo tutti i toni concentrati, mentre per una finestra ampia si percepiscono delle variazioni molto più grossolane. Cambiando il punto centrale della finestra, cambiano completamente le raffigurazioni delle immagini; in alcune compaiono dati relativi ai dati vascolari, mentre in altre no, per cui ogni finestra fa vedere delle informazioni specifiche. Generazioni di TC In 40 anni si sono susseguite diverse tecnologie, e queste ogni tanto hanno avuto variazioni importanti che hanno permesso il cambio di generazione delle TC; ad ora ci sono 4 generazioni e forse si sta entrando nella quinta, ovvero quella dove c'è il multispectral imaging. Dal 1971 al 1990 si sono utilizzate macchine sequenziali, che rappresentano la prima e seconda generazione di TC, e dal 1990 in poi sono nate le macchine spirali, la terza e quarta generazione. I generazione: era l'EMI Mark I, quello creato da Housflield. Era un sistema traslazionale, con un tubo radiogeno, un detettore, partiva il fascio di raggi X, il tubo radiogeno si muoveva con il detettore, altro fascio di raggi X e così fino ad arrivare alla fine del piano di acquisizione. Fatto questo il tubo radiogeno ritornava insieme al detettore alla posizione iniziale, tutto il meccanismo si spostava di qualche grado, e ripeteva l'intera procedura. Così facendo, per plurime volte, fino ad acquisizione di 180 gradi; una volta arrivata a 180 gradi, la macchina ritornava nella posizione di partenza e il paziente che era adagiato sul lettino veniva spostato di qualche cm in avanti, e si faceva un'altra fetta. Non andava oltre i 180 gradi a causa dei fili. Si è potuto risolve il problema quando un geniale giapponese ha inventato un sistema per dare elettricità senza cavi. Queste TC sono nate per la prima volta per lo studio del cranio, anche se poi Lesley nel 1974 ha iniziato ad utilizzarle per lo studio dell’intero corpo, ed erano macchine terribili, con 5 minuti come tempo di scansione e 20 minuti quello di ricostruzione. Non erano sistemi in tempo reale, per cui partivano i raggi, l'intero meccanismo di raggi durava 5 minuti, poi tutti i dati arrivavano ad un computer che doveva risolvere delle equazioni e ci impiegavano 20 minuti per una slide, non per l'intera tac. Per tutto il cranio ci voleva un'oretta, e la TC si vedeva il giorno dopo, poiché il computer doveva avere il tempo di rielaborare le scansioni eseguite. Si aveva una risoluzione di 80x80 pixel, per cui circa 3mm2 la superficie di ogni pixel. II generazione: fine anni 70 si è introdotta la seconda generazione. C'è sempre un tubo radiogeno ma aumentano i detettori, ovvero il componente fondamentale della TC, e sono quegli strumenti che raccolgono i raggi X e li traducono in segnale elettrico. Più sono efficienti e raffinati e più il dato del raggio X permane, quindi sono estremamente importanti; l'ingegnerizzazione ha abbattuto i costi, e se ne sono potuti mettere di più, per cui si lavorava con più detettori. Era un sistema traslazionale e rotazionale, ovvero partiva il raggio X svasato, colpiva più detettori, si copriva l'intero asse di somministrazione del raggio X, poi c'era una rotazione e si rifaceva con una variazione di alcuni gradi lo stesso identico meccanismo. Aumentano le velocità, si inizia a viaggiare sui 20s per una TC del cranio, 30s per una TC dell'addome, e il computer iniziano a produrre immagini quasi in tempo reale. Sono matrici ancora abbastanza

piccole e si riesce a fare 10 rivelatori fascio-collimato a pennelli multipli, quindi fascio svasato che colpisce più detettori; essi avevano fasci svasati di circa 20 gradi e riuscivano a colpire fino a 10 detettori contemporaneamente. III generazione: la rivoluzione vera e propria. Alla fine degli anni 80 si considerava morta la TC computerizzata con la nascita della risonanza magnetica; invece proprio in quel periodo la TC divenne molto più tecnologica e si iniziò a fare TC volumetriche, grazie all'invenzione dei contatti striscianti. Il tubo radiogeno e il detettore ruotano completamente intorno al soggetto da studiare permettendo di ottenere le spirali, ovvero raccolte continue di dati volumetrici e le matrici non sono più bidimensionali ma stanno diventando tridimensionali. La scoperta è lo slip-ring, che permette un'immissione continua di elettricità; essa è una tecnologia elettromeccanica che permette la trasmissione di segnale elettrico da una struttura stazionaria a una rotante. Si hanno delle spazzole e qua si ha la parte che ruota, qui dove è innestato il tubo radiogeno, dall'altro lato ci sono i detettori, e questo è lo slipring e si hanno delle piste attraverso cui il segnale elettrico viene traslato. Grazie a questa scoperta si è potuto avere questo strumento, che è il gantry, a rotazione continua; per cui la TC nella terza generazione non fa più fette ma fa delle spirali, ovvero acquisisce dei volumi. Cambia anche la tecnologia, infatti gli array, i rilevatori, diventano circa 1000, microingegnerizzati con un fascio collimato a ventaglio non più di 10 gradi ma di 50 gradi. Queste macchine arrivano a fare rotazioni di esame a 3 secondi, ovvero un cranio viene acquisito in circa 3 secondi, un cuore in 6-7 secondi, e addirittura con le macchine più performanti in circa 1 secondo. È stata una rivoluzione poiché ci permette di effettuare esami anche in pazienti affetti da patologie che non permettono di stare fermi per molto tempo, per cui un'acquisizione veloce è utile per poter analizzare tutti i pazienti. La terza generazione ci ha consentito di studiare il cuore, il quale batte e non rimane fermo, e visto che la TC dura appena 1 secondo in questo periodo non si avrà né sistole né diastole. Dal 1990 a fino circa tutto il 2010, tutto l'investimento industriale e di ricerca delle TC computerizzate si è scatenato per trovare macchine sempre più veloci, perché la rincorsa della velocità permette di studiare tutti i pazienti e tutti gli organi in movimento; in 4d permette di acquisire un volume di dati ogni secondo, per cui vedo un intero fegato a cui sto dando contrasto, come volumetricamente si illumina, e come si sta muovendo all'interno dell'addome di un paziente che respirando si muove. IV generazione: è una terza generazione concettuale, quindi una macchina rotazionale pura, dove nel gantry sono stati messi da per tutto dei detettori. Per cui durante una rotazione non si muove più il tubo radiogeno con il detettore, ma i detettori sono fermi e l’unico elemento che si muove è il tubo radiogeno, che mentre si muove va ad impressionare i detettori. Questo presuppone un'infinita di detettori, circa 5000 nelle macchine costose. Il vantaggio è relativo, poiché la velocità non cambia di tanto visto che essa è data dalla velocità di rotazione del tubo radiogeno; il costo è molto elevato per cui queste macchine non hanno avuto grande successo. Le rotazioni di queste macchine sono comprese tra 0.3 e 0.5 secondi; in poche parole il tubo radiogeno fa una rotazione completa in quel periodo di tempo.

Il paziente è sul lettino, e si muove all’interno del gantry, dove sono contenuti tutti gli strumenti, tubo radiogeno e detettori; si ha il vetro plastico attraverso cui passano i raggi X, che sono ipercollimati. Acquisizione e ricostruzione Fino ad ora ci siamo concentrati per capire l'acquisizione dei dati, e in parte abbiamo parlato che vengono acquisite le immagine, ovvero c'è un'attenuazione del raggio X, arriva sui detettori, e questi trasformano un segnale elettrico e a quel punto si forma l'immagine che vogliamo vedere. In realtà questo è il fenomeno della ricostruzione, c'è quindi una fase di acquisizione e una fase fondamentale di ricostruzione. L'acquisizione del dato consiste nel codificare diversi livelli di attenuazione dovuti all'oggetto che stiamo analizzando, e sto acquisendo dei dati; ma ciò che sto acquisendo deve essere rinconvertito in immagini, e questo è il concetto di ricostruzione, che è la capacità di ricostruire i tessuti corporei o le immagini che rappresentano i tessuti, partendo dal dato ottenuto in fase di acquisizione. Questo processo, che è estremamente complesso, si chiama retroproiezione; io ho dei dati di raggi X, ho più immagini, e alla fine sommando queste immagini devo riuscire a ricostruire l'immagine del corpo, dalla combinazione della retroproiezione. Attualmente la ricostruzione si basa su tre potenziali approcci, che vengono usati o uno o l'altro nei vari sistemi di TC computerizzata. La back projection, la retroproiezione, la filter back projection, che è la più utilizzata, e la back projection interactive, che è la prima che venne utilizzata da Hounsfield che funzionava bene con le piccole matrici, ed è stata lasciata per circa 40 anni, e adesso sta riemergendo con i sistemi più avanzati di quinta generazione. Cosa vuol dire retroproiezione o ricostruzione? Vuol dire che dalle immagini di attenuazione che io ho ottenuto nei detettori devo riuscire a ricostruire l'oggetto che le ha generate, passaggio per niente semplice. Avete visto che passano dei raggi X che impressionano i detettori, ma da i dati di quei detettori alla ricostruzione dell'immagine ci sono una serie di processi. Su una singola proiezione avrò un immagine falsa, poiché si acquisiscono plurime proiezioni visto che la macchina ha un moto di roto-traslazione e si hanno anche acquisizioni angolari di 360 gradi; per cui si hanno più immagini che si vanno a comporre e che iniziano a codificare in modo un po' più reale l'immagine di origine. Con poche proiezioni avrò un'immagine lontano dalla realtà, ma che in parte si assomiglia. Back projection: il metodo più classico, in cui si fanno passare raggi X che incontrano un oggetto, e ottengo un profilo di intensità che è dovuto a come i raggi X stanno attraversando il corpo. Vi è un oggetto più radiopaco che blocca i raggi X, e infatti il livello di codifica dei raggi X in arrivo è bassissimo; mentre dove sono passati quasi tutti i raggi X il livello di intensità del raggio è molto alto. L'intensità è alta dove i raggi X che sono passati non sono stati attenuati, man mano che ci si sposta in regioni dove i raggi X passano in maniera inferiore, le intensità saranno più basse; noi però dobbiamo creare dei profili di attenuazione, che sono l'inverso dei profili di intensità. Si ha un intensità elevata dove tutti i raggi X sono passati, l'attenuazione ovviamente sarà inversa, perché sono passati laddove non sono stati attenuati. Il primo passaggio è quello di inversione del profilo di intensità in profilo di attenuazione; per cui nella macchina i detettori raccolgono un

profilo di intensità, e ogni profilo viene trasformato in un profilo di attenuazione. Considerate che ogni singolo profilo di attenuazione non ha informazioni sulla profondità dell'oggetto, poiché la codifica di profondità si perde; infatti indipendentemente dal fatto che il singolo punto si trovi ad un'altezza piuttosto che ad un'altra, il profilo si perde, quindi non si ha nessuna codifica spaziale. Quale è il vantaggio? È che non si ottiene un unico profilo di attenuazione, ma tantissimi, uno per ogni singolo movimento che fa la macchina; la scansione TC produce migliaia di campionamenti, e quindi migliaia di profili di attenuazione, ognuno senza una codifica spaziale ma dalla somma dei quali riesco a triangolare anche una codifica spaziale. In termine tecnico, il profilo di attenuazione si dice raysum. Il valore di ciascun raysum viene equamente diviso tra tutti i voxel interessati dal passaggio della radiazione e alla fine retroproietato; ovvero genero quello che si chiama sinogramma. Esso rappresenta le trasposizioni di un piano bidimensionale rappresentato nella rotazione a 360 gradi; in esso è contenuta tutta l'informazione digitale dell'oggetto sottoposto a TC. Consideriamo una TC con 3 biglie all'interno di un gel, e devo riuscire a rigenerare le 3 biglie; in poche parole, man mano che io faccio una rotazione ho un profilo di attenuazione che codifico in una riga di questa immagine, faccio una varia...


Similar Free PDFs