Plasticita\' Crossomodale PDF

Title Plasticita\' Crossomodale
Author Sara Santuari
Course Neuroscienze cognitive
Institution Università degli Studi di Trento
Pages 22
File Size 279 KB
File Type PDF
Total Downloads 56
Total Views 120

Summary

Plasticità crossmodale, come un'informazione può arrivare in corteccia deafferentata. ...


Description

PLASTICITA’ CROSSOMODALE Termine utilizzato a partire dalla fine degli anni ‘90, inizio anni 2000 per descrivere un fenomeno per cui chi nasce cieco o sordo potrà sfruttare, almeno in una certa misura, i neuroni di altre aree corticali destinati ad altre funzioni. Le cortecce uditive delle persone sorde e quelle visive (occipitali) delle persone cieche precoci non rimangono silenti. Si parla di deprivazione sensoriale dalla nascita o nei primissimi anni di vita, persone che per ragioni genetiche nascono anoftalmiche, oppure retina non funzionante, oppure persone con cataratta densa. Allo stesso modo, persone che nascono senza le cellule cigliate o le perdono nei primi mesi o anni di vita e che quindi sviluppano una cecità neurosensoriale (cioè sono assenti le strutture che permettono la trasduzione dell’energia dell’ambiente in impulsi nervosi per il cervello). Alla fine degli anni ‘80, una prospettiva, più intuitiva di altre, immaginava che queste cortecce rimanessero ipometaboliche, inattive e che potenzialmente potessero addirittura rivelarsi atrofizzate da un punto di vista dei neuroni disponibili (perchè non stimolate dalla nascita). L’osservazione che negli anni ‘80 apre il filone della plasticità crossmodale dice tutt'altra cosa: queste cortecce non solo non si stanno atrofizzando, ma, nel momento in cui è possibile cominciare a guardarle con delle tecniche di analisi funzionale (PET per prima) ci si rende conto che sono metabolicamente attive, quindi stanno facendo qualcosa. Ma perché sono attive? L’intuizione è che tutti hanno è che siano attive perché sono un territorio deafferentato e dunque conquistabile da un punto di vista cerebrale (possono essere reclutate per altro). Nei primi studi emerge che queste cortecce possono essere attive anche a riposo, più di quelle dei vedenti bendati, e comparabilmente a quelle dei vedenti senza benda esposti informazione visiva. L'intuizione è che possano ricevere informazioni che provengono da altri sistemi sensoriali. Kujala et al, 1995: una delle prime evidenze (MEG) da cui emerge che nelle persone con cecità precoce un compito di MMN acustico attiva le cortecce visive oltre a quelle uditive. Lo studio, condotto da un gruppo finlandese, rivela qualcosa sulla tempistica e sulla localizzazione dell’attivazione magnetica → usano un compito di mismatch negativity: c'è uno standard acustico che si ripete più volte e ogni tanto c'è un deviante (stimolo non appreso che differisce rispetto allo standard) che crea un mismatch. Quando arriva la discordanza il cervello segnala un’ anomalia. Per essere sicuri che il cervello non stia rispondendo allo stimolo diverso in quanto ha una frequenza particolare, bisogna adottare che gli stratagemmi → invertire che cosa è standard e che cosa è deviante, alternandoli per avere la devianza rispetto allo stimolo standard. Quando si fanno esperimenti di mismatch negativity di solito si vede un'attivazione sopra le cortecce acustiche bilateralmente → collocate nella zona del giro temporale superiore, dove il giro rientra dentro la scissura silviana. In realtà l'attivazione magnetica in risposta a questa variazione nelle persone cieche vengono misurate non solo nelle cortecce acustiche, ma si trova un’attivazione ben più posteriore (regioni occipitali) in regioni che sembrano essere extra-striate e che di solito non si vedono. Questo è interessante perché ci permette di osservare che uno stimolo acustico guida la risposta in cortecce visive. Siamo a metà degli anni ‘90 quando il discorso sulla multisensorialità è molto prematuro e la prospettiva è assolutamente quella di una modularità sensoriale: l'ottica era che i sistemi sensoriali lavorassero in maniera modulare e che interagissero a uno stadio

tardivo integrando le informazioni. Allora questa cosa stupisce, anche perché si è in un periodo in cui la modularità fodoriana è molto presente, e stupisce la possibilità che un modulo, una regione che dovrebbe essere assolutamente specializzata risponda all’informazione acustica. Le prime ricerche utilizzano gli stimoli acustici e si vede che effettivamente le cortecce visive rispondono anche per stimolazioni di natura acustica nelle persone cieche precoci. La cosa rapidamente si estende e quindi si iniziano ad utilizzare stimoli tattili e ci si rende conto che le cortecce occipitali nelle persone cieche si attivano genericamente durante lo svolgimento di compiti acustici, ma anche quelli tattili. La ricerca inizia a espandersi a macchia d’olio e tutti cominciano a interessarsi a questo curioso fenomeno per cui le cortecce deafferentate delle persone rispondono a stimoli di un altro sistema sensoriale. Il dato intuitivo è che le persone cieche e sorde possano compensare la loro cecità o sordità compensando le competenze sensoriali (o non sensoriali, tipo mnestiche) che non hanno attraverso altri sistemi sensoriali. Dunque le cortecce non rimangono silenti, ma rispondono a stimoli sensoriali che provengono da altri sistemi sensoriali. Si parla di sistemi sensoriali e non di modalità sensoriale perché il termine modalità è riservato per qualcos'altro: l'esperienza modale in relazione ai sensi è legata al fatto di essere consapevoli dell'esistenza di quella modalità di senso (sono consapevole in questo momento che sto vedendo qualcosa, che sento dei suoni, ecc). Nonostante questo fenomeno si chiami plasticità crossmodale, che fa pensare che si stia facendo un cambio di esperienza modale, queste persone hanno un’attivazione delle cortecce visive per i suoni, ma non vedono stimoli visivi; hanno delle attivazioni in corteccia visiva per gli stimoli tattili, ma non vedono stimoli tattili. Questo ci dice che non è sufficiente che la corteccia visiva sia attiva perché il cervello restituisca l'informazione che si sta vedendo. Ad esempio: In una persona che sta al buio e con gli occhi chiusi si può, con un segnale TMS, attivare le cortecce visive→ la persona vedrà una stimolazione visiva detta fosfene. Questo non è stato documentato in maniera sistematica nei ciechi: pare che mandare stimolazioni sulla corteccia visiva non generi in loro alcun fosfene. Tutti questi studi che hanno mostrato plasticità cross modale in realtà sono studi in cui le cortecce deafferentate si attivano, ma le persone non hanno mai la sensazione di vedere (se sono cieche) o di sentire (se sono sorde). Questo ci dice che da sola quella attivazione non diventa un'esperienza modale, la persona non ha la sensazione di stare esperendo la modalità associata a quella corteccia. Nel momento in cui arrivano gli studi di imaging diventa più facile fare questo tipo di ricerche (soprattutto nelle persone cieche): si comincia a rendersi conto che l’attivazione metabolica della corteccia visiva primaria (ai lati della scissura calcarina) nei ciechi rispetto ai vedenti quando la stimolazione è di natura acustica, è massiva e non è ristretta ad alcune zone delle cortecce occipitali, ma va a prendere corteccia extra-striate, si espande fino al lobo parietale e fino al lobo temporale. L'attivazione metabolica non va solo a prendere la regione sensoriale visiva in generale, arriva fino a V1 (area di Broadman 17) dove c'è la corteccia visiva primaria. Vuol dire che una struttura filogeneticamente determinata per rispondere a stimoli visivi che riceve l'informazione del talamo viene attivata da stimoli acustici. Questo stona con l’ottica fodoriana, anche se Fodor stesso in una nota al libro degli anni ‘80 non esclude la possibilità che i moduli possano lavorare su più sistemi sensoriali

contemporaneamente, anche se tutto il libro è sviluppato in maniera fortemente unisensoriale. Qualche anno dopo la stessa ricerca si sviluppa sulle persone sorde, con qualche anno di ritardo perché lavorare con la comunità sorda è più difficile (banalmente è più difficile interagire con loro quando sono nello scanner). Finney et al, 2001: primo studio sulle persone sorde per vedere se questo concetto di plasticità cross modale si può estendere ed esiste nelle persone sorde quanto nelle cieche. Ci si chiede se si tratti di un principio organizzativo del cervello. Nello studio fMRI in cui presentano degli stimoli visivi (pattern in movimento, stimolo visivo neutro ma potente per evocare risposte corticali) e osservano un'attivazione in cortecce acustiche e dimostrano che è possibile avere un’attivazione di cortecce acustiche per effetto di stimoli visivi in persone sorde precoci e sostengono che è possibile attivare la corteccia uditiva primaria che si trova in un giro nascosto all'interno della scissura silviana che si chiama giro di Heschl (anatomicamente facile da individuare ma non a questa grana di risoluzione) → in realtà questo primo studio non ha evidenze in questa direzione, è una speculazione che gli passano su Nature. E’ indubbio che c’è un’attivazione nelle cortecce uditive. Si comincia ad usare una convergenza di tecniche per dimostrare la stessa cosa, e quindi anche questo gruppo fa degli studi di MEG in cui la costruzione del segnale magnetoencefalografico è ancora più grossolana di quella del gruppo di Kujala nonostante siano passati un po' di anni; ma il concetto è lo stesso → stimoli visivi\reticoli in movimento attivano le cortecce acustiche di persone con sordità precoce. Negli udenti la risposta è principalmente posteriore nelle cortecce occipitali, mentre qui la risposta diventa localizzata a sinistra e a destra con principale coinvolgimento di quelle strutture più corrispondenti alle regioni acustiche. Auer et al, 2007: analogamente si fanno degli studi sulla stimolazione tattile e si scopre che Le cortecce acustiche sono più attive nelle persone sorde rispetto agli udenti in risposta a stimoli vibrotattili. Ripercorrendo gli stessi passi utilizzati per la cecità nel giro di una decina d'anni si comincia a fare un quadro completo che ci dice che queste cortecce sono responsive a stimoli provenienti da altri sistemi sensoriali sia nelle persone sorde sia nelle persone cieche (chiaramente in cortecce diverse, persone cieche cortecce occipitali, persone sorde cortecce acustiche temporali). Karns et al, 2012 (ricercatrice senior E.Neville, è stata la persona che più di tutte ha aperto questo filone della plasticità crossmodale) → presentavano degli stimoli visivi e tattili (con dei tubicini che danno soffi al volto) in fMRI a persone con sordità precoce. La stimolazione può essere unimodale o bimodale (in questo caso si può usare la parola modale perchè in entrambi i casi le persone esperiscono il fatto che c’è stimolazione visiva e stimolazione tattile, ne sono consapevoli). Paradigma che si utilizza spesso nell’imaging: gli sperimentatori portano attenzione agli stimoli (lucine) chiedendo di rilevare variazioni dello stimolo (doppie luci). Presentano per l’80% delle prove degli stimoli visivi che sono l’accensione della luce, per un 20% delle prove la luce si accende due volte in rapida successione. Stessa cosa per gli air puffs, le stimolazioni tattili tramite soffi d’aria. Questa è cosa è chiamata visual attention e somatosensory attention. La persona deve rispondere in questa piccola percentuale di stimoli che sono gli stimoli doppi. Perchè: 1. Mantenere l’attenzione:quando si mette qualcuno in fMRI per 500euro l’ora bisogna

essere sicuri che non vaghi con la mente (a meno che non interessi uno studio di mind wondering), quindi bisogna dargli un task per essere sicuri che gli stimoli vengano elaborati, poi si guardano i movimenti oculari che vengono registrati dallo scanner. 2. Quando il soggetto risponde al compito misuriamo una cascata metabolica dovuta al fatto che ha percepito lo stimolo, pensato se dovesse rispondere, preso la decisione di rispondere, pianificato una risposta motoria, premuto un pulsante (magari muovendosi), ecc. In fMRI questo aggiunge una quantità di risposta metabolica che contamina quella che a noi interessa (risposta agli stimoli sensoriali). Quindi gli si chiede di rispondere in una piccola percentuale di trial, che poi vengono buttati via: questi trial chiamati target devono essere abbastanza perchè il soggetto non si disinteressi poi però i trial target dal punto di vista della risposta metabolica vengono scartati perchè servono solo per fare in modo che la persona stia prestando attenzione agli stimoli che si sono utilizzati (ma sono contaminati dalla risposta che il soggetto sta dando e quindi vengono buttati). 3. Altro vantaggio dal punto di vista sperimentale è che l’attenzione è un potenziatore dell’attività metabolica e la differenza segnale\rumore (dal punto di vista del segnale metabolico che si è in grado di registrare!) si enfatizza. La soluzione più semplice è buttare via le sue risposte dal punto di vista dell’analisi emodinamica: dal punto di vista dell’analisi comportamentale (quante ne ha prese di corrette quando c’era la doppia stimolazione?) si mantengono, dal punto di vista emodinamico una volta che so che il soggetto stava facendo il compito quelle risposte non mi servono più (20%) e mi concentro in quell’ 80% di prove in cui so che non c’era risposta motoria, non erano contaminate dalla risposta. Obiettivo dello studio: arrivare a dire con più precisione dello studio uscito su Nature che le cortecce uditive primarie erano coinvolte nelle persone sorde quando vedevano stimoli visivi o sentivano stimoli tattili. Rispetto allo studio di Finney la precisione con cui si possono identificare le cortecce uditive primarie è maggiore e soprattutto abbiamo degli atlanti probabilistici che dicevano dove si trovavano probabilisticamente le cortecce primarie nei soggetti. Importanza della replicabilità → avere fatto negli anni delle meta-analisi di dove era la risposta in corteccia uditiva primaria quando si sentono suoni nelle persone udenti è servito per arrivare nel 2012 a poter dire dove sono probabilsticamente le cortecce uditive primarie negli udenti → nei sordi non potendo dare un suono per trovare le cortecce uditive servono le mappe probabilistiche. Questo perchè sia nelle persone cieche che nelle persone sorde il cervello è tipico, l’atipicità\deficit è in periferia. Questo studio è così preciso che loro hanno addirittura distinto tra porzione anteriore e posteriore del giro di Heschl. Controlateral Heschl Gyrus (controlaterale alla stimolazione) → si hanno le risposte di segnale metabolico (BOLD) nella regione anteriore, nella regione posteriore e si comportano in maniera simile. Si guarda nelle barre colorate per le persone sorde e nelle barre bianche per le persone udenti. Non si guarda più attivazione metabolica differenziale, quindi che cosa è più metabolicamente attivo per una popolazione rispetto ad un'altra, ma si guarda quanto è cambiato il segnale BOLD in una regione di interesse (attivazione metabolica). Conclusioni: guardando alle disposizioni unimodali visive e somatosensoriali, si vede che la differenza tra sordi e udenti c'è in entrambi i casi, ma è molto più marcata quando c’è la stimolazione somatosensoriale. Quindi è vero che le cortecce uditive delle persone sorde rispondono a stimoli di natura visiva o somatosensoriale, ma non lo fanno con la stessa entità. Questo studio suggerisce che per attivare le cortecce uditive nelle persone sorde (soprattutto quelle primarie) lo stimolo somatosensoriale è molto più efficace. Esiste una affinità filogenetica fra tatto e udito. Il tatto è veicolato dai corpuscoli di Pacini, che sono dei

meccanorecettori che fanno una trasduzione di energia da meccanica a impulso nervoso. Retina: coni e bastoncelli che convertono l’energia elettromagnetica in impulso nervoso. Nella coclea ci sono le cellule cigliate che sono meccanorecettori, convertono l’energia meccanica in impulso nervoso. Quindi c’è un affinità filogenetica tra udito e tatto al punto che esiste un gene comune che può codificare sia per i meccano recettori del tatto sia per le cellule cigliate. Anche da un punto di vista corticale sono molto prossime. Per quanto riguarda le colonne bianche-udenti, percentuale di cambiamento negativa, vuol dire che cambia meno della situazione di dispendio metabolico a riposo. Da un punto di vista di ciò che cambia tra ciechi e vedenti e sordi ed udenti nelle cortecce deafferentate siamo di fronte a una doppia direzione: da un lato le cortecce diventano metabolicamente più attive in risposta a stimoli sensoriali provenienti da altri sistemi sensoriali, e dall’altro quando guardiamo una corteccia dedicata a una modalità in un udente viene resa meno metabolicamente attiva dalla presenza di stimoli di altri sistemi sensoriali (calano il grado di attivazione metabolica). Ci sarà un’ organizzazione tonotopica della persona sorda che è rimasta sorda per molti anni? Nelle persone sorde congenite la corteccia uditiva primaria mantiene un’ organizzazione tonotopica (diversi punti diverse frequenze), questa si sfuma più il soggetto sta in sordità. Nei modelli animali del gatto sordo (gatto bianco albino), si è visto quanto l’organizzazione della corteccia uditiva primaria sia preservata quando si va a stimolare la coclea con delle stimolazioni elettriche che danno luogo a stimolazioni diverse. E’ simile a quello che l’impianto cocleare. Si è visto che se il periodo di sordità era breve (al di sotto del periodo di maturazione sessuale - pochi mesi), la corteccia acustica ha una buona organizzazione tonotopica, se però aspetto la tonotopia della coclea si sfuma, ma non scompare completamente. Sappiamo se questo reclutamento cross-modale (in questo caso dell’info vibro-tattile che va a reclutare la corteccia uditiva) è specifico? O invece prende la corteccia uditiva in maniera diffusa? Da questo tipo di studio non si può sapere, non c’era nessuna differenziazione tonotopica nella corteccia uditiva primaria. Qui hanno preso tutta la corteccia uditiva primaria come area di interesse. Questo tipo di studio ci dice “solo” che le cortecce uditive primarie rispondono a stimoli tattili ancor più che a stimoli visivi. Significa che una struttura filogeneticamente scritta per rispondere a un sistema sensoriale, in assenza di quel sistema sensoriale può iniziare a rispondere ad un altro sistema sensoriale. Marebeth e Pascual-Leone, 2010: sulla rivista Nature Review of Neuroscience due dei ricercatori che si sono maggiormente occupati soprattutto di cecità, Lotfie Merabeth (medico oftalmologo) e Alvaro Pascual Leone (che all’epoca era il suo mentore) scrivono una rassegna nella quale dicono che quello che hanno visto nella cecità si può trovare anche nella sordità: ci sono dei cambiamenti crossmodali a seguito della cecità con reclutamento delle cortecce occipitali visive, e ci sono cambiamenti crossmodali a seguito della sordità con reclutamento delle cortecce acustiche. Gli stimoli o i compiti che sono in grado di reclutare le cortecce visive nella cecità sono: lettura Braille e discriminazione tattile, localizzazione e discriminazione di suoni, compiti di memoria verbale e di linguaggio (compiti acustici di più alto livello). Gli stimoli o i compiti che sono in grado di reclutare le cortecce uditive nelle persone sorde sono compiti visivi (stimoli in movimento, cerchi concentrici che si espandono e si richiudono, reticoli in movimento..), stimolazione vibro tattile (alle dita, al volto..) e la lingua dei segni o altre forme di info visiva legata al linguaggio (labiale, quello che accade nel volto

della persona..). D. Bavelier e E. Neville, 2002 → esprimono tre scenari possibili su come può arrivare l’informazione nelle cortecce deafferentate: 1. Subcortical connettivity → scenario bottom up: talamo stazione di convergenza di tutti i sensi, alcune informazioni sensoriali arrivano al talamo prima di essere arrivate in corteccia, altre no. Si potrebbe pensare che qui ci sia un primo scambio di informazione. Ad esempio, nelle persone sorde (o i modelli di sordità tipo il gatto albino) l’informazione al nucleo genicolato mediale non arriva, perchè non c’è informazione che parte dalla coclea. Arriva informazione al nucleo genicolato laterale del talamo (dalla vista). Possiamo immaginare che quest’ultimo possa influenzare l’adiacente nucleo genicolato mediale e che da qui vada in corteccia acustica. Quindi la prima possibilità è che l’informazione arrivi in corteccia perchè ci sta passando per via talamica. Secondo questa ipotesi ci sarebbero strutture di natura sottocorticale (talamo, collicoli) che fanno si che l’info arrivi in cort...


Similar Free PDFs