Il codice neurale 1o problema: COME VIENE GENERATO IL CODICE NEURONALE? 2o problema : COSA SIGNIFICA IL CODICE NEURONALE? Dobbiamo saperci porre nella posizione di chi scrive (1o, codifica) e di chi legge (2o , decodifica). Codificazione tutto-o-nulla mediante i p.d.a. o spikes Codificazione in frequenza ed adattamento Feature-selectivity Reti auto-organizzanti di Kohonen Mapping motor sensory Organizzazione colonnare La scoperta di rate coding, feature selectivity, cortical maps, suggerisce che: 1) I neuroni codificano caratteristiche elementari dello stimolo. 2) I neuroni elaborano lo stimolo anziché riprodurlo fedelmente. 3) Esiste un ordine gerarchico nell’elaborazione dell’informazione. 4) Percezioni complesse sono costruite partendo da caratteristiche elementari 5) Qualità differenti dello stimolo sono convogliate a regioni differenti del sistema nervoso Comprendere il codice neurale significa comprendere le relazioni tra i treni di spikes e gli eventi reali del mondo sensoriale Il codice neuronale ha natura probabilistica Bisogna quantificare la randomness mediante teorie probablistiche Applichiam o uno stimolo s (t ) e misuriamo gli spike trains ti . Poichè esistono numerosi spike trains distinti, calcolerem o la probabilit à di osservarne uno in particolar e. Questa è la probabilit à condiziona ta Pti s (t ). Inoltre consideria mo che lo stimolo è preso da una distribuzi one di possibili stimoli. Ps (t ) è la distribuzi one di probabilit à da cui è tratta s (t ), ed è detta probabilit à a priori. Ps (t ), ti è la probabilit à congiunta di osservare quello stimolo e quel treno simultanea mente. Ne risulta che la probabilit à congiunta sarà Ps (t ), ti Pti s (t ) Ps (t ) Ma noi dobbiamo essere in grado di decidere qual’era lo stimolo dato un particolare spike train. Ne risulta che la probabilit à congiunta sarà Ps(t ), ti Ps(t ) ti Pti Ps (t ) Uguagliando le due probabilità Ps (t ) ti Pti s (t ) Pti congiunte si ottiene la Legge di Bayes Applicazoine della Legge di Bayes a dati sperimentali Autocorrelazione e interspike-interval distribution E’ possibile quantificare l’informazione ? Non tutti gli stimoli sono ugualmente probabili: i segnali nel mondo reale hanno strutture e limitazioni. L’informazione fornita dagli spikes misura la riduzione dello spazio dello stimolo in scala logaritmica, cosicchè la riduzione di un fattore 2 nello spazio degli stimoli possibili vale un bit di informazione. specifico stimolo 550 Hz 500 Hz Spike train Range dello stimolo = 50 Hz Precisione = 5 Hz Informatio n gain log 2 (50 / 5) 3.3 bits Il teorema di Shannon (1948-1949) : informazione = entropia X(t) Communication channel Y(t) P[X] e P[Y] sono le distribuzioni di probabilità dello stimolo X e dello spike train Y Se la distribuzione è sharp (al limite un valore) il messaggio è sempre lo stesso: dobbiamo quindi QUANTIFICARE LA VARIABILITA’. L’informazione E’ contenuta nella variabilità. La misura appropriata dell’informazione disponibile è l’ENTROPIA definita in meccanica statistica e termodinamica. L' entropia obbedisce alla legge di sommazione d variabili indipenden ti. Perciò la probabilit à do oservare più variab ili simultanea mnet dipende del prodotto delle proprietà indiviuali : PX 1 , X 2 ... X n P1 X 1 P2 X 2 ...Pn X n Conseguent emente le entropie si sommeranno S PX 1 , X 2 ... X n S P1 X 1 S P2 X 2 ...S Pn X n La conversion e di un prodotto di distribuzi oni in una somma di entropie deve comportars i come il log della distribuzi one S k i 1 pi log pi K k è la costante di Boltzman. Tuttavia l' informazio ne è adimension ale. k può essere eliminato sciegliend o opportunam ente la base del log. Si scieglie la base 2, implicando che il codice neuronale è di tipo binario. La quantità unitaria di informazio ne suficiente per discrimina re tra due alternativ e usgualment e probabili è detta bit S i 1 pi log 2 pi bits K se tutti i K segnali hanno uguale probabilit à, pi 1 / K . Riarrangia ndo si ottiene S log 2 K Questo è il numero di digits necessario per scrivere K in formato binario. Il codice binario Informatio n log 2 6 2.6 bits Ci sono 6 digits (0 incluso): la sequenza dei digits NON è importante. Ma se consideriamo la sequenza temporale, allora troviamo 25=32 distinti messaggi, equivalenti a 5 bits. Il “rate coding” contiene meno informazione ma è più robusto (essendo ridondante) del “time coding”. L’entropia di un treno di impulsi Numero binario di T/ digits. Detta r la frequenza media, p( 1 ) r Se è piccolo, p( 1 ) sarà piccolo. In una stringa con T , N1 pN N 0 1 p N dato che gli ISI sono random, ol numero di diversi arrangiame nti di N1 e N o sarà : N stringhe N1! N1! N 0 ! e l' entropia sarà : N1! S log 2 N1! N 0 ! elaborando opportunam ente si ottiene : S T r ln r 1 - r ln 1 - r ln 2 Quindi l' entropia di uno spike train è proporzion ale alla sua lunghezza (S è una quantità estensiva) E’ possibile misurare la quantità di informazione trasportata da un treno di spike mettendola in relazione con la sua durata e frequenza media. Tuttavia questo ancora non dice: •come deve essere un codice efficiente •come si comporta una popolazione di neuroni. •se ha importanza il timing degli spikes. Esempi di codici efficienti Vector coding e population vectors Il vettore rappresenta intensità e direzione: A Amax cos Composizione di vettori Vector coding e population coding consentono la rappresentazione della direzione del movimento Operazioni di algebra vettoriale consentono al cervello di trasformare le coordinate spaziali sensoriali e motorie. I treni di spikes contengono struttura, correlazione, e caos I neuroni possono avere più stati di attività Specifici canali ionici possono modificare le proprietà di scarica ed il codice neuronale a) Le sequenze di p.d.a. hanno struttura (bursts, adattamento) b) I tempi di reazione del SNC sono nell’ordine di 102 ms, e la frequenza di scarica neuronale è nell’ordine di 102 Hz. c) La precisione delle risposte alla stimolazione sinaptica è inferiore al millisecondo Il time-coding può essere particolarmente importante nel SNC L’EEG rivela l’attività bioelettrica sincrona delle strutture corticali I PEV rivelano l’attività bioelettrica di specifiche aree corticali L’attività di regioni specifiche si inserisce su un background oscillatorio sincrono: determinate da cellule autoritmiche, gap-junctions, circuiti riverberanti. •Partecipano al processo di binding parallelizzando l’attività di enormi campi neuronali •Consentono un particolare tipo di time-coding (radialbase coding). Hanno implicazioni per stato di coscienza, ritmo sonnoveglia, generalizzazione epilessia. •Il codice neuronale si basa su frequency coding, time coding, ed radial-base coding. •Coinvolge processi a diversi livelli molecolari, cellulari e di rete. •Lo studio delle reti neuronali artificiali può aiutare a decifrare il codice neuronale