Il codice neurale
1o problema:
COME VIENE GENERATO IL CODICE NEURONALE?
2o problema :
COSA SIGNIFICA IL CODICE NEURONALE?
Dobbiamo saperci porre nella posizione di chi scrive (1o,
codifica) e di chi legge (2o , decodifica).
Codificazione tutto-o-nulla mediante i p.d.a. o spikes
Codificazione in
frequenza ed
adattamento
Feature-selectivity
Reti auto-organizzanti di
Kohonen
Mapping
motor
sensory
Organizzazione colonnare
La scoperta di rate coding, feature selectivity, cortical maps,
suggerisce che:
1) I neuroni codificano caratteristiche elementari dello
stimolo.
2) I neuroni elaborano lo stimolo anziché riprodurlo
fedelmente.
3) Esiste un ordine gerarchico nell’elaborazione
dell’informazione.
4) Percezioni complesse sono costruite partendo da
caratteristiche elementari
5) Qualità differenti dello stimolo sono convogliate a regioni
differenti del sistema nervoso
Comprendere
il
codice
neurale
significa
comprendere le relazioni tra i treni di spikes e gli
eventi reali del mondo sensoriale
Il codice
neuronale ha
natura
probabilistica
Bisogna
quantificare la
randomness
mediante
teorie
probablistiche
Applichiam o uno stimolo s (t ) e misuriamo gli spike trains ti .
Poichè esistono numerosi spike trains distinti, calcolerem o la probabilit à di osservarne uno in particolar e.
Questa è la probabilit à condiziona ta Pti  s (t ).
Inoltre consideria mo che lo stimolo è preso da una distribuzi one di possibili stimoli.
Ps (t ) è la distribuzi one di probabilit à da cui è tratta s (t ), ed è detta probabilit à a priori.
Ps (t ), ti  è la probabilit à congiunta di osservare quello stimolo e quel treno simultanea mente.
Ne risulta che la probabilit à congiunta sarà
Ps (t ), ti   Pti  s (t ) Ps (t )
Ma noi dobbiamo essere in grado di decidere qual’era lo
stimolo dato un particolare spike train.
Ne risulta che la probabilit à congiunta sarà
Ps(t ), ti   Ps(t ) ti  Pti 
Ps (t )
Uguagliando le due probabilità
Ps (t ) ti   Pti  s (t )
Pti 
congiunte si ottiene la Legge di Bayes
Applicazoine della
Legge di Bayes a
dati sperimentali
Autocorrelazione e
interspike-interval distribution
E’ possibile quantificare l’informazione ?
Non tutti gli stimoli sono ugualmente probabili: i segnali nel mondo reale hanno strutture e
limitazioni.
L’informazione fornita dagli spikes misura la riduzione dello spazio dello stimolo in scala
logaritmica, cosicchè la riduzione di un fattore 2 nello spazio degli stimoli possibili vale un bit
di informazione.
specifico stimolo
550 Hz
500 Hz
Spike train
Range dello stimolo = 50 Hz
Precisione = 5 Hz
Informatio n gain  log 2 (50 / 5)  3.3 bits
Il teorema di Shannon (1948-1949) :
informazione = entropia
X(t)
Communication
channel
Y(t)
P[X] e P[Y] sono le distribuzioni di probabilità dello stimolo X e dello spike train Y
Se la distribuzione è sharp (al limite un valore) il messaggio è sempre lo stesso:
dobbiamo quindi QUANTIFICARE LA VARIABILITA’.
L’informazione E’ contenuta nella variabilità. La misura appropriata
dell’informazione disponibile è l’ENTROPIA definita in meccanica statistica e
termodinamica.
L' entropia obbedisce alla legge di sommazione d variabili indipenden ti.
Perciò la probabilit à do oservare più variab ili simultanea mnet dipende del prodotto delle proprietà indiviuali :
PX 1 , X 2 ... X n   P1 X 1  P2 X 2  ...Pn X n 
Conseguent emente le entropie si sommeranno
S PX 1 , X 2 ... X n   S P1 X 1  S P2 X 2  ...S Pn  X n 
La conversion e di un prodotto di distribuzi oni in una somma di entropie deve comportars i come il log della distribuzi one
S   k i 1 pi log pi
K
k è la costante di Boltzman. Tuttavia l' informazio ne è adimension ale. k può essere eliminato sciegliend o opportunam ente
la base del log. Si scieglie la base 2, implicando che il codice neuronale è di tipo binario.
La quantità unitaria di informazio ne suficiente per discrimina re tra due alternativ e usgualment e probabili è detta bit
S  i 1 pi log 2 pi bits
K
se tutti i K segnali hanno uguale probabilit à, pi  1 / K . Riarrangia ndo si ottiene
S  log 2 K
Questo è il numero di digits necessario per scrivere K in formato binario.
Il codice binario
Informatio n  log 2 6  2.6 bits
Ci sono 6 digits (0 incluso): la
sequenza dei digits NON è
importante.
Ma se consideriamo la
sequenza temporale, allora
troviamo 25=32 distinti
messaggi, equivalenti a 5
bits.
Il “rate coding” contiene meno
informazione ma è più
robusto (essendo ridondante)
del “time coding”.
L’entropia di un treno di impulsi
Numero binario di T/  digits.
Detta r la frequenza media, p( 1 )  r  
Se  è piccolo, p( 1 ) sarà piccolo. In una stringa con T   ,
 N1  pN

 N 0  1  p N
dato che gli ISI sono random, ol numero di diversi arrangiame nti di N1 e N o sarà :
N stringhe 
N1!
N1! N 0 !
e l' entropia sarà :
 N1! 
S  log 2 

 N1! N 0 !
elaborando opportunam ente si ottiene :
S
T
r    ln r     1 - r    ln 1 - r   
  ln 2
Quindi l' entropia di uno spike train è proporzion ale alla sua lunghezza (S è una quantità estensiva)
E’ possibile misurare la quantità di informazione
trasportata da un treno di spike mettendola in relazione
con la sua durata e frequenza media.
Tuttavia questo ancora non dice:
•come deve essere un codice efficiente
•come si comporta una popolazione di neuroni.
•se ha importanza il timing degli spikes.
Esempi di
codici efficienti
Vector coding e population vectors
Il vettore rappresenta
intensità e direzione:
A  Amax cos 
Composizione di vettori
Vector coding e population coding consentono la
rappresentazione della direzione del movimento
Operazioni di algebra vettoriale consentono al cervello di
trasformare le coordinate spaziali sensoriali e motorie.
I treni di spikes
contengono struttura,
correlazione, e caos
I neuroni possono avere più stati di attività
Specifici canali ionici possono modificare le
proprietà di scarica ed il codice neuronale
a) Le sequenze di p.d.a. hanno struttura (bursts,
adattamento)
b) I tempi di reazione del SNC sono nell’ordine di 102 ms, e
la frequenza di scarica neuronale è nell’ordine di 102 Hz.
c) La precisione delle risposte alla stimolazione sinaptica è
inferiore al millisecondo
Il time-coding può essere particolarmente importante nel SNC
L’EEG rivela l’attività
bioelettrica sincrona
delle strutture corticali
I PEV rivelano l’attività
bioelettrica di specifiche
aree corticali
L’attività di regioni specifiche si inserisce su un background oscillatorio sincrono: determinate da cellule
autoritmiche, gap-junctions, circuiti riverberanti.
•Partecipano al processo di binding parallelizzando
l’attività di enormi campi neuronali
•Consentono un particolare tipo di time-coding (radialbase coding).
Hanno implicazioni per stato di coscienza, ritmo sonnoveglia, generalizzazione epilessia.
•Il codice neuronale si basa su frequency coding, time
coding, ed radial-base coding.
•Coinvolge processi a diversi livelli molecolari, cellulari e di
rete.
•Lo studio delle reti neuronali artificiali può aiutare a
decifrare il codice neuronale
Scarica

3 - Collegio Borromeo