Elaborazione di Immagini
II Parte
Lezione N.1
Giovanni Naldi
Dipartimento di Matematica
Centro ADAMSS
Università degli studi di Milano
http://newrobin.mat.unimi.it/users/naldi/elabimm/EI09-lez1.ppt
Agenda
1. Introduzione
Alcuni aspetti ``classici’’
2.
Primi approcci e problemi
3.
Metodologie recenti
snake, level set, PDE, …
4.
Applicazioni
5.
Ulteriori problemi
Un testo classico: Rosenfeld, Azriel, Kak, Avinash C.; Digital picture processing
Table of Contents:
Chap1 Introduction
Chap2 Matghematical Preliminaries (Linear Operations, Discrete Picture Transforms, Random
Variables, Random Fields, Vector space Representation)
Chap3 Visual Perception (Brightness and Contrast, Acuity and Contour, Color, Pattern and
Texture, Shape and Space, Duration and Motion, Detection and Recognition)
Chap4 Digitization (Sampling, Quantization)
Chap 5 Compression (Transform Compression, Fast implementation of KL Compression, Fourier,
Hadamard and Cosine Transform Compression, bit allocation, Predictive Compression, Block
truncation compression, error-free compression, more on compression techniques, the ratedistortion function)
Chap 6 Enhancement (Quality, gray scale modification, Sharpening, Smoothing)
Chap 7 Restoration (The a-priori knowledge required in restoration, inverse filtering, least squares
filtering, Constrained deconvolution, recursive filtering, some further restoration models)
Chap 8 Reconstruction (Methods for generating projection data, the Fourier Slice Theorem, The
filtered-backprojection algorithm for parallel projection data, aliasing artifcats, Noise in
reconstructed images, reconstruction from fan projections, Algebraic Recontruction Tecqniques)
Chap9 Matching (Image Geometry, Registration, Geometric Transformation, Match Measurement)
Chap10 Segmentation (Pixel Classification, Edge Detection, Feature Detection, Sequential
Segmentation, Iterative segmentation)
Chap11 Representation (Representation Schemes, Conversion between Representations,
Geometry Property Measurement)
Chap12 Description (Properties, Models)
Image Processing and Analysis:
Variational, PDE, Wavelet, and Stochastic
Methods
Tony F. Chan and Jianhong (Jackie)
Shen
SIAM 2005
List of Figures; Preface; Chapter 1:
Introduction; Chapter 2: Modern Image
Analysis Tools; Chapter 3: Image Modeling
and Representation; Chapter 4: Image
Processing: Denoising; Chapter 5: Image
Processing: Deblurring; Chapter 6: Image
Processing: Inpainting; Chapter 7: Image
Processing: Segmentation; Bibliography;
Index.
In alcuni casi medesimi problemi ma metodi differenti.
Molti tipi di immagini ….
I segnali sono grandezze dipendenti da una o piu variabili temporali o spaziali e
contengono informazione riguardo lo stato di qualche fenomeno.
Un segnale e costituito da una entità contenente qualche tipo di informazione
che può essere estratta, trasmessa o elaborata.
Esempi (di segnali):
 segnali del parlato, che si incontrano anche in telefonia e radio;
 segnali video e immagini;
 suoni e musica, riproducibili ad esempio da un lettore di CD;
 segnali biomedici, come elettrocardiogrammi e radiografie.
Un segnale e rappresentato, in generale, da una funzione g = f(x), dove:
• g denota una variabile (dipendente) sui valori di una grandezza fisica o chimica
(corrente, tensione, pressione, concentrazione di molecole e così via).
• x denota una o più variabili indipendenti generalmente coordinate spaziali o temporali.
• f denota la relazione funzionale che associa ad ogni valore di x il corrispondente
valore della grandezza fisica g.
Segnale acustico, P(t), P pressione acustica, t tempo
Immagine monocromatica identificata dalla funzione L(x,y), che fornisce la
luminosità in funzione delle due coordinate spaziali (x,y).
IMMAGINI 2D
Per immagini a due dimensioni (2D) intendiamo una rappresentazione di
una scena su un piano, per esempio una fotografia.
Le immagini 2D possono rappresentare oggetti creati al computer, misure
fisiche ecc… oppure possono essere prodotte da un programma di
grafica, da una macchina fotografica digitale, da un telescopio, da un
microscopio, da un satellite, da un tomografo ecc..
Una immagine monocromatica può essere identificata come una funzione I(x,y)
in due variabili, dove x ed y rappresentano le coordinate (spaziali) mentre il
valore I nel punto (x,y) è chiamata intensità o livello di grigio dell’immagine nel
punto. Quando I valori x,y e l’ampiezza I sono quantità discrete, finite si parla
di immagine digitale.
Immagini a toni di grigio
Falsi colori
Immagini a colori
Immagini binarie
Cosa è una immagine digitale?
Immagine come una superficie: immagini a
livelli di grigio come superfici in (x,y, I), e immagini
a colori come superfici in (x,y,R,G,B).
• Immagine a livelli di grigio
come una matrice
• Pixel:=Picture element
pixel
120
200
95
80
77
202
190
40
73
111
15
43
74
43
35
10
• 8 bits-Quantization
• Sintesi di immagini a colori
• Risoluzione: dimensioni matrice immagine, numero
di livelli di quantizzazione, frame rate.
Il processo di conversione del segnale continuo in digitale può essere distinto in due passi
fondamentali:
•il rivelamento (misura);
•la conversione analogica/digitale.
Nel primo passo la quantità fisica da rappresentare è misurata da un apparato appropriato che la
converte in un segnale ancora continuo (per esempio elettrico).
Nel secondo passo il segnale continuo è convertito in digitale
Esempio 1D.
In una sala d’incisione il cantante emette suoni (onde sonore) che vengono rivelati dal microfono
(trasduttore), l’uscita del microfono è un segnale elettrico continuo. Questo può rimanere tale e viene
inciso su un nastro magnetico oppure può essere convertito in un segnale digitale e quindi registrato
su CD, hard disk ecc.. (in vari formati). Quando poi noi riascoltiamo il brano viene fatta una
conversione opposta cioè da digitale a elettrica e quindi attraverso la cuffia, l’auricolare o
l’altoparlante (che sono i trasduttori) a onde sonore.
Esempio 2D.
Un processo analogo avviene per le immagini bidimensionali, il trasduttore che
converte l’intensità luminosa è in genere un CCD, mentre la conversione
opposta ( cioè da digitale ad analogica) è realizzata dallo schermo o dalla
stampante.
Da slide corso Bertero-Boccacci (UniGE)
Un esempio di trasduttore: il CCD
I CCDs (Charge-Couple Devices) sono presenti nelle macchine fotografiche digitali,
nelle cineprese digitali, negli scanners, nei telescopi e nei microscopi. Anche se ogni
dispositivo sarà studiato per adattarsi alle caratteristiche della luce incidente nei vari
casi, il principio di funzionamento è lo stesso.
I sensori di immagini contengono una griglia di elementi sensibili su un unico
chip di silicio. Questi elementi convertono la luce incidente in cariche elettriche che, fino
alla fase di lettura, rimangono intrappolate nell’elemento. Queste cariche possono
essere misurate e convertite in numeri (digitali) che indicano quanta luce ha colpito il
singolo elemento.
Il nome Charge-Couple deriva dal modo di lettura delle cariche alla fine dell’esposizione.
Da slide corso Bertero-Boccacci (UniGE)
Quando l’esposizione è terminata ogni elemento del CCD si è caricato in proporzione alla quantità
di luce che ha inciso su di esso.
La figura mostra un esempio con il numero di cariche (elettroni) presenti su ogni elemento.
La fase di lettura (che dà il nome al dispositivo) avviene per righe. All’inizio le cariche della prima
riga vengono accumulate in un registro e poi attraverso un amplificatore entrano in un convertitore
analogico-digitale che produce una array della dimensione corrispondente al numero di elementi
della riga
Viene letta una riga per volta e poi il contenuto del registro è cancellato.
Le cariche delle righe sono accoppiate (“coupled”) tra di loro e, quindi, quando si libera una riga
tutte le cariche si spostano di un posizione in giù.
Si ripete il procedimento fino a quando non si è letta l’ultima riga. Il CCD allora è pronto per
“leggere” una nuova immagine.
Da slide corso Bertero-Boccacci (UniGE)
CCDs a colori
Ogni elemento del CCD non è sensibile al colore. Come è possibile ottenere una
immagine a colori?
I sensori delle fotocamere scompongono, attraverso dei filtri, la luce nei colori di base
additivi: Rosso Arancio (R), Verde (International Green = G) e Blu Violetto (B).
Quando tutti e tre i colori sono stati acquisiti, vengono sovrapposti per ottenere lo
spettro di altri colori.
Ci sono molti metodi differenti per acquisire i colori, per esempio:
•3 CCD (uno per ogni colore);
•una maschera ruotante con i filtri che permette l’acquisizione in sequenza dei tre
colori;
•un filtro (filtro di Bayer) che permette di acquisire i tre colori contemporaneamente
sullo stesso CCD. Il filtro contiene più verde perchè l’occhio umano ne ha bisogno per
“vedere” correttamente i colori. (non è ugualmente sensibile)
Beam splitter
Filtro di Bayer
Campionatura e quantizzazione (monocromatica)
Qualunque sia il sensore, il suo output è un segnale continuo.
Per creare un’immagine digitale, il segnale deve essere campionato sia
in senso spaziale che come valore. Sono quindi necessari due processi:
• campionatura: discretizza lo spazio
• quantizzazione: discretizza il valore in un certo numero di livelli di grigio
Immagini monocromatiche.
Una immagine digitale img(m,n) in uno spazio discreto 2D, deriva da una immagine
analogica img(x,y) in uno spazio continuo 2D attraverso un processo di
digitalizzazione (o campionamento) .
L’mmagine continua img(x,y) è divisa in M righe e N colonne. L’intersezione di una
riga con una colonna è chiamata pixel. Il valore assegnato al pixel identificato dalla
coppia (m,n) con m=1,2,...,M e n=1,2,...,N e da img(m,n).
In molti casi img(x,y) può essere considerato il segnale fisico che arriva sulla
superficie del sensore 2D.
Effetto Risoluzione spaziale
Effetto quantizzazione
Scopo elaborazione immagini
•Image (signal) processing (elaborazione di immagini (segnali)): immagine in
ingresso immagine in uscita
Esempi: Miglioramento delle immagini (image enhacement), estrazione dei contorni,
riduzione del rumore, etc..
•Image Analysis (analisi delle immagini): immagine in ingresso dati (misure) in uscita
Esempi: Individuazione dei punti angolosi, misura del gradiente, fotometria etc..
•Image Understanding (comprensione delle immagini): immagine in ingresso
descrizione ad alto livello
Esempi: Riconoscimento di oggetti specifici all’interno dell’immagine (volti),
segmentazione etc.
istogramma
Immagine originale
Immagine riordinata
Trovare operatori puntuali per modificare l’istogramma
Equalizzazione dell’istogramma
Scarica

EI09-lez1 - Dipartimento di Matematica