Lezione 10 Ordinamento ottimo Ricerca Sommario • • • • Ordinamento Ottimo O(n lg n) Ordinamento O(n) Alberi e Grafi Alberi Binari di Ricerca Ordinamento Ottimo • In un ordinamento per confronto si usa il confronto tra elementi per ottenere informazioni sull’ordine della sequenza degli elementi • dati a e b per determinare l’ordine relativo fra questi si deve eseguire uno dei seguenti confronti: – – – – a>b a<b ab ab • I confronti sono tutti equivalenti, nel senso che forniscono tutti la stessa informazione sull’ordinamento relativo tra a e b • consideriamo pertanto solo a b Albero di decisione • Un algoritmo di ordinamento per confronto può essere rappresentato a livello astratto come un albero di decisione • un albero di decisione rappresenta i confronti eseguiti da un algoritmo su di una sequenza di ingresso di data dimensione e indica sulle foglie la permutazione dell’ingresso che corrisponde alla sequenza ordinata dei dati in ingresso Albero di decisione • In un albero di decisione non si rappresenta niente altro che i confronti (niente istruzioni per il controllo, copia dati, etc) • ogni nodo interno ha etichetta ai:aj con i,j nell’intervallo dei dati in ingresso • ogni foglia ha una etichetta del tipo [3,5,1,...] con la quale indichiamo una permutazione degli elementi in ingresso (cioè in questo caso consideriamo come risultato prima il terzo elemento, poi il quinto, poi il primo, etc) Albero di decisione • Ad ogni nodo interno si compie un confronto: – se ai aj allora si va nel nodo sinistro, altrimenti destro • L’esecuzione di un algoritmo consiste nel compiere un cammino nell’albero di decisione a partire dalla radice fino ad una foglia • perché si abbia sempre una soluzione si deve garantire che ognuna delle n! permutazioni dell’ingresso sia rappresentato come una foglia dell’albero di decisione Albero di decisione per Ordinamento a1:a2 a2:a3 a1:a3 [1,2,3] a1:a3 [2,1,3] [1,3,2] a2:a3 [3,1,2] [2,3,1] [3,2,1] Nota: 3 elementi, 3! combinazioni, 6 foglie Limite inferiore • Il cammino più lungo in un albero di decisione dalla radice ad una qualunque foglia rappresenta il numero di confronti che l’algoritmo deve eseguire nel caso peggiore • questo è pari all’altezza dell’albero • un limite inferiore sull’altezza dell’albero di decisione di un algoritmo è dunque un limite inferiore sul tempo di esecuzione di un algoritmo di ordinamento per confronti Teorema sull’ordinamento ottimo • Teorema: – qualunque albero di decisione che ordina n elementi ha altezza (n ln n) • Dimostrazione: – Dato che vi sono n! permutazioni di n dati ed ogni permutazione rappresenta un possibile ordinamento allora l’albero binario di decisione deve avere n! foglie – un albero binario di altezza h ha al più 2h foglie – pertanto: 2h n! (approssimazione di Stirling) nn – passando ai logaritmi: ln 2h ln nn – ovvero: h n ln n = (n ln n) Conseguenze • Un qualunque algoritmo di ordinamento per confronto non può fare asintoticamente meglio di n ln n • Ne consegue che il merge sort e lo heap sort sono algoritmi ottimi in quanto limitati superiormente come O(n ln n) Ordinamento O(n) • E’ tuttavia possibile scrivere algoritmi di ordinamento che operano in tempo O(n)!! • Per farlo si deve abbandonare il metodo di ordinamento per confronto • Se le chiavi da ordinare sono interi in un intervallo prefissato allora si può utilizzare direttamente il valore della chiave per posizionare l’elemento nella giusta posizione nel vettore ordinato finale Counting Sort • Il Counting Sort si basa sull’ipotesi che ognuno degli n elementi in ingresso sia un intero nell’intervallo da 1 a k. • Se k=O(n) allora il tempo di esecuzione del CountingSort è O(n). • L’algoritmo prende in ingresso un vettore, restituisce un secondo vettore ordinato ed utilizza un vettore di appoggio per l’elaborazione Spiegazione Intuitiva di Counting Sort • Per ogni elemento x si determinano quanti elementi minori di x vi siano • si usa questa informazione per assegnare ad x la sua posizione finale nel vettore ordinato • se ad esempio vi sono 8 elementi minori di x allora x andrà messo nella posizione 9 • bisogna fare attenzione al caso in cui vi siano elementi coincidenti. In questo caso infatti non vogliamo assegnare a tutti la stessa posizione. Counting Sort CountingSort(A,B,k) 1 for i 1 to k 2 do C[i] 0 3 for j 1 to length[A] 4 do C[A[j]] C[A[j]]+1 5 for i 2 to k 6 do C[i] C[i]+C[i-1] 7 for j length[A] downto 1 8 do B[C[A[j]]] A[j] 9 C[A[j]] C[A[j]]-1 Visualizzazione A 1 2 3 4 5 6 7 8 1 2 3 4 5 6 1 2 3 4 5 6 3 6 4 1 3 4 1 4 C 2 0 2 3 0 1 C 2 2 4 7 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 B B 4 1 2 3 4 5 6 C 1 4 1 2 3 4 5 6 7 8 B C 1 2 4 6 7 8 1 2 3 4 5 6 7 8 B 1 1 3 3 4 4 4 6 4 4 1 2 3 4 5 6 1 2 3 4 5 6 2 2 4 6 7 8 1 C 1 2 4 5 7 8 Tempo di calcolo del Counting Sort • Esaminando l’algoritmo si osserva che vi sono due cicli di lunghezza k e due di lunghezza n • Si può far vedere che la complessità è (k+n) • se k= (n) allora la complessità del Counting Sort è complessivamente (n) Stabilità del Counting Sort • L’algoritmo Counting Sort è un metodo di ordinamento stabile • infatti elementi con lo stesso valore compaiono nel vettore risultato B nello stesso ordine che avevano nel vettore di ingresso A Radix Sort • Il Radix Sort è un algoritmo di ordinamento usato per ordinare record con chiavi multiple • Un esempio di record con chiavi multiple è dato dalla data gg/mm/aaaa. Per ordinare per data si deve ordinare l’anno e a parità di anno si deve ordinare per mese e a parità di mese per giorno • Un altro esempio di record a chiave multipla è dato dal considerare le cifre di un intero come chiavi separate. Per ordinare interi si ordina per la cifra di posizione maggiore e in caso di parità per quelle di ordine via via minore Spiegazione intuitiva • Il Radix Sort opera in modo contro intuitivo ordinando prima sulle cifre meno significative e poi su quelle via via più significative • Supponiamo di dover ordinare una sequenza di numeri a 3 cifre • Utilizzando un ordinamento di tipo stabile possiamo procedere ordinando prima per le unità, poi le decine e in ultimo le centinaia • ad ogni passo la stabilità ci garantisce che le cifre precedenti sono già ordinate Esempio 329 720 720 329 457 355 329 355 657 436 436 436 839 457 839 457 436 657 355 657 720 329 457 720 355 839 657 839 Sequenza in ingresso PseudoCodice Radix-Sort(A,d) 1 for i 1 to d 2 do metodo di ordinamento stabile su cifra i Tempo computazionale • Il tempo di esecuzione dipende dall’algoritmo di ordinamento stabile scelto per ordinare le singole cifre • se si usa il Counting Sort si ha che per ognuna delle d cifre si impiega un tempo (k+n) pertanto si ha • (dk+dn) • se d è una costante rispetto a n • se k=(n) • allora per il radix sort si ha (n) Nota sulle prestazioni • Se vogliamo ordinare 10^6 numeri a 3 cifre – con il radix sort si effettua per ogni dato 3 chiamate al counting sort – con algoritmi O(n lg n) per ogni dato si effettuano lg n=20 operazioni • Andando a estrarre le costanti numeriche nascoste nella notazione asintotica si vede che il radix sort può essere conveniente • Lo svantaggio sta nel fatto che il metodo non è un ordinamento in loco e ha bisogno di più del doppio della memoria dei metodi in loco Definizioni per Grafi e Alberi • Di seguito vengono date delle definizioni su grafi ed alberi che saranno utili per comprendere le strutture dati presentate successivamente Grafi • Un grafo orientato (o diretto) G è una coppia (V,E) dove V è un insieme finito detto dei vertici e E è una relazione binaria su V che forma l’insieme degli archi. Gli archi sono delle coppie ordinate di vertici. V={1,2,3,4,5,6} 1 4 2 5 3 6 E={(1,2),(2,2),(2,4), (2,5),(4,1),(4,5), (5,4),(6,3)} Grafi • Un grafo non orientato è un grafo in cui gli archi sono coppie non ordinate di vertici, cioè un arco fra i vertici u,v è un insieme di due elementi {u,v} piuttosto che una coppia (u,v) • tuttavia si indica l’arco sempre con notazione (u,v) 1 2 3 4 5 6 Grafi • Sia (u,v) è un arco di un grafo orientato, si dice che: – l’arco esce dal vertice u – l’arco entra nel vertice v • un arco (u,v) di un un grafo non orientato si dice che è incidente sui vertici v e u • si dice che v è adiacente a u – in un grafo non orientato la relazione di adiacenza è simmetrica – in un grafo orientato v è adiacente a u, ma non è vero il viceversa, e si indica con la notazione uv Grafi • Il grado di un vertice in un grafo non orientato è il numero di archi incidenti sul vertice • in un grafo orientato il grado uscente (entrante) di un vertice è il numero di archi uscenti (entranti) dal vertice Grafi • Un cammino di lunghezza k da un vertice a ad un vertice b in un grafo G=(V,E) è una sequenza di vertici < v0, v1,…,vk> tali che – a= v0 – b= vk – (vi-1 ,vi) E per i=1,…,k • • • • La lunghezza di un cammino è il suo numero di archi un cammino < v0, v1,…,vk> è un ciclo se v0= vk un grafo senza cicli si dice aciclico un grafo non orientato è connesso se ogni coppia di vertici è collegata con un cammino Alberi • Un albero è un grafo non orientato, connesso e aciclico. • Un albero radicato è un albero in cui si distingue un vertice (chiamato radice) dagli altri vertici • i vertici in un albero sono chiamati nodi • sia x un nodo di un albero con radice r: qualunque nodo y sull’unico cammino da r a x è chiamato antenato di x e x si dice discendente di y • il sottoalbero radicato in x è l’albero indotto dai discendenti di x, radicato in x Alberi • Se l’ultimo arco di un cammino dalla radice r ad un nodo x è l’arco (y,x) allora y è il padre di x e x è il figlio di y • la radice è l’unico nodo che non ha padre • due nodi con lo stesso padre si dicono fratelli • un nodo senza figli si dice nodo esterno o foglia • un nodo non foglia è un nodo interno • il numero di figli di un nodo x è il grado di x Alberi • la lunghezza di un cammino da r a x è la profondità di x • la profondità massima di un qualunque nodo di un albero è l’altezza dell’albero • un albero ordinato è un albero radicato in cui i figli di ciascun nodo sono ordinati (cioè si distingue il primo figlio, il secondo, etc) Alberi binari • Un albero binario è una struttura definita su un insieme finito di nodi che: – non contiene nessun nodo, oppure – è composto da tre insiemi disgiunti di nodi: un nodo radice, un albero binario chiamato sottoalbero sinistro e un albero binario chiamato sottoalbero destro • un albero binario che non contiene nessun nodo è detto albero vuoto o albero nullo (denotato con NIL) • se il sottoalbero sinistro (destro) non è vuoto allora la sua radice è detta figlio sinistro (destro) • se un sottoalbero è l’albero nullo si dice che il figlio è assente o mancante Alberi binari • Un albero binario non è un albero ordinato con nodi con grado al più due: in un albero ordinato non si distingue fra figlio destro o sinistro (ma si considera solo il numero di figli) Alberi • in generale si parla di alberi posizionali per quegli alberi in cui i figli dei nodi sono etichettati con interi positivi distinti • l’i-esimo figlio di un nodo è assente se nessun figlio è etichettato con l’intero i • Un albero k-ario è un albero posizionale in cui per ogni nodo tutti i figli con etichetta più grande di k sono assenti Alberi • Un albero k-ario completo è un albero k-ario in cui tutte le foglie hanno la stessa profondità e tutti i nodi interni hanno grado k • Il numero di foglie di un albero k-ario è: – la radice ha k figli a profondità 1 – ognuno dei figli ha k figli a profondità 2 per un totale di k.k foglie – a profondità h si hanno kh foglie • il numero di nodi interni di un albero k-ario completo di altezza h è: 1+k+ k2 + … +kh-1 = i=0..h-1 ki = (kh -1)/(k-1) • quindi un albero binario ha 2h -1 nodi interni Implementazione alberi binari • Gli alberi si rappresentano ricorrendo agli stessi metodi usati per rappresentare le liste • In genere si usano strutture dati con puntatori • Per gli alberi binari si usano strutture dati per rappresentare i nodi che hanno un campo key e 2 o 3 puntatori ad altri nodi (si può non utilizzare il puntatore a padre) struct Node{ int key; Node* p; Node * left, * right; }; Implementazione alberi binari • Se x è un nodo allora – se p[x]=NIL il nodo è la radice dell’albero – se left[x]=NIL (right[x]=NIL) allora il nodo non ha figlio sinistro (destro) • Si mantiene il puntatore alla radice dell’albero T memorizzandola nell’attributo root[T] – se root[T]=NIL l’albero è vuoto Visualizzazione alberi binari key p left right 2 Ø 2 5 5 Ø Ø 2 2 4 3 4 Ø Ø 3 Ø Ø Implementazione alberi • Se vogliamo rappresentare alberi con un numero illimitato di figli potremmo pensare di riservare un numero max di link ai figli come: key p 1st 2nd 3rd 4th... 2 Ø • ma in questo modo dobbiamo porre un limite sul massimo grado di un nodo • inoltre viene sprecato molta memoria per rappresentare i puntatori NIL Implementazione alberi • Per rappresentare alberi con un numero illimitato di figli conviene usare la rappresentazione figlio-sinistro fratello-destro • Ogni nodo conserva il campo key e puntatore a padre • invece di avere un puntatore per ogni figlio i nodi hanno solo due puntatori: – puntatore al figlio più a sinistra – puntatore al fratello immediatamente a destra Visualizzazione 2 2 5 4 3 3 4 5 6 9 4 8 3 4 3 3 4 6 9 4 8 3 Visualizzazione 2 2 5 4 3 3 4 5 6 9 8 3 4 4 3 4 6 3 9 8 4 3 Algoritmi su gli alberi binari: visite • Dato un puntatore alla radice di un albero vogliamo scandire in modo sistematico tutti i nodi di tale albero • In una lista abbiamo una unica possibilità: quella di seguire il link al nodo successivo • Con un albero binario sono possibili 3 strategie: – preordine o ordine anticipato: si visita prima il nodo e poi i sottoalberi sinistro e destro – inordine o ordine simmetrico: si visita prima il sottoalbero sinistro e poi il nodo e poi il sottoalbero destro – postordine o ordine posticipato: si visita prima il sottoalbero sinistro, poi quello destro e poi il nodo Visita in ordine simmetrico Inorder-Tree-Walk(x) 1 if x NIL 2 then Inorder-Tree-Walk(left[x]) 3 stampa(key[x]) 4 Inorder-Tree-Walk(right[x]) Visualizzazione 2 1 8 4 9 •si parte in 2 •viene chiamata la funzione sul figlio sinistro •siamo in 1 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 1 •stampiamo 1 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •torniamo in 1 •la funzione termina •torniamo in 2 •stampiamo 2 •…. Visualizzazione 2 1 8 4 9 •viene chiamata la funzione sul figlio destro •siamo in 8 •viene chiamata la funzione sul figlio sinistro •siamo in 4 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 4 •stampiamo 4 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •la funzione termina •torniamo in 8 •stampiamo 8 •viene chiamata la funzione sul figlio destro •siamo in 9 Visualizzazione 2 1 8 4 9 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 9 •stampiamo 9 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •torniamo in 9 •la funzione termina •torniamo in 8 •la funzione termina •torniamo in 2 •la funzione termina Visita in ordine anticipato Inorder-Tree-Walk(x) 1 if x NIL 2 then stampa(key[x]) 3 Inorder-Tree-Walk(left[x]) 4 Inorder-Tree-Walk(right[x]) Visualizzazione 2 1 8 4 9 •si parte in 2 •stampiamo 2 •viene chiamata la funzione sul figlio sinistro •siamo in 1 •stampiamo 1 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 1 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •torniamo in 1 •la funzione termina •torniamo in 2 Visualizzazione 2 1 8 4 9 •viene chiamata la funzione sul figlio destro •siamo in 8 •stampiamo 8 •viene chiamata la funzione sul figlio sinistro •siamo in 4 •stampiamo 4 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 4 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •la funzione termina •torniamo in 8 •viene chiamata la funzione sul figlio destro •siamo in 9 Visualizzazione 2 1 8 4 9 •viene chiamata la funzione sul figlio sinistro •non esiste figlio sinistro e la ricorsione termina •torniamo in 9 •viene chiamata la funzione sul figlio destro •non esiste figlio destro e la ricorsione termina •torniamo in 9 •la funzione termina •torniamo in 8 •la funzione termina •torniamo in 2 •la funzione termina Visita in ordine posticipato Inorder-Tree-Walk(x) 1 if x NIL 2 then Inorder-Tree-Walk(left[x]) 3 Inorder-Tree-Walk(right[x]) 4 stampa(key[x]) Algoritmi ricorsivi su alberi binari • Capita di dover determinare dei parametri strutturali di un albero avendo in ingresso solo il link alla radice • Si può sfruttare la struttura ricorsiva degli alberi ed realizzare versioni ricorsive delle funzioni di interesse • Consideriamo una funzione per determinare il numero di nodi ed una per determinare l’altezza dell’albero Funzioni ricorsive int count(link h) { if (h == NULL) return 0; return count(h->l) + count(h->r) + 1; } int height(link h) { int u, v; if (h == NULL) return -1; u = height(h->l); v = height(h->r); if (u > v) return u+1; else return v+1; } Ricerca • Molte applicazioni richiedono un insieme dinamico che fornisca solo operazioni di inserimento/cancellazione e ricerca o al più la ricerca di elementi particolari della collezione come il massimo/minimo o il predecessore/successore Alberi Binari di ricerca • Gli alberi binari di ricerca sono strutture dati dinamiche che forniscono le operazioni richieste (insert, delete, search, maximum, predecessor, etc) in tempo limitato asintoticamente dall’altezza dell’albero, cioè per le varie operazioni si ha T(n)=O(h) • Quando gli alberi sono bilanciati questo comporta avere tempi di calcolo asintotici O(ln n) • Tuttavia si possono avere alberi sbilanciati. Un albero può degenerare in un lista lineare. In questo caso si hanno tempi O(n) Alberi Binari di Ricerca • Un albero binario di ricerca è un albero binario in cui le chiavi soddisfano la proprietà dell’albero binario di ricerca: – sia x un nodo – key di left[x] key di x – key di right[x] key di x 2 1 8 4 9 Ordinamento delle chiavi • In un albero binario di ricerca l’operazione di ordinamento viene eseguita semplicemente attraversando i nodi dell’albero in modo ricorsivo • la visita deve essere una visita in ordine simmetrico Visualizzazione Root[t] 2 1 2 8 1 8 9 4 9 8 4 9 2 8 4 1 4 2 1 2 1 9 Sequenza stampata: 1 2 4 8 9 8 4 9 La ricerca • L’idea è di confrontare la chiave di un nodo x con la chiave cercata • nel caso che non coincidano si cerca solo nel sottoalbero in cui potrà trovarsi • è possibile sapere quale sia il sottoalbero perché tutti i nodi del sottoalbero destro contengono chiavi maggiori della chiave di x (e nel sottoalbero sinistro chiavi minori) PseudoCodice per la Ricerca (versione ricorsiva) Tree-Search(x,k) 1 if x = NIL o k=key[x] 2 then return x 3 if k < key[x] 4 then return Tree-Search(left[x],key) 5 else return Tree-Search(right[x],key) Tempo di calcolo • La procedura discende a partire dalla radice l’albero e restituisce un puntatore al nodo la cui chiave coincide con la chiave cercata • nel caso in cui essa non esista la procedura discende comunque fino ad una foglia e restituisce un puntatore nullo • Il tempo impiegato è proporzionale alla lunghezza del cammino percorso, ovvero limitato dalla altezza dell’albero • pertanto T(n)=O(h) Nota • E’ possibile scrivere qualsiasi procedura ricorsiva in forma non ricorsiva (e viceversa) • La forma ricorsiva è spesso più elegante e compatta ma non la più efficiente • Di seguito si da una procedura non ricorsiva per la ricerca in un albero binario PseudoCodice per la Ricerca (versione iterativa) Iterative-Tree-Search(x,k) 1 while x NIL e k key[x] 2 do if k < key[x] 4 then x left[x] 5 else x right[x] 6 return x Determinazione della chiave massima e minima • La chiave massima in un albero binario dovrà trovarsi nel sottoalbero destro della radice • e nel sottoalbero destro del figlio destro della radice • e così via • Analogamente per la chiave minima che dovrà essere nel sottoalbero sinistro • Pertanto per determinare l’elemento massimo è sufficiente discendere tutti i nodi da figlio destro in figlio destro fino ad arrivare alla foglia (e analogamente con i figli sinistri per il minimo) Minimo e massimo Tree-Minimum(x) 1 while left[x] NIL 2 do x left[x] 3 return x Tree-Maximum(x) 1 while right[x] NIL 2 do x right[x] 3 return x Successore e predecessore • Dato un nodo nell’albero di ricerca talvolta si richiede di determinare il suo successore (o predecessore) secondo l’ordinamento fornito dalle chiavi. • Se tutte le chiavi sono distinte, il successore di un nodo x è il nodo con la più piccola chiave maggiore della chiave di x • Con gli alberi binari di ricerca è possibile determinare il successore (predecessore) di un nodo senza dover confrontare le chiavi Idea intuitiva • Si considerano due casi: – il nodo x ha un figlio destro – il nodo x non ha un figlio destro • Nel primo caso si considera il sottoalbero destro che contiene sicuramente nodi con chiavi maggiori della chiave di x • in questo sottoalbero il nodo con la chiave più piccola è la foglia alla estrema sinistra, cioè il nodo restituito dalla procedura Tree-Minimum Idea intuitiva • Nel caso in cui x non ha un figlio destro allora il predecessore deve essere un antenato p di x • per p, x deve essere un discendente appartenente ad un sottoalbero sinistro (così la chiave di p è maggiore della chiave di x) • perché la chiave di p sia la più piccola possibile allora p deve essere l’antenato più prossimo – altrimenti se consideriamo il nonno di x, padre di p, è vero che questo ha chiave > chiave[x] ma non è la minima, perché anche chiave[p]>chiave[x] ma chiave[p]<chiave[nonno] Idea intuitiva • Per determinare questo nodo antenato è sufficiente risalire gli antenati di x fino a quando non si trova un nodo che è un figlio sinistro di qualche altro nodo y. Il nodo y sarà il nodo cercato • si mantengono pertanto i puntatori x e y ai nodi figlio e padre e si risale fino a quando x=left[y] Visualizzazione 15 18 6 7 3 2 17 20 13 4 Successore di 13 9 PseudoCodice Successore Tree-Successore(x) 1 if right[x] NIL 2 then return Tree-Minimum(right[x]) 3 y p[x] 4 while y NIL e x = right[y] 5 do x y 6 y p[x] 7 return y Predecessore • La procedura per la determinazione del predecessore è simmetrica a quella vista per il successore • il predecessore si troverà nel sottoalbero sinistro (se questo esiste), e sarà l’elemento massimo di questo sottoalbero • se non esiste sottoalbero sinistro il predecessore sarà l’antenato più prossimo che ha un figlio destro che è antenato del nodo in questione PseudoCodice Predecessore Tree-Predecessore(x) 1 if left[x] NIL 2 then return Tree-Maximum(left[x]) 3 y p[x] 4 while y NIL e x = left[y] 5 do x y 6 y p[x] 7 return y Inserzione • Per inserire un nuovo valore k in un albero binario di ricerca: – si passa alla procedura un nodo z tale che key[z]=k, e left[z]=right[z]=p[k]=NIL – si modificano i campi del nuovo nodo per inserirlo opportunamente all’interno dell’albero binario di ricerca • l’idea è di muoversi all’interno dell’albero a partire dalla radice spostandosi sul sottoalbero destro o sinistro come appropriato (confrontando le chiavi) • una volta arrivati ad una foglia si inserisce il nuovo nodo Visualizzazione 15 18 6 7 3 2 17 13 4 9 14 20 Pseudocodice Inserzione Tree-Insert(T,z) 1 y NIL 2 x root[T] 3 while x NIL 4 do y x 5 if key[z]<key[x] 6 then x left[x] 7 else x right[x] 8 p[z] y 9 if y=NIL 10 then root[T] z 11 else if key[z] < key[y] 12 then left[y] z 13 else right[y] z Cancellazione • La procedura di cancellazione è più laboriosa in quanto si deve tenere conto di tre casi possibili • dato un nodo z i casi sono: – z non ha figli – z ha un unico figlio – z ha due figli • Nel primo caso si elimina direttamente il nodo z • il secondo caso è identico al caso di eliminazione di un nodo da una lista concatenata • Nel terzo caso si determina il successore di z e lo si sostituisce a z Visualizzazione caso 1 15 15 16 5 20 12 3 10 6 13 18 23 20 12 3 10 6 7 16 5 7 18 23 Visualizzazione caso 2 15 15 16 5 20 12 3 10 6 5 13 18 23 10 6 7 20 12 3 7 18 23 Visualizzazione caso 3 15 15 16 5 20 12 3 10 6 6 13 18 23 10 7 7 20 12 3 18 23 PseudoCodice Cancellazione Tree-Delete(T,z) 1 if left[z]=NIL o right[z]=NIL //identifica il nodo da cancellare o sostituire 2 then y z 3 else y Tree-Successor(z) 4 if left[y] NIL 5 then x left[y] 6 else x right[y] 7 if x NIL //ripristina il padre (cancellazione implicita) 8 then p[x] p[y] 9 if p[y] = NIL //ripristina i figli corretti 10 then root[T] x 11 else if y=left[p[y]] 12 then left[p[y]] x 13 else right[p[y]] x 14 if y z 15 then key[z] key[y] 17 return y //per eventuale deallocazione Implementazione C++ #include <iostream> using namespace std; template<class T, class LessClass > class TreeClass{ private: struct Node{Node *left, *right, * parent; T key;}; Node *root; public: TreeClass():root(0){} void insert(T); void print(){p_print(root); cout<<endl;} bool search(T user_key){return p_search(root, user_key);} T minimum(); T maximum(); private: void p_print(Node *); bool p_search(Node * x, T user_key); }; Implementazione C++ template<class T, class LessClass > void TreeClass<T, LessClass>::p_print(Node *x){ if(x!=0){ p_print(x->left); cout<<x->key<<" "; p_print(x->right); } } template<class T, class LessClass > bool TreeClass<T, LessClass>::p_search(Node * x, T usr_key){ LessClass less; if(x==0) return false; if(!less(x->key,usr_key) && !less(usr_key,x->key)) return true; //ugualianza if(less(usr_key,x->key)) p_search(x->left, usr_key); else p_search(x->right, usr_key); } template<class T, class LessClass > void TreeClass<T,LessClass>::insert(T usr_key){ LessClass less; //inizializzazione del nodo da aggingere Node * z=new Node; z->key=usr_key; z->left=0; z->right=0; z->parent=0; //ricerca della giusta posizione di inserzione Node * y=0; Node * x=root; while(x != 0){ y=x; if(less(z->key, x->key)) x=x->left; else x=x->right; } //settaggio dei puntatori z->parent=y; if(y==0) root=z; else if(less(z->key, y->key)) y->left=z; else y->right=z; } Implementazione C++ template<class T, class LessClass > T TreeClass<T, LessClass>::minimum(){ Node * x=root; while(x->left !=0) x=x->left; return x->key; } template<class T, class LessClass > T TreeClass<T, LessClass>::maximum(){ Node * x=root; while(x->right !=0) x=x->right; return x->key; } Implementazione C++ template<class T> struct LessClass{ bool operator()(const T & a, const T & b)const{return a<b;} }; int main(){ //integer example int v[]={2,5,8,1,3,4,7,9,6,0}; TreeClass<int, LessClass<int> > T; for(int i=0;i<10;i++) T.insert(v[i]); T.print(); cout<<"Seraching 5:"<< (T.search(5)? "Found":"Not found")<<endl; cout<<"Seraching 11:"<< (T.search(11)? "Found":"Not found")<<endl; cout<<"Searching maximum:"<<T.maximum()<<endl; cout<<"Searching minimum:"<<T.minimum()<<endl; Implementazione C++ //char example char c[]="this_is_a."; TreeClass<char, LessClass<char> > Tc; for(int i=0;i<10;i++) Tc.insert(c[i]); Tc.print(); cout<<"Seraching (Tc.search('s')? cout<<"Seraching (Tc.search('v')? cout<<"Searching cout<<"Searching cout<<endl; return 0; } s:"<< "Found":"Not found")<<endl; v:"<< "Found":"Not found")<<endl; maximum:"<<Tc.maximum()<<endl; minimum:"<<Tc.minimum()<<endl;