1 Unicità della funzione d’utilità che rappresenta ¹. Ovviamente non è unica. Basta pensare a f (x) = x e g(x) = x3 che entrambe rappresentano ≤ su R. Si può dimostrare che: Teorema 1.1 Date f, g : X −→ R, f e g rappresentano lo stesso ¹ se e solo se ∃ ϕ : f (X) −→ g(X) tale che g = ϕ ◦ f . (vedi figura sotto) Dimostrazione. ⇐ ) è ovvia. ⇒ ) Sia t ∈ f (x). Dobbiamo definire ϕ(t). Consideriamo x ∈ f −1 (t). E definiamo ϕ(t) = g(f −1 (t)). La verifica del fatto che questa è una buona definizione e più in generale della tesi del teorema sono standard. Esercizio 1.1 Fare la dimostrazione di ⇐ ) e dimostrare tutti i dettagli omessi nella dimostrazione di ⇒ ). 2 Rappresentazione di º con t su R2≥ . Se (x1 , x2 ) = (t, t), ovvia l’∃, e l’unicità dipende dalla ipotesi di forte monotonia. 1 Altrimenti abbiamo t1 e t2 come in figura, con t1 < t2 e con (t1 , t1 ) ≺ (x1 , x2 ) ≺ (t2 , t2 ). Con bisezione otteniamo t1n , t2n (tipo teorema degli zeri), con (t1n , t2n ) ≺ (x1n , x2n ) ≺ (t2n , t2n ). E con t1n , t2n −→ t. Per continuità: (t, t) ¹ (x1n , x2n ) ¹ (t, t). Che t sia unico, già l’abbiamo detto. Continuità. Prendiamo xn −→ x̄. Dimostrare che tn −→ t̄. Dove t̄ è l’unico elemento della diagonale tale che x̄ ∼ t̄. Osserviamo che tn sta definitivamente nel quadrato di lato max{x̄1 + ², x̄2 + ²}. Allora per compattezza ∃ estratta tkn −→ t̂. Dimostrare che t̂ = t̄. Per assurdo. Supponiamo, per esempio, che t̂ > t̄. Allora t̂ ≺ t̄. Allora tn º (t̄+2 t̂)  t̄ ∼ x̂. (definitivamente). Allora xn º (t̄+2 t̂) . Per continuità abbiamo che x̄ º (t̄+2 t̂)  t̄ ∼ x̂. Assurdo. Abbiamo quindi che t̄ = t̂. E che tutta la successione converge e non solo una estratta. 2 3 Choice Function, preordine totale: equivalenza degli approcci (Houthakker). Ricordo che una choice function (su X) è: c : P (X) −→ P(X) tale che c(A) ⊆ A ∀A ∈ P (X). Imponiamo che c soddisfi le seguenti due condizioni: 1) c(A) 6= ∅ ∀A ∈ P (X). 2) [Houthakker]: ∀x, y ∈ A ∩ B: ([x ∈ c(A) e y ∈ c(B)] ⇒ [x ∈ c(B) e y ∈ c(A)]). Una prima, importante conseguenza della condizione 2) è che le preferenze di un individuo, deducibili a partire dalle scelte che effetua, sono determinate dalle sue scelte su insiemi contenenti solo due elementi. Vediamo in dettaglio e formalmente questo fatto. Cominciamo col definire le preferenze “dedotte” da c. Definizione 3.1 Data c : P (X) −→ P(X), choice function, definiamo: x Âc y : ⇔ [∀A ⊆ X t.c. x, y ∈ A, y 6∈ c(A)]. Si noti che, senza supporre alcuna restrizione sulla choice function, la relazione che otteniamo può essere molto “irregolare”. Esempio 3.1 Sia X = {1, 2, 3} e sia c(A) = ∅ ∀A ∈ P (X). Allora x Âc y sempre, qualunque siano x, y ∈ X. In particolare, x Âc x ∀x ∈ X. Ovviamente la stranezza è dovuta al fatto che, essendo c a valori vuoti, le premesse nella implicazione che è nella definizione non è mai vera. E quindi l’implicazione lo è.... Esempio 3.2 Sia X = {1, 2, 3} e sia c({x}) = {x} ∀x ∈ X; c({1, 2}) = {1}, c({2, 3}) = {2}, c({3, 1}) = {3}; c(X) = ∅. Allora è 1 Âc 2, 2 Âc 3, 3 Âc 1. Una vecchia conoscenza, non transitiva... 3 Se invece assumiamo che valgano le condizioni 1), 2), abbiamo tanto per cominciare il seguente risultato (molto importante!): Teorema 3.1 Dato X ed una choice function c soddisfacente 1), 2) si ha che : x Âc y ⇔ c({x, y}) = {x}. Dimostrazione. ⇒ ) Visto che c({x, y}) 6= ∅, e visto che y 6∈ c(A) (in quanto x ∈ c(A)), c’è poca scelta... ⇐ ) Supponiamo di sapere che c({x, y}) = {x}. E cerchiamo di dedurre che per ogni A tale che x, y ∈ A, y 6∈ c(A). Supponiamo per assurdo che y ∈ c(A). Detto B = {x, y} e y ∈ c(A), ne segue che deve essere y ∈ c(B). Cosı̀ y ∈ c({x, y}). Contro l’ipotesi fatta. Non credo sia il caso di spendere troppe parole: l’utilità di questo teorema dovrebbe essere evidente. Vediamo ora di dimostrare che Âc è asimmetrica e negativamente transitiva. Grazie al teorema, la asimmetria è ovvia. Dimostriamo che è negativamente transitiva. Supponiamo x Âc y. Dobbiamo garantire che vale x Âc z ∨ z Âc y ∀z ∈ X. Per definizione, essendo x ∈ A, non può essere y ∈ c(A). Allora c(A) ⊆ {x, z}. Vediamo i tre casi possibili: I) c({x, y, z}) = {x}. Consideriamo A = {x, y, z} e B = {x, z}. Se fosse z ∈ c(B), si avrebbe (per Houthakker): x ∈ c(A) e z ∈ c(B) e quindi z ∈ c(A). Falso. Allora z 6∈ c(B). Quindi c(B) = {x}. E pertanto (grazie al teorema) x Âc z. II) c({x, y, z}) = {z}. Consideriamo A = {x, y, z} e B = {y, z}. Se fosse y ∈ c(B), si avrebbe (per Houthakker): z ∈ c(A) e y ∈ c(B) e quindi y ∈ c(A). Falso. Allora y 6∈ c(B). Quindi c(B) = {z}. E pertanto (grazie al teorema) z Âc y. III) c({x, y, z}) = {x, z}. Consideriamo A = {x, y, z} e B = {y, z}. Se fosse y ∈ c(B), si avrebbe (per Houthakker): z ∈ c(A) e y ∈ c(B) e quindi y ∈ c(A). Falso. Allora y 6∈ c(B). Quindi c(B) = {z}. E pertanto (grazie al teorema) z Âc y. Quindi abbiamo che c induce una relazione Âc che è asimmetrica e negativamente transitiva. 4 Ricordo che da una relazione  asimmetrica e negativamente transitiva, possiamo definire(*) una choice function c cosı̀: c (A) = {x ∈ A : 6 ∃ y ∈ A t.c. y  x}. (*) Ovviamente la choice function la possiamo definire per una qualsiasi relazione p su X. Ma la asimmetria e la negativa transitività ci assicurano che la choice function abbia proprietà ragionevoli (in particolare la 1) e 2)). Purché X sia finito. Esempio 3.3 Se X è un insieme finito e  è asimmetrica e negativamente transitiva, dimostrare che c è avalori non vuoti e che soddisfa le condizioni di Hauthakker. A questo punto sarebbe interessante dimostrare che: cÂc = c !! E che Âc = Â. Esempio 3.4 Dimostrare che cÂc = c e che Âc = Â. (Suggerimento: cÂc (A) = {x ∈ A : 6 ∃ y ∈ A t.c. y Âc x}. Allora: cÂc (A) = {x ∈ A : ∀y ∈ A, [c({x, y}) = {x} ∨ c({x, y}) = {x, y}]}...). Esempio 3.5 Perché, data c, non è saggio definire Âc nel modo seguente? x Âc y ⇔ ∀A ⊆ Xt.c. x, y ∈ A, x ∈ c(A) e y 6∈ c(A). Esempio 3.6 E perché non è saggio neppure questo? x Âc y ⇔ ∀A ⊆ Xt.c. x, y ∈ A, x ∈ c(A) ⇒ y 6∈ c(A). Un approccio analogo, ma non identico, lo si può trovare su Fishburn (esercizio 14, pag. 24). Il lettore particolarmente interessato potrebbe fare il confronto tra i due metodi. Visto che l’esercizio di Fishburn fa riferimento ad un lavoro di Arrow, può essere utile consultare: Arrow, Kenneth J. : “Rational choice function and orderings”, Economica, vol. 26, pp. 121-127, 1959. 4 Risky - uncertain. C’è una distinzione fondamentale che riguarda le decisioni in condizioni di incertezza. Ovvero le decisioni per le quali la scelta di una tra le alternative possibili non dà luogo ad una conseguenza certa. Ci sono casi in cui la conseguenza non è certa, ma è almeno certa la distribuzione di probabilità sulle conseguenze. (Es: gioco del lotto, lancio di dadi). Si parla di decisioni risky (under risk). Altri casi in cui non si ha tale distribuzione di probabilità (totocalcio, corse di cavalli): qui si parla di uncertainty. Per prima cosa ci occupiamo di problemi di decisioni “risky”. 5 5 Modello per trattare decisioni “risky” e preferenze connesse. Osserviamo preliminarmente come nell’ambito delle decisioni in condizioni di certezza abbiamo identificato l’insieme delle azioni possibili per il decisore con quello delle conseguenze per il decisore. D’altronde, per la situazione di certezza ammessa, non fa molta differenza scegliere tra le azioni o tra le conseguenze. Qui (e ancora più dopo, per uncertain) ci conviene distinguere. Ma la distinzione precisa la faremo dopo. Mi limito ad osservare che ora considereremo un insieme X che è naturale interpretare come l’insieme delle “conseguenze”. (NOTA BENE: c’è dietro un’assunzione: “consequentialism”). Naturalmente se io scelgo una data azione, quello che ne viene fuori non è una specifica conseguenza. Ma una nota distribuzione di probabilità sulle conseguenze. Esempio 5.1 Se punto 10.000£ sul 71 sulla ruota di Cagliari (ambata) quello che ottengo è: 17 1 con probabilità 18 perdo 10.000£, con probabilità 18 guadagno 105.000£ (o 95.000£: non ricordo bene le regole del lotto, che paga 10, 5 volte la posta per un’ambata). Morale: abbiamo un insieme X e però quello che sarà oggetto delle preferenze del decisore è P , insieme di distribuzione di probabilità su X. Tecnicamente, assumeremo che P sia l’insieme delle distribuzioni di probabilità semplici (cioè a supporto finito) su X. Cioè: Definizione 5.1 p ∈ P ⇔ spt(p) [support(p)] tale che -∀ Px̂ ∈ spt(p) ∃ p(x̂) > 0. - x∈spt(p) p(x) = 1 ∃ sottoinsieme finito di X, indicato come Si noti che questo definisce effettivamente una misura di probabilità su X. Anzi, su P(X). P Per E ⊆ X, basta porre p(E) = x∈E∩spt(p) p(x). Si noti che usiamo addirittura lo stesso simbolo p... Noi metteremo le preferenze (º) su P . Gli elementi di P li chiameremo anche “lotterie”. Osservazione 5.1 Lo spazio P ha una struttura particolare! Non è più un “insieme qualsiasi” come era per le decisioni in condizioni di certezza. Anche qui, sull’insieme di partenza X non imponiamo alcuna restrizione. Ma l’insieme P , “costruito” su X, è invece sempre [isomorfo a] un sottoinsieme convesso di uno spazio vettoriale . ˆ Ha infatti senso fare, ad esempio: 13 p̂ + 23 p̂. Non potremo ignorare questa struttura! 6 Osservazione 5.2 Occorre stare attenti alle ipotesi nascoste, ogni qual volta si fa un modello, o ci si sente raccontare un modello. Qui per esempio ignoriamo il problema delle lotterie composte. Cosa che invece è ben presente nell’approccio che si può trovare su Luce e Raiffa. 7