1
Unicità della funzione d’utilità che rappresenta
¹.
Ovviamente non è unica.
Basta pensare a f (x) = x e g(x) = x3 che entrambe rappresentano ≤ su R.
Si può dimostrare che:
Teorema 1.1 Date f, g : X −→ R, f e g rappresentano lo stesso ¹
se e solo se ∃ ϕ : f (X) −→ g(X) tale che g = ϕ ◦ f . (vedi figura sotto)
Dimostrazione.
⇐ ) è ovvia.
⇒ ) Sia t ∈ f (x). Dobbiamo definire ϕ(t). Consideriamo x ∈ f −1 (t).
E definiamo ϕ(t) = g(f −1 (t)). La verifica del fatto che questa è una buona
definizione e più in generale della tesi del teorema sono standard.
Esercizio 1.1 Fare la dimostrazione di ⇐ ) e dimostrare tutti i dettagli
omessi nella dimostrazione di ⇒ ).
2
Rappresentazione di º con t su R2≥ .
Se (x1 , x2 ) = (t, t), ovvia l’∃, e l’unicità dipende dalla ipotesi di forte monotonia.
1
Altrimenti abbiamo t1 e t2 come in figura, con t1 < t2 e con
(t1 , t1 ) ≺ (x1 , x2 ) ≺ (t2 , t2 ).
Con bisezione otteniamo t1n , t2n (tipo teorema degli zeri), con
(t1n , t2n ) ≺ (x1n , x2n ) ≺ (t2n , t2n ). E con t1n , t2n −→ t.
Per continuità: (t, t) ¹ (x1n , x2n ) ¹ (t, t).
Che t sia unico, già l’abbiamo detto.
Continuità.
Prendiamo xn −→ x̄. Dimostrare che tn −→ t̄.
Dove t̄ è l’unico elemento della diagonale tale che x̄ ∼ t̄. Osserviamo che tn
sta definitivamente nel quadrato di lato max{x̄1 + ², x̄2 + ²}.
Allora per compattezza ∃ estratta tkn −→ t̂. Dimostrare che t̂ = t̄.
Per assurdo. Supponiamo, per esempio, che t̂ > t̄. Allora t̂ ≺ t̄.
Allora tn º (t̄+2 t̂) Â t̄ ∼ x̂. (definitivamente).
Allora xn º (t̄+2 t̂) . Per continuità abbiamo che x̄ º (t̄+2 t̂) Â t̄ ∼ x̂. Assurdo.
Abbiamo quindi che t̄ = t̂. E che tutta la successione converge e non solo
una estratta.
2
3
Choice Function, preordine totale: equivalenza
degli approcci (Houthakker).
Ricordo che una choice function (su X) è:
c : P (X) −→ P(X) tale che c(A) ⊆ A ∀A ∈ P (X).
Imponiamo che c soddisfi le seguenti due condizioni:
1) c(A) 6= ∅ ∀A ∈ P (X).
2) [Houthakker]: ∀x, y ∈ A ∩ B:
([x ∈ c(A) e y ∈ c(B)] ⇒ [x ∈ c(B) e y ∈ c(A)]).
Una prima, importante conseguenza della condizione 2) è che le preferenze
di un individuo, deducibili a partire dalle scelte che effetua, sono determinate dalle sue scelte su insiemi contenenti solo due elementi.
Vediamo in dettaglio e formalmente questo fatto.
Cominciamo col definire le preferenze “dedotte” da c.
Definizione 3.1 Data c : P (X) −→ P(X), choice function, definiamo:
x Âc y : ⇔ [∀A ⊆ X t.c. x, y ∈ A, y 6∈ c(A)].
Si noti che, senza supporre alcuna restrizione sulla choice function, la relazione che otteniamo può essere molto “irregolare”.
Esempio 3.1 Sia X = {1, 2, 3} e sia c(A) = ∅ ∀A ∈ P (X).
Allora x Âc y sempre, qualunque siano x, y ∈ X.
In particolare, x Âc x ∀x ∈ X.
Ovviamente la stranezza è dovuta al fatto che, essendo c a valori vuoti, le
premesse nella implicazione che è nella definizione non è mai vera. E quindi
l’implicazione lo è....
Esempio 3.2 Sia X = {1, 2, 3} e sia c({x}) = {x} ∀x ∈ X;
c({1, 2}) = {1}, c({2, 3}) = {2}, c({3, 1}) = {3}; c(X) = ∅.
Allora è 1 Âc 2, 2 Âc 3, 3 Âc 1. Una vecchia conoscenza, non transitiva...
3
Se invece assumiamo che valgano le condizioni 1), 2), abbiamo tanto per
cominciare il seguente risultato (molto importante!):
Teorema 3.1 Dato X ed una choice function c soddisfacente 1), 2) si ha
che :
x Âc y ⇔ c({x, y}) = {x}.
Dimostrazione.
⇒ ) Visto che c({x, y}) 6= ∅, e visto che y 6∈ c(A) (in quanto x ∈ c(A)),
c’è poca scelta...
⇐ ) Supponiamo di sapere che c({x, y}) = {x}. E cerchiamo di dedurre
che per ogni A tale che x, y ∈ A, y 6∈ c(A). Supponiamo per assurdo che
y ∈ c(A).
Detto B = {x, y} e y ∈ c(A), ne segue che deve essere y ∈ c(B).
Cosı̀ y ∈ c({x, y}). Contro l’ipotesi fatta.
Non credo sia il caso di spendere troppe parole: l’utilità di questo teorema
dovrebbe essere evidente.
Vediamo ora di dimostrare che Âc è asimmetrica e negativamente transitiva.
Grazie al teorema, la asimmetria è ovvia.
Dimostriamo che è negativamente transitiva. Supponiamo x Âc y.
Dobbiamo garantire che vale x Âc z ∨ z Âc y ∀z ∈ X.
Per definizione, essendo x ∈ A, non può essere y ∈ c(A).
Allora c(A) ⊆ {x, z}. Vediamo i tre casi possibili:
I) c({x, y, z}) = {x}.
Consideriamo A = {x, y, z} e B = {x, z}.
Se fosse z ∈ c(B), si avrebbe (per Houthakker):
x ∈ c(A) e z ∈ c(B) e quindi z ∈ c(A). Falso.
Allora z 6∈ c(B). Quindi c(B) = {x}. E pertanto (grazie al teorema) x Âc z.
II) c({x, y, z}) = {z}.
Consideriamo A = {x, y, z} e B = {y, z}.
Se fosse y ∈ c(B), si avrebbe (per Houthakker):
z ∈ c(A) e y ∈ c(B) e quindi y ∈ c(A). Falso.
Allora y 6∈ c(B). Quindi c(B) = {z}. E pertanto (grazie al teorema) z Âc y.
III) c({x, y, z}) = {x, z}.
Consideriamo A = {x, y, z} e B = {y, z}.
Se fosse y ∈ c(B), si avrebbe (per Houthakker):
z ∈ c(A) e y ∈ c(B) e quindi y ∈ c(A). Falso.
Allora y 6∈ c(B). Quindi c(B) = {z}. E pertanto (grazie al teorema) z Âc y.
Quindi abbiamo che c induce una relazione Âc che è asimmetrica e
negativamente transitiva.
4
Ricordo che da una relazione  asimmetrica e negativamente transitiva, possiamo definire(*) una choice function c cosı̀:
c (A) = {x ∈ A : 6 ∃ y ∈ A t.c. y  x}.
(*) Ovviamente la choice function la possiamo definire per una qualsiasi
relazione p su X. Ma la asimmetria e la negativa transitività ci assicurano
che la choice function abbia proprietà ragionevoli (in particolare la 1) e 2)).
Purché X sia finito.
Esempio 3.3 Se X è un insieme finito e  è asimmetrica e negativamente
transitiva, dimostrare che c è avalori non vuoti e che soddisfa le condizioni
di Hauthakker.
A questo punto sarebbe interessante dimostrare che:
cÂc = c !! E che Âc = Â.
Esempio 3.4 Dimostrare che cÂc = c e che Âc = Â.
(Suggerimento: cÂc (A) = {x ∈ A : 6 ∃ y ∈ A t.c. y Âc x}. Allora:
cÂc (A) = {x ∈ A : ∀y ∈ A, [c({x, y}) = {x} ∨ c({x, y}) = {x, y}]}...).
Esempio 3.5 Perché, data c, non è saggio definire Âc nel modo seguente?
x Âc y ⇔ ∀A ⊆ Xt.c. x, y ∈ A, x ∈ c(A) e y 6∈ c(A).
Esempio 3.6 E perché non è saggio neppure questo?
x Âc y ⇔ ∀A ⊆ Xt.c. x, y ∈ A, x ∈ c(A) ⇒ y 6∈ c(A).
Un approccio analogo, ma non identico, lo si può trovare su Fishburn
(esercizio 14, pag. 24). Il lettore particolarmente interessato potrebbe fare
il confronto tra i due metodi. Visto che l’esercizio di Fishburn fa riferimento
ad un lavoro di Arrow, può essere utile consultare:
Arrow, Kenneth J. : “Rational choice function and orderings”, Economica,
vol. 26, pp. 121-127, 1959.
4
Risky - uncertain.
C’è una distinzione fondamentale che riguarda le decisioni in condizioni di
incertezza.
Ovvero le decisioni per le quali la scelta di una tra le alternative possibili
non dà luogo ad una conseguenza certa.
Ci sono casi in cui la conseguenza non è certa, ma è almeno certa la distribuzione di probabilità sulle conseguenze. (Es: gioco del lotto, lancio di dadi).
Si parla di decisioni risky (under risk).
Altri casi in cui non si ha tale distribuzione di probabilità (totocalcio, corse
di cavalli): qui si parla di uncertainty.
Per prima cosa ci occupiamo di problemi di decisioni “risky”.
5
5
Modello per trattare decisioni “risky” e
preferenze connesse.
Osserviamo preliminarmente come nell’ambito delle decisioni in condizioni
di certezza abbiamo identificato l’insieme delle azioni possibili per il decisore
con quello delle conseguenze per il decisore.
D’altronde, per la situazione di certezza ammessa, non fa molta differenza
scegliere tra le azioni o tra le conseguenze.
Qui (e ancora più dopo, per uncertain) ci conviene distinguere. Ma la distinzione precisa la faremo dopo. Mi limito ad osservare che ora considereremo
un insieme X che è naturale interpretare come l’insieme delle “conseguenze”.
(NOTA BENE: c’è dietro un’assunzione: “consequentialism”).
Naturalmente se io scelgo una data azione, quello che ne viene fuori non è
una specifica conseguenza. Ma una nota distribuzione di probabilità sulle
conseguenze.
Esempio 5.1 Se punto 10.000£ sul 71 sulla ruota di Cagliari (ambata)
quello che ottengo è:
17
1
con probabilità 18
perdo 10.000£, con probabilità 18
guadagno 105.000£ (o
95.000£: non ricordo bene le regole del lotto, che paga 10, 5 volte la posta
per un’ambata).
Morale: abbiamo un insieme X e però quello che sarà oggetto delle preferenze
del decisore è P , insieme di distribuzione di probabilità su X.
Tecnicamente, assumeremo che P sia l’insieme delle distribuzioni di probabilità semplici (cioè a supporto finito) su X. Cioè:
Definizione 5.1 p ∈ P ⇔
spt(p) [support(p)] tale che
-∀
Px̂ ∈ spt(p) ∃ p(x̂) > 0.
- x∈spt(p) p(x) = 1
∃ sottoinsieme finito di X, indicato come
Si noti che questo definisce effettivamente una misura di probabilità su X.
Anzi, su P(X).
P
Per E ⊆ X, basta porre p(E) = x∈E∩spt(p) p(x).
Si noti che usiamo addirittura lo stesso simbolo p...
Noi metteremo le preferenze (º) su P . Gli elementi di P li chiameremo
anche “lotterie”.
Osservazione 5.1 Lo spazio P ha una struttura particolare! Non è più un
“insieme qualsiasi” come era per le decisioni in condizioni di certezza. Anche qui, sull’insieme di partenza X non imponiamo alcuna restrizione. Ma
l’insieme P , “costruito” su X, è invece sempre [isomorfo a] un sottoinsieme
convesso di uno spazio vettoriale .
ˆ
Ha infatti senso fare, ad esempio: 13 p̂ + 23 p̂.
Non potremo ignorare questa struttura!
6
Osservazione 5.2 Occorre stare attenti alle ipotesi nascoste, ogni qual volta si fa un modello, o ci si sente raccontare un modello. Qui per esempio
ignoriamo il problema delle lotterie composte. Cosa che invece è ben presente
nell’approccio che si può trovare su Luce e Raiffa.
7
Scarica

1 Unicit`a della funzione d`utilit`a che rappresenta ≼. 2