Uniwersytet Warszawski

Uniwersytet Warszawski

Instytut Studiów Społecznych

Wydział Psychologii

Katarzyna Idzikowska

ZNIEKSZTAŁCANIE PRAWDOPODOBIEŃSTW W DECYZJACH Z RYZYKIEM

Rozprawa doktorska napisana pod kierunkiem Prof. dr hab. Tadeusza Tyszki

Warszawa 2013

2

Składam serdeczne podziękowania Profesorowi Tadeuszowi Tyszce za nieocenioną pomoc merytoryczną, wsparcie i wykazaną cierpliwość na każdym etapie tworzenia tej pracy. Dziękuję również osobom, które pomogły mi w realizacji badań: Robertowi Borowskiemu, Tomaszowi Kopczewskiemu, Elżbiecie Kubińskiej oraz Przemysławowi Kusztelakowi. Sabinie Kołodziej oraz Arturowi Domuratowi składam podziękowania za cenne uwagi metodologiczne oraz edytorskie. W szczególności chciałabym podziękować Pawłowi za wsparcie duchowe i spokój. Teresie i Jerzemu oraz Elizie i Józefowi za pomoc udzieloną na ostatnim etapie pisania pracy, bez której trudno byłoby mi skończyć.

3

SPIS TREŚCI Streszczenie ........................................................................................................................................5 WPROWADZENIE TEORETYCZNE .............................................................................................7 1. Decyzje w warunkach ryzyka: problem i jego krótka historia .......................................................7 2. Spór o interpretację prawdopodobieństwa: interpretacja częstościowa vs subiektywna ..............15 3. Percepcja częstości .......................................................................................................................35 3.1. Zniekształcanie prawdopodobieństwa w percepcji: prawdopodobieństwo obiektywne vs. subiektywne oceny .......................................................................................................................35 3.2. Formaty prawdopodobieństwa i zniekształcanie prawdopodobieństwa ................................36 4. Wagi prawdopodobieństwa w decyzjach ryzykownych ...............................................................47 4.1. Dwa formaty prawdopodobieństwa .......................................................................................57 CZĘŚĆ EMPIRYCZNA ..................................................................................................................67 5. Cel badań własnych.......................................................................................................................67 5.1. Zawyżanie niskich prawdopodobieństw: jedno, czy dwa zjawiska? .....................................67 5.2. Zawyżanie niskich prawdopodobieństw a format informacji o prawdopodobieństwie ........68 5.3. Główne pytania badawcze i hipotezy .....................................................................................69 6. Ogólna metoda badań własnych ...................................................................................................72 6.1. Osoby badane ........................................................................................................................72 6.2. Materiały i procedura ............................................................................................................73 6.2.1. Loterie ............................................................................................................................73 6.2.2. Formaty prawdopodobieństwa .......................................................................................73 6.2.3. Pomiar subiektywnej oceny prawdopodobieństwa (zadanie 1) ......................................74 6.2.4. Pomiar ekwiwalentu pewnego (zadanie 2) .....................................................................75 6.3. Ogólna metoda analizy danych ..............................................................................................76 7. Opis eksperymentów oraz analiza wyników ................................................................................77 7.1. Eksperyment 1 .......................................................................................................................77 7.1.1. Metoda .......................................................................................................................77 7.1.2. Wyniki .......................................................................................................................80 7.1.3. Podsumowanie ...........................................................................................................90 7.2. Eksperyment 2 .......................................................................................................................91 7.2.1. Metoda .......................................................................................................................91 7.2.2. Wyniki .......................................................................................................................95 7.2.3. Podsumowanie .........................................................................................................110 7.3. Eksperyment 3 .....................................................................................................................111 7.3.1. Metoda .....................................................................................................................112 7.3.2. Wyniki .....................................................................................................................114 7.3.3. Podsumowanie .........................................................................................................124

4 8. Dyskusja wyników .....................................................................................................................126 8.1. Zniekształcanie prawdopodobieństwa w percepcji – znaczenie sposobu prezentacji informacji o prawdopodobieństwie ............................................................................................127 8.2. Co dzieje się z prawdopodobieństwem, kiedy jest ono wykorzystywane jako waga w sytuacji wyboru z ryzykiem? ......................................................................................................129 8.3. Zniekształcanie prawdopodobieństwa na poziomie percepcji i na poziomie zachowania (wyborów) ..................................................................................................................................134 8.4. Zakończenie ........................................................................................................................138 BIBLIOGRAFIA.............................................................................................................................140 ZAŁĄCZNIKI ................................................................................................................................148 Załącznik 1. Formaty prawdopodobieństwa – przykładowe prezentacje loterii w grupie z opisowym i doświadczeniowym formatem prawdopodobieństwa ..............................................148 Załącznik 2. Medialne wartości ekwiwalentów pewnych otrzymane w eksperymentach 1-3 ....149

5 Streszczenie Celem obecnej pracy była próba jasnego rozróżnienia między percepcją prawdopodobieństwa i wykorzystywaniem prawdopodobieństwa jako wagi przy podejmowaniu decyzji w warunkach ryzyka. Oba te zjawiska były od dawna przedmiotem badań w ramach behawioralnej teorii decyzji. Zjawiska te badano jednak oddzielnie, a niekiedy nawet nie były one starannie różnicowane. Najpierw więc praca zawiera rygorystyczny wykład licznych pojęć, jakie pojawiły się w literaturze na temat prawdopodobieństwa i jego roli w podejmowaniu decyzji. W części empirycznej pracy przedstawiono rezultaty badań nad zniekształcaniem prawdopodobieństwa. Zniekształcanie to badane było na dwóch poziomach (i) w percepcji (wyrażone w subiektywnych ocenach) oraz (ii) w wyborach (wyrażone w funkcji wag decyzyjnych). Sprawdzono jak oba rodzaje zniekształceń – percepcyjne i zniekształcanie w wagach – zależą od sposobu prezentacji informacji o prawdopodobieństwie. Wyróżnione zostały dwa formaty prezentowania prawdopodobieństwa: liczbowy i doświadczeniowy Przeprowadzone badania potwierdziły hipotezę pierwszą o mniejszym percepcyjnym zniekształcaniu obiektywnego prawdopodobieństwa wtedy, gdy informacja o rozkładzie wypłat jest prezentowana badanemu za pomocą formatu doświadczeniowego niż wtedy, gdy informację tę otrzymuje on z opisu. Nie potwierdzono natomiast hipotezy drugiej o mniejszym zniekształcaniu obiektywnego prawdopodobieństwa w funkcji wag decyzyjnych, kiedy zastosujemy doświadczeniowy format prawdopodobieństwa. Zamiast tego ujawniła się nieoczekiwana różnica w stosunku do ryzyka w grupie z opisem i z doświadczeniem. W grupie z doświadczeniem osoby badane były bardziej niechętne wobec ryzyka niż w grupie z opisem. Różnica ta wydaje się wynikać z tego, że przy formacie doświadczeniowym

6 prawdopodobieństwa decydent nadaje mniejsze wagi w całym zakresie prawdopodobieństw. Wreszcie potwierdziła się hipoteza trzecia: funkcja wag decyzyjnych jest bardziej liniowa kiedy uwzględnione są subiektywne oceny prawdopodobieństwa niż wówczas kiedy uwzględnione są tylko jego obiektywne wartości. Oznacza to, że zniekształcanie prawdopodobieństw w funkcji wag decyzyjnych jest częściowo wynikiem zniekształcania w percepcji. Wynik ten jest całkiem nowy w literaturze tematu.

7 WPROWADZENIE TEORETYCZNE

1. Decyzje w warunkach ryzyka: problem i jego krótka historia

Zanim zacznę omawiać problem podejmowania decyzji w warunkach ryzyka przytoczę powszechną klasyfikację decyzji w ogóle. Decyzje można podzielić na trzy kategorie: w warunkach pewności, ryzyka i niepewności. O decyzjach w warunkach pewności mówi się wówczas, gdy osoba dokonuje wyboru jednego z dostępnych działań (opcji), których skutki są jasno określone, tzn. znane są dokładnie wyniki tego działania. Przykładem takich decyzji są wybory konsumenckie. Załóżmy, że osoba zastanawia się nad kilkoma ofertami operatorów telefonii komórkowej. Jeżeli przy wyborze ważne są dla tej osoby tylko wysokość abonamentu i okres trwania umowy, to wie dokładnie co otrzyma przy wyborze danej oferty. Będzie działała zatem w warunkach pewności. O decyzjach w warunkach niepewności mówi się wówczas, gdy rozpatrywane działania prowadzą do zbioru możliwych wyników, ale nic nie wiadomo o tym, który wynik się pojawi i ponadto nie można nic powiedzieć o jego prawdopodobieństwie. Z takimi sytuacjami spotykają się niejednokrotnie menadżerowie decydujący o różnych działaniach w firmie. Przykładowo menadżer, podejmując decyzje o wprowadzeniu nowego produktu na rynek, wie jakie koszty poniesie. Wielkość zysku natomiast może być uzależniona np. od wprowadzenia, bądź nie, podobnego produktu na rynek przez konkurencję. Podczas, gdy menadżer jest w stanie oszacować zyski w zależności od zrealizowania się jednego ze scenariuszy, to jednocześnie może nie być w stanie powiedzieć czegokolwiek o ich prawdopodobieństwie. Działa wówczas w warunkach niepewności.

8 Pośrodku omawianej klasyfikacji znajdują się decyzje w warunkach ryzyka. Tu, w przeciwieństwie do warunków niepewności, znane są prawdopodobieństwa pojawienia się każdego możliwego wyniku działania. Klasycznym przykładem jest decyzja o kupnie zakładu Lotto, w którym osoba skreślając „szóstkę” wie nie tylko ile może wygrać, ale i z jakim prawdopodobieństwem. Decyzje w warunkach ryzyka są więc pewnego rodzaju ulepszeniem sytuacji niepewności. Za najbardziej modelowy przykład decyzji ryzykownych przyjmuje się wszelkiego rodzaju gry hazardowe. Stały się one nawet motywem rozważań nad wyborami w warunkach ryzyka. Miało to początki w roku 1654, kiedy notoryczny hazardzista i lew salonowy Chevalier de Me´re´ poprosił swego znajomego, francuskiego matematyka, Blaise Pascala o pomoc w rozwikłaniu kilku zagadnień związanych z grami. Pascal wymieniał na ten temat listy z drugim znanym francuskim matematykiem, Pierre Fermatem. Wkrótce wymiana ta zaowocowała koncepcją matematycznego oczekiwania, które w tym czasie zostało uznane za naturę racjonalnego wyboru (Hacking, 1975/2006). Pascal sformułował pierwszą zasadę wyboru w warunkach ryzyka, tzw. zasadę maksymalizacji oczekiwanej wartości (ang. expected value, w skrócie EV). Zgodnie z tym kryterium decydent powinien wybrać zawsze tę opcję, której wartość oczekiwana jest największa (inaczej można powiedzieć, że taką, której średnio spodziewany wynik jest najlepszy). Jeżeli oznaczy się przez opcję ryzykowną (nazywaną wymiennie w pracy loterią lub grą): n

L= (x1 , p1 ;K; x i , pi ;K; x n , pn ) , gdzie

∑p i =1

i

=1

(tj. loteria, która każdemu możliwemu wynikowi (wypłacie) xi przypisuje prawdopodobieństwo pi jego uzyskania), wówczas można zapisać formułę oczekiwanej wartości jako:

9 n

EV = ∑ pi xi . i =1

Ocena zatem opcji ryzykownej (loterii) poprzez wartość oczekiwaną polega na przypisaniu średniej z wypłat ważonych ich prawdopodobieństwami. Powyższa zasada spotkała się w niedługim czasie z krytyką w postaci tzw. paradoksu Petersburskiego, który dotyczył następującej gry (Samuelson, 1977): Gra polega na rzucie symetryczną monetą (powiedzmy polską „złotówką”) tak długo, aż wypadnie reszka. Jeżeli reszka wypadnie po raz pierwszy w n-tym rzucie, wówczas gracz dostaje nagrodę równą 2n złotych. Ile będzie chciał zapłacić potencjalny uczestnik za udział w takiej grze? Wartość oczekiwana powyższej gry wynosi: EV =

1 1 1 1 ⋅ 2 + 2 ⋅ 2 2 + 3 ⋅ 23 + 4 ⋅ 2 4 + K = 1 + 1 + 1 + 1 + K = ∞ . 2 2 2 2

Okazuje się, że gdy ludziom proponuje się taką grę o oczekiwanej wartości dążącej do nieskończoności, to skłonni są zapłacić za udział w niej jedynie niewielką sumę pieniędzy1. Zgodnie z zasadą maksymalizacji oczekiwanej wartości gracz przystępujący do tej gry powinien być skłonny zapłacić dowolnie dużą sumę np. całe swoje posiadane bogactwo i jeszcze przyszłe dochody. Dlaczego więc nikt rozsądny nie postawiłby całego swojego majątku na taką grę? Rozwiązaniem tego paradoksu zajął się m.in. Daniel Bernoulli (1738/1954). W swoich przemyśleniach doszedł do wniosku, że ludzie nie stosują się do zasady maksymalizacji oczekiwanej wartości, ponieważ nie kierują się obiektywną, a subiektywną miarą wartości, tzw. użytecznością. Bernoulli zdefiniował użyteczność jako rosnącą funkcję bogactwa, która charakteryzuje się własnością malejącej krańcowej wrażliwości.

1

Wielokrotnie zadawałam to pytanie swoim studentom i nigdy kwota nie przekraczała 10 zł. Otrzymywałam średnio propozycję 2 zł.

10 Oznacza to, że użyteczność z kolejnego przyrostu bogactwa jest coraz mniejsza. Bernoulli zastąpił zatem obiektywną wartość wyników gry w formule oczekiwanej wartości ich subiektywną użytecznością. Zaproponował zasadę maksymalizacji oczekiwanej użyteczności, która stała się podstawą dla modeli racjonalnego wyboru w warunkach ryzyka (i niepewności). Koncepcja ta (zapomniana na prawie dwa stulecia) doczekała się rozwinięcia dopiero w roku 1944, za sprawą von Neumanna i Morgensterna, w postaci teorii oczekiwanej użyteczności (1944/1990). Teoria ta, podobnie do tego co zaproponował Bernoulli, dopuszcza subiektywne traktowanie wypłat loterii, ale wymaga dodatkowo od decydenta spełniania zasad racjonalnych preferencji. Relacje preferencji określane są na zbiorze dostępnych opcji wyboru L i zawsze mają charakter binarny, tzn. porównują dwie alternatywy naraz. Weźmy dwie opcje L1 i L2 należące do zbioru L. Jeżeli opcja L1 jest przynajmniej tak samo pożądana jak opcja L2, wówczas zachodzi słaba relacja preferencji i formalnie oznacza się ją przez L1 ≽ L2. Z relacji tej wynikają dwie pozostałe: silna tj. kiedy opcja L1 jest lepsza od L2 (ozn. L1 ≻ L2) i obojętności tj. kiedy opcja L1 jest tak samo dobra jak opcja L2 (ozn. L1 ~ L2). W teorii oczekiwanej użyteczności poszukuje się takiej funkcji użyteczności U o wartościach należących do liczb rzeczywistych i zdefiniowanej na zbiorze dostępnych opcji L, która będzie reprezentowała preferencje decydenta (a funkcja U reprezentuje relację preferencji jeżeli U(L1) ≥ U(L2) wtedy i tylko wtedy, gdy L1 ≽ L2 dla dowolnych dwóch opcji L1, L2 ∈ L). Aby móc określić taką funkcję von Neumann i Morgenstern przyjęli kilka postulatów, które zdefiniowali jako warunki racjonalnych preferencji. Wymienię tylko cztery podstawowe, a są to:

11 (i) Aksjomat kompletności, który wymaga, by decydent był w stanie określić swoje preferencje między dwiema dowolnymi loteriami L1, L2 ∈ L,, tj. decydent powinien albo słabo preferować loterię L1 względem L2 lub na odwrót, ewentualnie może być między nimi obojętny. Przykładowo, będzie potrafił wyrazić swoje preferencje wobec pary alternatyw: L1: wypłata 200 zł z pewnością; L2: wziąć udział w grze, w której wygrywa się 1000 zł, gdy wypadnie „szóstka” w rzucie kostką lub traci 50 zł, gdy wypadnie pozostała liczba oczek. (ii) Aksjomat przechodniości, który zapewnia zachowanie porządku relacji preferencji w taki sposób, że jeżeli L1 ≽ L2 i L2 ≽ L3,wówczas L1 ≽ L3 dla każdego L1, L2, L3 ∈ L (oczywiście to samo dotyczy dwóch pozostałych relacji preferencji tj. silnej ≻ i obojętności ~). Przykładowo weźmy trzy loterie: L1: wypłata 100 zł z pewnością; L2: wygrana w wysokości 300 zł, gdy wypadnie „szóstka” w rzucie kostką lub brak wygranej, gdy wypadnie pozostała liczba oczek; L3: wygrana w wysokości 1000 zł, gdy wypadnie „szóstka” w rzucie kostką lub utrata 50 zł, gdy wypadnie pozostała liczba oczek. Jeżeli osoba stojąca przed możliwością wyboru między alternatywami L1 nad L2 woli opcję L1, a gdy otrzyma wybór między L2 nad L3, preferuje L2, to zgodnie z postulatem przechodniości, postawiona przed wyborem L1 i L3 powinna wybrać L1. (iii) Aksjomat ciągłości mówi, że dla każdej trójki opcji L1, L2, L3 ∈ L takich, że L1 ≽ L2 ≽ L3, istnieje prawdopodobieństwo p ∈ (0, 1) takie, że opcja L2 jest w tym samym stopniu preferowana co opcja (L1, p; L3, 1 – p). Zilustrujmy aksjomat ten następującym przykładem: przypuśćmy, że opcje L1, L2 i L3 wypłacają odpowiednio pewne 100 zł, 50zł i

12 0 zł. Oczywiście zapewne każdy będzie wolał 100 zł od 50 zł, a te od 0zł. Można przypuszczać, że jeżeli mamy p1 wystarczająco bliskie jedności to loteria (L1, p1; L3, 1-p1), która wypłaca prawie pewne 100 zł będzie nadal preferowana względem L2 (czyli od pewnych 50 zł). Weźmy teraz sytuację przeciwną i p2 bliskie zera, wówczas loteria postaci (L1, p2; L3, 1-p2) prawie na pewno wypłaci nam 0 zł i będzie mniej pożądana od L2 (od pewnych 50 zł). Jeżeli zatem istnieje p1 takie, że (L1, p1; L3, 1-p1) ≻ L2 i jednocześnie p2 takie, że L2 ≻ (L1, p1; L3, 1-p1), to zgodnie z aksjomatem ciągłości, musi istnieć takie p gdzieś między p1 i p2, że relacja między L2

(L1, p; L3, 1 – p) stanie się obojętna tj. L2 ~

(L1, p; L3, 1 – p). (iv) Aksjomat niezależności (nazywany też warunkiem podstawialności lub substytucji) mówi, że jeżeli decydent woli loterię L1 od loterii L2, to preferencja ta nie powinna się zmienić pod wpływem jakiejkolwiek liniowej kombinacji tych dwóch loterii z dowolną trzecią L3. Formalnie można to zapisać następująco: jeżeli weźmiemy dowolne opcje L1, L2, L3 ∈ L, wówczas L1 ≽ L2 wtedy i tylko wtedy, gdy (L1, p; L3, 1 – p) ≽ (L2, p; L3, 1 – p) dla każdego p∈ (0, 1). Przykładowo weźmy loterię L1, w której z prawdopodobieństwem ½ wygrywa się wycieczkę na Dominikanę oraz loterię L2, w której z prawdopodobieństwem ½ wygrywa się wycieczkę do Egiptu. Przypuśćmy, że osoba wolałaby pojechać na Dominikanę niż do Egiptu i tym samym wziąć udział w loterii L1 zamiast L2. Weźmy dowolną loterię L3, np. w której z prawdopodobieństwem ½ wygrywa się wycieczkę do Włoch. Gdy zaproponujemy teraz temu samemu decydentowi loterię złożoną z L1 i L3 taką, że jeżeli wypadnie „szóstka” w rzucie kością do gry to decydent bierze udział w loterii L1, a jeżeli pozostała liczba oczek, to udział w loterii L3 tj. (L1, ; L3, ), to nadal ta loteria powinna być preferowana nad podobną loterię złożoną ale z L2 i L3 tj. (L2, ; L3, ). Jakakolwiek inna

13 byłaby podstawiona loteria typu L3 (zamiast wycieczki do Włoch mogłaby być możliwość wygrania wycieczki do Australii) to i tak zgodnie z wyrażonymi preferencjami i aksjomatem niezależności ta preferencja nie powinna się zmienić (do tego aksjomatu wrócę jeszcze w rozdziale 4.) Gdy decydent spełnia powyżej wymienione warunki i-iv (tj. jeżeli jego preferencje są racjonalne), to jak udowodnili von Neumann i Morgenstern, po pierwsze istnieje funkcja U reprezentująca relacje preferencji na zbiorze opcji L i po drugie, funkcja ta przyjmuje postać oczekiwanej użyteczności (ang. expected utility, w skrócie EU) taką, że dla każdej opcji L∈ L: n

U ( L ) = EU ( L) = ∑ pi u ( xi ), i =1

gdzie funkcja użyteczności u() opisana na zbiorze wypłat xi opcji L mierzy subiektywną wartość końcowych stanów bogactwa, a jej kształt determinuje stosunek jednostki do ryzyka2. W efekcie otrzymujemy drugą regułę podejmowania decyzji w warunkach ryzyka mówiącą, że decydent powinien wybrać tę spośród dostępnych opcji, której oczekiwana użyteczność jest największa. W tym skrótowym zestawieniu dwóch podstawowych modeli (EV i EU) opisujących wybory ryzykowne można zauważyć dwie charakterystyczne rzeczy: (i) to, co je różni to obiektywne versus subiektywne traktowanie wartości wyników opcji (loterii),

2 W teorii oczekiwanej użyteczności przyjmuje się, że większość ludzi wykazuje awersję do ryzyka, co wyrażone jest przez wklęsłą funkcję użyteczności (skłonność do ryzyka wyrażona byłaby przez funkcję wypukłą). Awersja i kształt funkcji jest bezpośrednio konsekwencją krańcowej malejącej wrażliwości na zmianę poziomów bogactwa, o której mówił Bernoulli. Formalnie: jeżeli osoba przypisuje większą użyteczność wypłacie pewnej równej wartości oczekiwanej loterii niż (oczekiwanej) użyteczności loterii, wówczas wykazuje awersję do ryzyka (nierówność odwrotna oznaczałaby skłonność do ryzyka). Więcej o stosunku do ryzyka w rozdziale IV i V.

14 (ii) to, co je łączy to założenie obiektywnego rozkładu prawdopodobieństw na zbiorze możliwych wyników opcji (loterii). Przyjmuje się, że decydent zna ten rozkład i kieruje się nim w swoich wyborach. Pojawia się tu jednak kilka kwestii. Pierwsza z nich dotyczy tego, jak należy interpretować samo pojęcie prawdopodobieństwa i co to znaczy, że jest obiektywnie zadane w decyzjach z ryzykiem. Problem ten zostanie omówiony w rozdziale 2. pracy. Druga kwestia to pytanie, czy ludzie traktują obiektywnie zadane prawdopodobieństwo rzeczywiście „obiektywnie”? W rozdziale 3. omówię temat postrzegania przez ludzi częstości, a także w jaki sposób te wartości są subiektywnie zniekształcane. W rozdziale 4. natomiast poruszę problem wykorzystywania obiektywnie znanego prawdopodobieństwa przy podejmowaniu decyzji (problem wag prawdopodobieństwa). Pokażę, że wybory ludzi wskazują na inne traktowanie wartości prawdopodobieństwa niż zakłada to normatywna teoria oczekiwanej użyteczności. Pokażę, że prawdopodobieństwa są również subiektywnie zniekształcane.

15 2. Spór o interpretację prawdopodobieństwa: interpretacja częstościowa vs subiektywna

Czym jest prawdopodobieństwo? Pytanie to okazuje się rodzić wiele kontrowersji i dysput filozoficznych. Jak pisze Ian Hacking idea prawdopodobieństwa od początku ma dwie twarze Janusa (1975/2006, s.12). Pierwsza strona odnosi prawdopodobieństwo do jakiejś rzeczywistości fizycznej, druga zaś do naszego przekonania o świecie fizycznym. Ogólnie można podzielić interpretacje prawdopodobieństwa na dwie grupy (według Williamson, 2008): I. interpretacji fizycznych (nazywanymi również losowymi), według których prawdopodobieństwo jest cechą rzeczywistości (świata fizycznego, materialnego) niezależną od wiedzy i przekonań; II. interpretacji epistemologicznych, według których prawdopodobieństwo jest przede wszystkim związane z wiedzą i przekonaniami ludzi. Dodatkowo Williamson (2008) rozróżnia prawdopodobieństwa: i. subiektywne, zależne od jednostki w ten sposób, że przy tych samych przesłankach i informacjach na temat zdarzenia dwie osoby mogą przypisywać różne wartości prawdopodobieństwa i każda z nich może mieć rację oraz ii. obiektywne, gdzie tylko jedna wartość prawdopodobieństwa jest możliwa w danym przypadku. W wielu źródłach używa się pojęcia obiektywne określając fizyczne prawdopodobieństwo, co, jak słusznie zauważa Williamson, może być mylące. Niektóre bowiem interpretacje epistemologiczne, choć odnoszą się do wiedzy i przekonań, są jednocześnie obiektywne w tym sensie, że tylko jedna wartość prawdopodobieństwa w danej sytuacji jest dopuszczalna i właściwa. Korzystając zatem z powyższego rozróżnienia, postaram się pokazać spór o znaczenie prawdopodobieństwa, toczony do dnia dzisiejszego, a widoczny zwłaszcza

16 między dwoma stanowiskami: obiektywnym (i jednocześnie fizycznym) - częstościowym i subiektywnym (i jednocześnie epistemologicznym) – osobistym. Powyższe dwa podejścia będą głównym przedmiotem zainteresowania niniejszego rozdziału. Gdyby przyjąć tylko matematyczną definicję prawdopodobieństwa, to można powiedzieć, że prawdopodobieństwem jest cokolwiek co spełnia przyjęte aksjomaty prawdopodobieństwa. Taką systematyczną aksjomatyzację zaproponował Kołmogorov w 1933 roku. Zdefiniował prawdopodobieństwo jako funkcję P( ) określoną na niepustym zbiorze zdarzeń elementarnych Ω i spełniającą następujące warunki: (i)

przyjmuje tylko nieujemne wartości, czyli dla każdego zdarzenia A należącego do zbioru Ω, P(A)≥0; jeżeli zdarzenie A jest pewne (tzn. A= Ω), to jego prawdopodobieństwo wynosi

(ii)

1 (podobnie jeżeli zdarzenie A jest niemożliwe (tzn. A=Ø), to jego prawdopodobieństwo wynosi 0); (iii)

prawdopodobieństwo sumy wzajemnie wykluczających się zdarzeń A i B należących do zbioru Ω (tzn. A ∩ B=Ø) jest równe sumie prawdopodobieństw tych zdarzeń, czyli P(A ∪ B)= P(A)+ P(B) (zasada addytywności).

Definicja ta jest na tyle abstrakcyjna, że niewielki z niej pożytek dla określania prawdopodobieństwa zdarzeń zachodzących w rzeczywistym świecie. Nie mówi nic o sposobie przypisywania im wartości prawdopodobieństwa. Przedstawia jednak zbiór aksjomatów, które w różnych podejściach do kwestii wyjaśnienia znaczenia prawdopodobieństwa uznawane są za racjonalne i konieczne, by można było mówić o prawdopodobieństwach. Jedną z pierwszych interpretacji prawdopodobieństwa była klasyczna, zaproponowana m.in. przez Laplace’a na początku XIX w. Warto ją przytoczyć, gdyż stanowiła punkt wyjścia dla późniejszych interpretacji. Zgodnie z klasycznym podejściem

17 prawdopodobieństwo odnosi się do sytuacji wysoce symetrycznych (jak rzut monetą czy też kością do gry), tzn. do takich, gdzie zbiór wszystkich możliwych wyników zdarzenia jest skończony i każdemu z nich przypisuje się to samo prawdopodobieństwo pojawienia się3. W tak określonej sytuacji prawdopodobieństwo klasyczne interpretuje się jako stosunek liczby pożądanych przypadków zdarzenia do liczby wszystkich możliwości (przykładowo prawdopodobieństwo wyrzucenia kością do gry parzystej liczby oczek gdzie są trzy pożądane wyniki zdarzenia {2,4,6} a zbiór wszystkich możliwości ma sześć elementów tj. {1,2,3,4,5,6} - wynosi 3/6). Do głównych zarzutów tej interpretacji należy fakt, że definiuje ona prawdopodobieństwo korzystając z samego pojęcia prawdopodobieństwa, co jest podstawowym błędem logicznym. Ponadto interpretacja ta ma zastosowanie tylko do sytuacji, w których można określić wszystkie możliwe wyniki zdarzenia a priori i dodatkowo każdy z nich musi mieć takie samo prawdopodobieństwo pojawienia się. Nie można więc nic powiedzieć np. o prawdopodobieństwie wyrzucenia orła, jeżeli mamy do czynienia z monetą niesymetryczną. W realnym świecie takie sytuacje są niezmiernie rzadkie, zatem naturalnym była próba rozwijania tej interpretacji na bardziej ogólne warunki. Toteż w odpowiedzi na dominującą w XIX w. definicję klasyczną została rozwinięta częstościowa definicja prawdopodobieństwa (czasem nazywana statystyczną). Interpretację tę zaproponował pod koniec XIX wieku m.in. matematyk brytyjski Venn (w The Logic of Chance, 1888), ale szczególnie rozwijana była i popularyzowana na początku

3

Właściwie należy zaznaczyć, że przypisanie równych prawdopodobieństw wszystkim możliwym wynikom zdarzenia przez Laplace’a nie wynikało z symetryczności, a z tzw. zasady niedostatecznej racji (ang. principle of insufficient reason). Keynes (1921) zaś nazwał ją zasadą nieistotności (ang. principle of indifference) i termin ten lepiej przyjął się w literaturze. Zasada ta głosi, że jeżeli nie posiadamy wiedzy o tym, który z wykluczających się, możliwych wyników zdarzenia jest bardziej prawdopodobny, to wszystkim należy przypisać to samo prawdopodobieństwo pojawienia się (Simon i Laplace, 1902). Stąd prawdopodobieństwo klasyczne w ujęciu Laplace’a jest raczej miarą naszej niewiedzy niż miarą własności świata fizycznego. Pasuje więc bardziej do grupy interpretacji epistemologicznych. Z drugiej strony, jeżeli weźmiemy pod uwagę symetryczność, to należy uznać interpretację klasyczną za interpretację fizyczną. Interpretację klasyczną bez względu na te dwa sposoby pojmowania prawdopodobieństwa z pewnością można zaliczyć do grupy interpretacji obiektywnych.

18 XX między innymi przez Reichenbacha (w The Theory of Probability, 1935) i von Misesa (w Probability, Statistics and Truth, 1928). W najprostszej wersji tego podejścia prawdopodobieństwo przypisuje się zdarzeniom w pewnej skończonej klasie odniesienia w następujący sposób: prawdopodobieństwo zdarzenia typu A w skończonej klasie odniesienia B jest względną częstością wystąpienia wyników typu A wśród wszystkich wyników klasy odniesienia B. Inaczej mówiąc: gdy weźmiemy klasę odniesienia B, w której liczba wszystkich możliwych wyników zdarzeń wynosi n, a liczba wyników typu A (w ramach klasy B) wynosi m, wówczas prawdopodobieństwo A względem B wynosi m/n (Hayek, 2012). Użycie „względności” w częstościowej definicji prawdopodobieństwa przypomina interpretację klasyczną. Oba podejścia jednak zasadniczo się różnią. Przypomnę, że ujęcie klasyczne umożliwiało wyznaczenie prawdopodobieństwa tylko a priori rozpatrując potencjalnie możliwe wyniki zdarzeń, podczas gdy częstościowe bazuje na wynikach obserwowanych. Definicja ta wyznacza prawdopodobieństwo a posteriori, po przeprowadzeniu (powtarzaniu) odpowiedniej liczby eksperymentów generujących zdarzenia w sposób losowy4, przy zachowaniu podobnych warunków. Wówczas prawdopodobieństwo zdarzenia oszacowane jest przez względną liczbę wystąpień tego zdarzenia w znacząco dużej liczbie identycznych i niezależnych powtórzeń. Poszerza to klasyczną interpretację do przypadków, gdzie wyniki eksperymentu nie muszą być równie prawdopodobne. Interpretacja częstościowa podobnie jak klasyczna należy do interpretacji obiektywnych i z pewnością fizycznych - prawdopodobieństwa zdarzeń nie mają nic

4

Przyjęcie założenia losowości zdarzeń jest konieczne przy interpretacji częstościowej prawdopodobieństwa. Samo pojęcie losowości nie jest jednak łatwe do zdefiniowania. Według Von Mises o grach można mówić, że są losowe, kiedy nie ma możliwości przewidzenia z całą pewnością jaki będzie wynik kolejnego zdarzenia, znając wyniki poprzednie (np. rzut kością do gry jest losowy, bo wiedza na temat tego, że w trzech kolejnych rzutach otrzymano za każdym razem cztery oczka, nie wpływa na zmianę prawdopodobieństwa wyrzucenia czterech oczek w kolejnym rzucie, nadal wynosi 1/6). Gdybyśmy hipotetycznie posiadali monetę, o której wiadomo, że przy pierwszych trzech rzutach zawsze daje orła, a dopiero przy kolejnych zachowuje się jak moneta symetryczna, to nie możemy powiedzieć, że jest tą samą monetą co moneta „normalna”. Wyniki generowane za pomocą rzutu taką monetą nie można byłoby już uznać za losowe.

19 wspólnego z indywidualnymi przekonaniami i wiedzą obserwatora, a przyjmuje się, że opisują cechy świata materialnego oraz zawsze istnieje tylko jedna jego prawdziwa wartość. Użyłam powyżej sformułowania, że eksperyment generujący zdarzenia powinien być powtórzony odpowiednią liczbę razy. Co to znaczy? Otóż wyznaczanie prawdopodobieństwa dla krótkich serii prób (krótkich ciągów pojawiających się losowo zdarzeń) prawie zawsze jest wątpliwe. Dla przykładu weźmy rzut monetą. Wyobraźmy sobie, że powtarzamy rzut monetą 10 razy i 7 razy wypadła reszka a 3 razy orzeł. Czy w związku z tym słuszne jest sądzić, że prawdopodobieństwo wypadnięcia orła wynosi 3/10 a reszki 7/10? Powyższy problem został rozwiązany poprzez modyfikację uproszczonej definicji częstościowej prawdopodobieństwa, wykorzystującej prawo wielkich liczb (PWL) J. Bernoulliego (1713), w tzw. granicznej interpretacji częstościowej prawdopodobieństwa (ang. limiting frequency theory). Zgodnie z tą modyfikacją, prawdopodobieństwo zdarzenia typu A jest granicą względnej częstości wystąpienia tego typu zdarzeń w danej nieskończonej klasie odniesienia B (w innej wersji definicji częstościowej mówi się o hipotetycznej granicy, którą obserwowane względne częstości by osiągnęły, gdyby próby były powtarzane nieskończoną ilość razy)5. Oczywiście w rzeczywistym świecie mamy możliwość obserwacji tylko skończonej liczby powtórzeń i założenie o powtarzaniu eksperymentu nieskończoną ilość razy jest wyidealizowaniem sytuacji. To, jaka powinna być dokładnie wielkość próby, by w praktyce wyznaczyć wartość prawdopodobieństwa jakiegoś zdarzenia zgodnie z definicją częstościową, jest często sprawą czysto arbitralną (z pewnością jednak im dłuższa próba, tym lepsza aproksymacja rzeczywistej wartości prawdopodobieństwa).

5

Zgodnie z PWL, jeżeli zdarzenie pojawia się k razy w n identycznych i niezależnych próbach, a liczba powtórzeń jest odpowiednio duża, to wielkość k/n powinna być dostatecznie bliska wartości „rzeczywistego” prawdopodobieństwa. Im większe n, tym dokładniejsze oszacowanie prawdopodobieństwa.

20 Problem wielkości próby nie jest taki duży w porównaniu z kilkoma innymi zarzutami wobec interpretacji częstościowej. Jednym z poważniejszych jest ten dotyczący wyboru klasy odniesienia, który wpływa na wartość wyznaczanego prawdopodobieństwa. W ujęciu von Misesa, żeby w ogóle można było mówić o prawdopodobieństwie, to najpierw musi zostać zdefiniowana odpowiednia klasa odniesienia (von Mises, 1957, s.28). Dokładniej, von Mises używa pojęcia kolektywu, przez które rozumie długi (najlepiej nieskończony) ciąg powtarzalnych zdarzeń, występujących po sobie w podobnych warunkach. Ciąg ten musi być generowany losowo, czyli nie może być to ciąg, w którym można zaobserwować pewne prawidłowości (wzorzec). Kiedy chcemy wyznaczyć prawdopodobieństwo wyrzucenia 6 kością do gry, czy też otrzymania pola czarnego w grze w ruletkę, wówczas nie mamy wątpliwości z jakim kolektywem mamy do czynienia. Byłby to odpowiednio kolektyw ciągu wyników nieskończonego (przynajmniej hipotetycznie) rzutu kością czy też ciągu wyników gry w ruletkę. Sprawa nie jest jednak tak oczywista, kiedy chcemy wyznaczyć powiedzmy prawdopodobieństwo tego, że student po ukończeniu nauki znajdzie pracę w ciągu pół roku. Czy mamy wówczas wziąć kolektyw absolwentów poprzedniego roku z całego kraju czy tylko z wybranego regionu, czy tych z wysoką czy z niską średnią, czy z prywatnych czy z państwowych uczelni, itd.? Należy przypuszczać, że względna częstość studentów znajdujących pracę po studiach w ciągu pół roku różni się między powyższymi klasami odniesienia. Oczywiście im bardziej będziemy zawężać klasę odniesienia, tym dokładniejsze przybliżenie prawdopodobieństwa powinniśmy otrzymać. Z drugiej strony, zawężanie spowoduje, że będziemy rozpatrywać mniejszą liczbę wszystkich możliwych przypadków, co pogorszy dokładność obliczeń (w skrajnym przypadku coraz większe doprecyzowanie klasy odniesienia może doprowadzić do jednego, a nawet żadnego przypadku).

21 Problem zależności prawdopodobieństwa od klasy odniesienia jest dość istotny dla interpretacji częstościowej. Tak na prawdę nie można całkowicie obiektywnie wyznaczyć rzeczywistej wartości prawdopodobieństwa (a na tym zależałoby częstościowcom), bowiem zależna jest ona od informacji, które uznane zostaną przez osobę je wyznaczającą za odpowiednie i istotne. W takim wypadku oddalamy się od idei prawdopodobieństwa absolutnego, bo nie można wyznaczyć wartości prawdopodobieństwa częstościowego niezależnie od danych empirycznych. Największym zarzutem, który stawia się interpretacji częstościowej prawdopodobieństwa jest jej bezradność w przypadku zdarzeń jednorazowych, jak wygrana drużyny G w mistrzostwach świata. Interpretacja ta zakłada, że proces losowy generujący zdarzenia może być replikowany wiele razy w tych samych warunkach, a o zdarzeniach typu wygrana drużyny G w mistrzostwach świata nie można myśleć w kategoriach powtarzalności. Von Mises był świadomy tego problemu i tłumaczył, że interpretacja częstościowa nie jest zainteresowana jednostkowymi zdarzeniami. Przypomnę, że zgodnie z częstościowym podejściem prawdopodobieństwo zdarzenia określone jest przez względną częstość w obrębie konkretnej klasy odniesienia. Von Mises pisał, że rozważając np. prawdopodobieństwo śmierci, nie można myśleć o jednostce, ale o całej klasie odniesienia typu: mężczyźni w wieku 41 lat mieszkający w danym kraju i nie zatrudnieni w niebezpiecznych zawodach. Załóżmy, że względna częstość przypadków śmiertelnych w takiej klasie odniesienia wynosi 3 na 1000. Czy można przypisać taką samą wartość prawdopodobieństwu śmierci Panu X, który uprawia sporty, ma żonę i trójkę dzieci oraz zdrowo się odżywia? Według von Misesa takie rozumowanie byłoby „czystym nonsensem” (1957/1981, s.18 za Cosmides i Tooby, 1996). Dzieje się tak, gdyż Pan X może należeć do bardzo wielu klas odniesienia, pomiędzy którymi względna częstość śmierci znacząco się różni. Można przyjąć, że Pan X pasuje do klasy wszystkich mężczyzn

22 pomiędzy 40 a 50 rokiem życia, dla których względna częstość śmierci wynosi powiedzmy 15 na 1000. Ale również, Pan X należy do klasy mężczyzn w wieku 30-50, dla których taka częstość wynosi przykładowo 5 na 1000. Jakie byłoby więc prawdopodobieństwo, że Pan X umrze w następnym roku: 0,3%, 1,5% czy 0,5%? Oczywiście możliwe jest zawężanie klasy odniesienia, do której należałby pan X, co zwiększałoby dokładność aproksymacji rzeczywistego prawdopodobieństwa śmierci. Jednak, jak pisałam wcześniej, moglibyśmy dojść w ostateczności do jednego przypadku (Pana X) należącego do takiej klasy i tym samym względna częstość straciłaby całkowicie na swoim znaczeniu. Aby określić prawdopodobieństwo pojedynczego zdarzenia należy przyjąć inną interpretację prawdopodobieństwa, bo jak pisali Cosmides i Tooby „nie można być częstościowcem i akceptować prawdopodobieństwo pojedynczego zdarzenia” (1996, s.7). Z problemem przypisywania prawdopodobieństwa zdarzeniom pojedynczym jak np.: zdarzeniu, że jutro na Podlasiu wystąpi trzęsienie ziemi, radzą sobie dwie interpretacje epistemologiczne: obiektywna – logiczna i subiektywna – osobista. Obie łączy to, że definiują prawdopodobieństwo, jako miarę stopnia przekonania jednostki co do prawdziwości zdania (sądu logicznego). Stopnie te nie mogą być jednak dowolne, lecz muszą być spójne, tzn. muszą spełniać aksjomaty matematycznego prawdopodobieństwa6. Interpretacja logiczna różni się jednak od subiektywnej tym, że warunek spójności nie jest

6

Warunek spójności wymagany jest w obronie własnego interesu osoby, która określa stopnie przekonania. Przyjmijmy, że osoba jest przygotowana do przyjęcia zbioru zakładów na podstawie własnych stopni przekonania, ale te nie zachowują aksjomatów prawdopodobieństwa. Wówczas, taka osoba narażona jest na straty bez względu na to, co się wydarzy. Przypuśćmy, że stopnie przekonania osoby X nie zachowują zasady addytywności i ocenia ona prawdopodobieństwo dwóch wzajemnie wykluczających się zdarzeń A i B następująco: P(A∪B)=0.5 i jednocześnie P(A)=0.25 oraz P(B)=0.75. W takiej sytuacji przyjmujący zakład (pośrednik) mógłby kupić od osoby X zakład na zdarzenie A∪B za P(A∪B) jednostek (tj. 0.5 zł) i sprzedać zakład na A i B osobno za P(A) i P(B) jednostek (tj. odpowiednio za 0.25 zł i 0.75 zł). Wówczas pośrednik osiąga zysk P(A)+P(B)−P(A∪B) i zatrzymuje go bez względu na to, jak potoczą się wydarzenia (tj. zysk pośrednika wyniósłby 0.5 zł). Zbiór zakładów, z których każdy osobno jest akceptowalny dla osoby, ale razem gwarantuje jej stratę, bez względu na to co się wydarzy, nazywany jest w literaturze „Dutch book” (system holenderskich zakładów). Można pokazać, że jeżeli subiektywne prawdopodobieństwa osoby naruszają zasady rachunku prawdopodobieństwa, wówczas taka osoba jest podatna na działanie zakładu typu “Dutch book”. Z kolei, gdy spełnione są warunki spójności, wówczas żaden zakład typu “Dutch book” nie może być uczyniony przeciwko niej (Russo, 2007).

23 wystarczający aby uznać stopnie przekonania za racjonalne. Nakłada dodatkowo ograniczenie: tylko jedna wartość prawdopodobieństwa wyznaczana na podstawie dostępnych dowodów jest uważana za prawdziwą. Oznacza to, że prawdopodobieństwa przypisane zdarzeniu mogą różnić się w zależności od dostępnych przesłanek. Jednocześnie, jeżeli dwie osoby, które przypisują różne prawdopodobieństwa zdarzeniu, posiadając tę samą wiedzę i zasób informacji, to co najwyżej jedna z nich może mieć rację. Zatrzymam się na chwilę przy interpretacji logicznej. Interpretacja logiczna została rozwinięta na początku XX wieku między innymi przez Johna M. Keynes’a (1921/1971) ale najbardziej systematyczne ujęcie przypisuje się Rudolfowi Carnap (1950). W podejściu tym teorię prawdopodobieństwa traktuje się jako rozszerzenie logiki. Jak pisał Janes podejście logiczne stosuje się do wszystkich sytuacji, kiedy nie mamy wystarczającej informacji, aby zezwolić na wnioskowanie dedukcyjne (Janes, 2003, s.270). Interpretacja logiczna odnosi pojęcie prawdopodobieństwa nie do zdarzeń, a do logicznych sądów (zdań). Opiera się ona na założeniu, że między sądem w postaci pewnej hipotezy, a danymi, uzasadniającymi tę hipotezę, zachodzi określony związek logiczny. Prawdopodobieństwo logiczne mierzy stopień uzasadnienia hipotezy poprzez dane. Ponieważ istnieje jeden i tylko jeden taki stopień uzasadnienia, to w tym sensie prawdopodobieństwo to jest obiektywne. Powyższa interpretacja odwołuje się do pojęcia losowości, które (zgodnie z tym stanowiskiem) nie jest zjawiskiem obiektywnie mierzalnym (jak w przypadku interpretacji częstościowej), a raczej „zjawiskiem wiedzy”. (Przyjęcie losowości jest tylko uproszczeniem sytuacji, w której brakuje nam wystarczającej wiedzy nt. wszystkich przesłanek dotyczących jakiegoś zdarzenia.) Przykładowo, zgodnie z tym poglądem, sam rzut monetą nie jest zdarzeniem losowym. Jeżeli znamy kształt monety, jej wagę, siłę rzucającego, panujące warunki atmosferyczne w pokoju, dystans od ręki rzucającego do

24 ziemi (miejsca upadku monety) itp., wówczas możemy przewidzieć z pewnością, czy wypadnie orzeł czy reszka. Jednakże, gdy te informacje są nam nieznane, to wówczas możemy potraktować rzut jako zdarzenie losowe i zgodnie z zasadą nieistotności powinniśmy przypisać to samo prawdopodobieństwo wyrzucenia orła i reszki. Prawdopodobieństwa są zatem miarą braku wiedzy („lack of knowledge”) o warunkach, które mogą wpływać na wynik zdarzenia (np. na wynik rzutu monetą) i dlatego reprezentują tylko nasze przekonanie o danym eksperymencie (Keynes, 1921/1971). Wiedza ta jest nieucieleśniona i nieosobista, zatem w logicznym sensie prawdopodobieństwo nie jest subiektywne! Druga z interpretacji epistemologicznych – subiektywna – twierdzi jednak odwrotnie. Nakłada mniej restrykcyjne warunki na stopnie przekonania. Jak już wspomniałam wcześniej, jedyny warunek jaki muszą spełniać, to warunek spójności. Przyjrzyjmy się teraz bliżej temu podejściu. Interpretację subiektywną prawdopodobieństwa zaproponowali niezależnie Frank Ramsey w Cambridge (Ramsey, 1926/1931) i Bruno de Finetti we Włoszech (de Finetti, 1937). Ramsey, w opozycji do stanowiska logicznego, twierdził, że zamiast przypisywać prawdopodobieństwo „nieucieleśnionej wiedzy” samej w sobie, należy odnieść je do wiedzy posiadanej przez poszczególne jednostki osobno. W tłumaczeniu Ramsey’a to osobiste przekonania (ang. personal belief) na temat prawdziwości jakiegoś stwierdzenia lub szansy zajścia niepewnego zdarzenia determinują wartości prawdopodobieństw. Ocena tych szans może opierać się na własnych przekonaniach i na posiadanej wiedzy, włączając informacje na temat obiektywnych częstości zdarzeń. Ludzie jednak posiadają różny zasób wiedzy, więc dopuszczalne są odmienne wielkości prawdopodobieństw przypisane temu samemu zdarzeniu. Prawdopodobieństwo jest zatem subiektywne! Podobnie, de Finetti uważał, że nie ma potrzeby zakładać, że prawdopodobieństwo jakiegoś zdarzenia ma

25 jedną, unikatowo zdeterminowaną wartość. Jego filozoficzna wizja prawdopodobieństwa zakładała, że prawdopodobieństwo wyraża czyjeś odczucia (wrażenie) i nie ma innego znaczenia jak to, w relacji do jednostki, która je wyznacza. De Finetti był bardziej skrajny w swoich opiniach niż Ramsey i zaprzeczał istnieniu jakichkolwiek obiektywnych stwierdzeń na temat prawdopodobieństwa, czy też obiektywnych wielkości reprezentujących prawdopodobieństwo. Obaj jednak byli zgodni co do tego, że o subiektywnych prawdopodobieństwach można mówić tylko w kontekście ludzkich zachowań. De Finetti przyjmował, że osobiste stopnie przekonania mogą być utożsamiane z obstawianymi stawkami w zakładach pieniężnych, które racjonalna jednostka jest skłonna zaakceptować. Na gruncie tego podejścia można przyjąć, że osoba przypisuje prawdopodobieństwo P(A) zdarzeniu A jeżeli jest to jej maksymalna cena, którą byłaby skłonna zapłacić za otrzymanie w zamian 1 złotówki w przypadku, gdyby zaszło A (gdyby zdarzenie A okazało się prawdziwe) i 0 zł w przeciwnym wypadku (oznacza to, że taka osoba obstawia szanse P(A) do 1-P(A), że zajdzie zdarzenie A). Przykładowo: osoba przypisuje prawdopodobieństwo 1/4, że jutro będzie padał deszcz, gdy jest skłonna zapłacić 0.25 zł teraz w zamian za ewentualne wygranie złotówki jutro, gdyby deszcz rzeczywiście spadł (przykład z Edwards, Lindman, Savage, 1963). Pomysłowi de Finettiego na pomiar subiektywnego prawdopodobieństwa można jednak postawić zarzut taki, że osoba, która zakłada się w stosunku 1 do 3 zł, że zajdzie zdarzenie A, nie koniecznie tak samo chętnie postawi 100 do 300 zł (mimo, że oba zakłady odpowiadają subiektywnemu prawdopodobieństwu ¼). Problemu tego unika Ramsey poprzez oddzielenie subiektywnych stopni przekonań od preferencji, czyli połączenie dwóch koncepcji: subiektywnego prawdopodobieństwa określającego ilościowo niepewność oraz użyteczności. Za myśleniem Ramsey’a poszedł inny subiektywista,

26 Savage, który zaproponował model stanowiący najbardziej systematyczną wersję wyprowadzenia subiektywnego prawdopodobieństwa. Savage (w The Foundation of Statistics, 1954) zsyntezował osiągnięcia Ramsey’a i de Finetti’ego oraz model oczekiwanej użyteczności von Neumanna-Morgensterna. Wyprowadził nową, analityczną strukturę oraz warunki konieczne i istotne istnienia subiektywnych prawdopodobieństw oraz ich połączenia z użytecznościami wyników dostępnych działań (alternatyw). Podobnie jak u von Neumanna-Morgensterna, Savage przyjął w swoim modelu aksjomaty, które zapewniają spójną i uporządkowaną relację preferencji. Ponadto dodał takie, które pozwalają na rozdzielenie subiektywnych prawdopodobieństw od subiektywnych użyteczności oraz gwarantują, że osobiste stopnie przekonania są miarą prawdopodobieństwa. W modelu Savage’a relacje preferencji zdefiniowane są na zbiorze możliwych kierunków działań D, których konsekwencje xi zależą od zaistnienia jednego ze stanów natury (czyli możliwych zdarzeń) o nieokreślonych prawdopodobieństwach. Mając uporządkowaną relację preferencji na zbiorze dostępnych działań osoby dążą do wyboru tego działania, którego subiektywnie oczekiwana użyteczność (ang. subjective expected utility, w skrócie SEU) zdefiniowana poniżej, jest największa: SEU ( f ) =

∑ P ( E )u ( x ) , i =1

i

i

gdzie u(xi) to użyteczność i-tej konsekwencji działania f ∈ D, wiązanej ze zdarzeniem Ei, którego subiektywne prawdopodobieństwo wynosi P(Ei). Savage zatem wyprowadza subiektywne prawdopodobieństwa z racjonalnych preferencji (z wyborów maksymalizujących subiektywnie oczekiwaną użyteczność), co gwarantuje, że subiektywne prawdopodobieństwa są racjonalnymi stopniami przekonania. Inaczej należy rozumieć, że racjonalne stopnie przekonania są miarą prawdopodobieństwa, czyli spełniają określone matematyczne aksjomaty, jak np. warunek spójności.

27 Warunek spójności nie jest jedynym ograniczeniem nałożonym na racjonalne stopnie przekonania. Drugim ograniczeniem, szczególnie związanym z subiektywnym podejściem do rozumienia prawdopodobieństwa, jest określony sposób zmiany osobistych stopni przekonania w świetle pojawiających się nowych informacji. Aktualizowanie swoich przekonań nie może się odbywać dowolnie, ale poprzez warunkowanie, zgodnie z tzw. regułą Bayesa7. Stąd podejście subiektywne nazywa się często subiektywnym bayesianizmem. Reguła Bayesa stanowi centralną zasadę racjonalności dla subiektywistów i pokazuje jak powinniśmy się uczyć z doświadczenia. Regułę Bayesa możemy rozpisać następująco: ( | )=

( | )∗ ( ) ( )

.

Zdarzenia H i D, dla większej przejrzystości i lepszego zrozumienia powyższego równania, przyjęło się nazywać hipotezą i danymi. W regule tej zaczynamy od wyznaczenia ( ), czyli prawdopodobieństwa priori (wejściowego), że nasza hipoteza jest prawdziwa, zanim otrzymamy dodatkowe informacje na jej temat. Następnie po zgromadzeniu pewnych danych empirycznych D, należy określić prawdopodobieństwo ich otrzymania, gdyby hipoteza H rzeczywiście była prawdziwa, czyli ( | ). Dodatkowo potrzebne jest uwzględnienie prawdopodobieństwa całkowitego otrzymania danych, ( ), bez względu na to, czy hipoteza H jest, czy nie jest prawdziwa. Mając powyższe rozkłady prawdopodobieństwa i używając reguły Bayesa, otrzymujemy poszukiwane prawdopodobieństwo posteriori (wyjściowe), ( | ), prawdziwości hipotezy H po pojawieniu się nowych danych empirycznych D.

7

Regułę Bayesa w całości wyprowadzona jest z matematycznych aksjomatów rachunku prawdopodobieństwa oraz definicji prawdopodobieństwa warunkowego. Prawdopodobieństwo warunkowe zapisuje się jako P(A|B) co oznacza prawdopodobieństwo zajścia zdarzenia A pod warunkiem, że zaszło zdarzenie B i definiuje się je jako iloraz prawdopodobieństwa łącznego A i B (tzn., że zajdzie zarówno zdarzenie A i B), oraz prawdopodobieństwa całkowitego P(B). Formalnie P(A|B))=P(A i B)/P(B).

28 Kluczowe w podejściu bayesowskim jest to, że rozkład priori, ( ), nie jest stały w czasie. Początkowo może bazować tylko na posiadanej wiedzy. Po pojawieniu się nowych danych empirycznych, wyznaczany zostaje rozkład posteriori, który w kolejnym etapie może służyć jako priori. Zatem prawdopodobieństwo hipotezy priori zgodnie z podejściem subiektywnym nie jest stałe, ale zmienia się z każdym kolejnym etapem, w którym otrzymujemy nowe świadectwa empiryczne. U częstościowców taka zmienność prawdopodobieństwa byłaby nie do przyjęcia. Prawdopodobieństwo priori jest główną kością niezgody pomiędzy częstościowym a subiektywnym podejściem. Zgodnie z tym podejściem, dwie różne osoby, patrząc na to samo zdarzenie, mogą formułować różne subiektywne przekonania priori o jego prawdopodobieństwie (w szczególności mogą to robić nawet nie mając żadnych danych na temat zdarzenia, co w częstościowym podejściu byłoby niewykonalne). W konsekwencji mogą dojść do różnych wniosków obserwując te same obiektywne dane empiryczne. Przytoczę przykład z książki Sharon Bertsch McGrayne (2011): Do baru, w którym siedzi Tim i Susan, wchodzi nieznajomy i wyciąga z kieszeni trzy monety: dwie prawdziwe (po jednej stronie reszka a po drugiej orzeł) i jedną fałszywą (po obu stronach orły). Nieznajomy chowa monety do kieszeni, wybiera jedną z nich i rzuca nią trzy razy. Pozwala Timowi i Susan zaobserwować wyniki, a następnie prosi ich o odgadnięcie czy moneta była fałszywa czy nie. Oboje, Tim i Susan akceptują fakt, że nieznajomy posiada dwie uczciwe i jedną fałszywą monetę. Ale na ocenę prawdopodobieństwa priori może wpłynąć np. ich przekonanie o tym, czy nieznajomy losowo wyciągnął jedną z monet. Oznaczmy przez P(F) prawdopodobieństwo priori, że moneta jest fałszywa, czyli subiektywny stopień przekonania Tima i Susan o fałszywej monecie, zanim nieznajomy rzucił nią trzy razy. Analogicznie niech P(U) oznacza prawdopodobieństwo hipotezy

29 przeciwnej, czyli o monecie uczciwej. Przez D zapiszemy dane zaobserwowane podczas rzutów, a P(F/D) zmodyfikowane przekonania Tima i Susan o fałszywej monecie, po zaobserwowaniu tych danych. Wówczas zgodnie z regułą Bayesa otrzymujemy: ( | )=

( | )∗ ( ) ( | )∗ ( )+ ( | )∗ ( )

Przypuśćmy, że Tim wierzy iż nieznajomy jest uczciwy i rzeczywiście losowo wyciągnął monetę z kieszeni. Wówczas jego stopień przekonania o tym, że wylosowana przez nieznajomego moneta jest fałszywa wyniesie 1/3. Opinia Susan może jednak być inna. Jeżeli byłaby przekonana, że nieznajomy wybrał specjalnie nieuczciwą monetę wówczas jej P(F)=1. Jeżeli natomiast jest całkowicie pewna, że mężczyzna wyciągnął z kieszeni monetę uczciwą, wówczas jej P(F)=0. W zależności od tego, jak bardzo Susan wątpi w uczciwość nieznajomego, może przypisać różne prawdopodobieństwa priori pomiędzy wartościami 0 i 1. Różne stopnie przekonania o fałszywej monecie będą następnie modyfikowane przez te same zaobserwowane dane. Okazało się, że w wyniku trzykrotnego rzutu monetą wypadł za każdym razem orzeł. Jeżeli moneta rzeczywiście jest fałszywa, to takie dane otrzymalibyśmy z prawdopodobieństwem ( | ) = 1, natomiast gdyby była uczciwa, wówczas ( | ) = . W świetle tych informacji przekonanie Tima o fałszywej monecie zostanie zmodyfikowane następująco: ( | )=

∗ ∗

!



= .

Stąd, Tim po uwzględnieniu wyników rzutu monetą jest przekonany na 80%, że moneta którą wybrał nieznajomy jest fałszywa. Z kolei Susan nowy stopień przekonania mógłby przyjąć wartość pomiędzy ( | )=

∗" ∗"



= 0,

30 a ( | )=

∗ ∗

∗"

= 1,

czyli zmieniałby się od 0 do 100% w zależności od jej pierwotnego odczucia. Susan i Tim doszliby zatem do różnych wniosków o fałszywej monecie, gdyż ich opinie początkowe były różne. Przedstawiony krótki przegląd interpretacji prawdopodobieństwa pokazuje, że trudno jest zaproponować jednoznaczną odpowiedź, jak rozumieć i definiować prawdopodobieństwo. Spór o jego znaczenie trwa do dnia dzisiejszego a szczególnie widać go pomiędzy dwoma podejściami, które przyjęło się nazywać ogólnie obiektywnym i subiektywnym. Reprezentantem obiektywnego spojrzenia jest przywołana interpretacja częstościowa zaś subiektywnego – osobista (czy też subiektywna bayesowska). Gdybym chciała pokazać wszystkie niuanse tych dwóch szkół, to musiałabym poświęcić nie rozdział, ale co najmniej kolejną rozprawę doktorską. Postaram się jednak wypunktować najważniejsze różnice i kwestie sporne między tymi dwoma podejściami. Zacznę jednak od części wspólnej - obie interpretacje łączy podejście normatywne, tzn. odwołują się do aksjomatów rachunku prawdopodobieństwa, które muszą być zachowane, aby w ogóle można było mówić o prawdopodobieństwach. Dalej następują tylko rozbieżności, które są konsekwencją obiektywnego vs. subiektywnego podejścia do miary prawdopodobieństwa. Interpretacja częstościowa jest obiektywna w tym sensie, że subiektywne wrażenia obserwatora o prawdopodobieństwie zajścia zdarzenia nie mają żadnego wpływu na rzeczywiste prawdopodobieństwo. Inaczej mówiąc, prawdopodobieństwo tkwi w przedmiocie a nie podmiocie. Jest całkowicie niezależne od stanu umysłu osoby. Ma być obiektywną miarą rzeczywistych własności świata fizycznego, tak jak obiektywnie można zmierzyć długość, ciężar itp. różnych przedmiotów. Biorąc pod uwagę interpretację

31 subiektywną, sytuacja jest odwrotna – prawdopodobieństwo tkwi w podmiocie a nie przedmiocie. Bez znaczenia jest „rzeczywiste prawdopodobieństwo” zdarzenia, gdyż takowe jest niepoznawalne i niemożliwe do zdefiniowania poza przestrzenią umysłową osoby (obserwatora). Jest całkowicie ograniczone i zależne od stanu umysłu osoby. Subiektywna interpretacja charakteryzuje się większą uniwersalnością zastosowania. Subiektywista może zapytać o prawdopodobieństwo jakiejkolwiek hipotezy (zdarzenia). Każdemu zdaniu logicznemu można przypisać osobisty stopień przekonania, nawet takiemu jak: „istnieje życie na Marsie”. Dla częstościowców przypisywanie prawdopodobieństwa takiemu stwierdzeniu jest zupełnie bezsensowne: życie na Marsie istnieje, bądź nie istnieje. Częstościowcy mogą określić prawdopodobieństwa tylko zdarzeniom powtarzalnym i losowym. Ponadto, mogą to uczynić a posteriori, po dokonaniu odpowiedniej liczby obserwacji wyników zdarzeń. Prawdopodobieństwa są generowane wyłącznie na podstawie przeszłych danych. Zatem zdarzenia, dla których nie istnieją dane, muszą być, zgodnie z obiektywną częstościową interpretacją, traktowane tak, jakby były poza granicami prawdopodobieństwa. Jeżeli zatem przyjmujemy obiektywną (częstościową) interpretację, wówczas nie można tworzyć żadnych stwierdzeń na temat prawdopodobieństwa pojedynczych i bezprecedensowych zdarzeń. Wydaje się to być mocnym ograniczeniem. Weźmy np. sytuację przeprowadzenia pierwszej na świecie operacji przeszczepu serca. Gdybyśmy wzięli pod uwagę interpretację częstościową, to lekarz podejmujący się tego zabiegu, nie mógłby nic powiedzieć o szansach przeżycia pacjenta, a jednak oceniał je na 80% (Gigerenzer, 2002). Inną sytuację, w której niektórym trudno byłoby zaakceptować wyłącznie częstościowe podejście, obrazuje eksperyment myślowy zaproponowany przez Beach, Christensen-Szalanski i Barnes (1987, za: Beach i Braun, 1994):

32 Przypuśćmy, że pewien badacz wybrał losowo jeden z kościołów w Stanach Zjednoczonych i odwiedził go w pewne sobotnie, lipcowe popołudnie. Tam właśnie odbywał się ślub. Po zakończeniu ceremonii, badacz podszedł do drużby i zapytał: „Jeżeli wybrałbym losowo amerykańską parę, która wzięła ślub tego popołudnia, to jakie jest prawdopodobieństwo, że będzie nadal małżeństwem za dziesięć lat, licząc od teraz?”. Gdyby drużba znał liczbę rozwodów, mógłby ocenić prawdopodobieństwo zgodnie z tymi danymi. Przyjąłby wówczas wartość zgodną z częstościową interpretacją prawdopodobieństwa. Co jednak byłoby w sytuacji, gdyby badacz zapytał tego samego drużbę: „Jakie jest prawdopodobieństwo, że para która wzięła ślub, a ty właśnie byłeś na nim świadkiem, będzie nadal małżeństwem za 10 lat?”. Dla eksperymentatora pytanie to nadal nie zmieniłoby problemu – przecież parę, o którą pyta wybrał losowo i nic, o niej nie wie, poza tym, że wzięła właśnie ślub. Dla drużby jednak taka zmiana pytania zmieniłaby całkowicie problem. Informacja o liczbie rozwodów w tej populacji mogłaby nadal całkowicie wpływać na jego odpowiedź, ale tylko gdyby był cynikiem. Można przypuszczać, że jego ocena prawdopodobieństwa byłaby teraz bliższa subiektywnemu podejściu, ponieważ uwzględniłby zapewne swoją wiedzę na temat tej pary czy też własne przekonania o tym, co przyczynia się do udanego, bądź nie, małżeństwa. Kolejny rozdźwięk pomiędzy ujęciem obiektywnym i subiektywnym stanowią dwa różne typy niepewności. W częstościowym niepewność związana jest z losowością zachodzących zdarzeń (z przypadkowością). Tej niepewności nie da się zredukować poprzez obserwacje i gromadzone informacje. U subiektywistów nie ma rzeczy zachodzących losowo, którymi rządziłby przypadek, ale wszystko pojawia się z pewnych powodów (Crovelli, 2011). W subiektywnym podejściu niepewność spowodowana jest brakiem całkowitej wiedzy co do przyczyn zachodzących zjawisk. Poprzez gromadzenie nowych danych empirycznych ta niepewność jest redukowana.

33 Tu pojawia się następna kwestia różniąca subiektywistów i częstościowców, a mianowicie zastosowanie reguły Bayesa. U subiektywistów reguła Bayesa stanowi podstawę warunkowania i zmiany prawdopodobieństwa hipotezy priori w świetle nowych danych. U częstościowców to tylko kolejne matematyczne narzędzie wygodne dla obliczania prawdopodobieństw warunkowych. Weźmy przykład opisany przez Cosmides i Tooby (1996, s.8). Chcielibyśmy wykorzystać regułę Bayesa do obliczenia prawdopodobieństwa zdarzenia, że „Pani X ma raka piersi, kiedy wiemy, że otrzymała pozytywny wynik testu”. Tak możemy postawić problem w przypadku subiektywistów, gdzie otrzymane zgodnie z regułą Bayesa prawdopodobieństwo warunkowe będzie oznaczało stopień przekonania, że Pani X ma raka piersi. Częstościowcy mogliby policzyć prawdopodobieństwo warunkowe dokładnie w ten sam sposób, co subiektywiści, ale odpowiadaliby zupełnie na inne pytanie: „Jaki procent spośród kobiet, które otrzymały pozytywny wynik testu, ma raka piersi?”. Pozostawiając spór o interpretację prawdopodobieństwa, powrócę na koniec do klasyfikacji decyzji przytoczonej w rozdziale pierwszym pracy (s.7), a dokładnie do podziału na decyzje w warunkach ryzyka i niepewności. Pisałam, że w sytuacji ryzyka znane są prawdopodobieństwa zdarzeń, co można teraz bardziej doprecyzować jako sytuacje, w których możliwe jest obiektywne (zwłaszcza częstościowe) wyznaczenie prawdopodobieństwa. Najczęściej ma to miejsce w przypadku zdarzeń powtarzalnych. Kiedy natomiast nie możemy w oczywisty, obiektywny sposób wyznaczyć prawdopodobieństwa (zwłaszcza dla pojedynczych zdarzeń), wówczas mamy sytuację niepewności. W takim wypadku posiłkujemy się subiektywnym bayesowskim podejściem. Podział ten przyjęli min. Knight (1921) i Keynes (1921/1971). Warto na marginesie zaznaczyć, że dla Savage’a takie rozróżnienie zupełnie nie miało znaczenia, ponieważ

34 według niego dzięki subiektywnej możliwości wyznaczenia prawdopodobieństwa decydent redukuje każdą niepewność do sytuacji ryzyka. Niemniej w dalszej części pracy przez decyzje w warunkach ryzyka będę rozumiała sytuacje z jasno określonym, obiektywnym prawdopodobieństwem. Termin subiektywny będzie odnosił się natomiast wyłącznie do odchyleń w postrzeganiu i traktowaniu obiektywnych jego wartości.

35 3. Percepcja częstości

3.1. Zniekształcanie prawdopodobieństwa w percepcji: prawdopodobieństwo obiektywne vs. subiektywne oceny

Choć niektórzy teoretycy (jak de Finetti) w ogóle odmawiali sensu interpretacji częstościowej, to jednak w wielu praktycznych sytuacjach (hazard, pogoda, wypadki itd.) interpretacja ta ma ogromne znaczenie i w praktyce nikt nie głosi, by z niej zrezygnować. Jeżeli przyjmujemy tę interpretację, to zakładamy, że prawdopodobieństwo daje się określić obiektywnie. Oczywiście nie ma powodu twierdzić, by ludzie w swoich ocenach (percepcji) prawdopodobieństwa w ogóle go nie zniekształcali. Można sądzić, że robią to i stąd pojawił się nurt badań nad subiektywnym odbiorem prawdopodobieństwa (nad subiektywnym prawdopodobieństwem). Warto zaznaczyć, że termin subiektywne prawdopodobieństwo w tym rozdziale będzie odnosił się do percepcji względnej częstości zdarzeń (kiedy można wyznaczyć obiektywnie tą częstość implicite) lub do subiektywnych wartości przypisywanych przez ludzi wyraźnie znanym i określonym prawdopodobieństwom (explicite, jak otrzymanie orła w rzucie monetą). Coombs i Beardslee (1954/1957) nazywają je w obu przypadkach prawdopodobieństwem psychologicznym przypisanym obiektywnemu prawdopodobieństwu w sytuacji zdarzeń powtarzalnych. Wyznaczenie tego subiektywnego odbioru prawdopodobieństwa następuje w pomiarze bezpośrednim w ocenach (lub oszacowaniach) i w badaniach na ten temat próbuje się pokazać zależność subiektywnych wartości od tych obiektywnie zadanych.

36 3.2. Formaty prawdopodobieństwa i zniekształcanie prawdopodobieństwa

Abstrahując od debaty na temat właściwej interpretacji prawdopodobieństwa wydaje się, że ludzie często podejmując decyzje biorą pod uwagę właśnie względne częstości oceniając szanse zajścia różnych zdarzeń. Nic więc dziwnego, że badacze byli żywo zainteresowani tym, jak ludzie radzą sobie z oceną tych częstości. Jedną z pierwszych prac na ten temat było badanie Attneave (1953). Respondenci pytani byli o oszacowanie względnych częstości, z którymi różne litery alfabetu pojawiały się w tekstach angielskich (gazetach, książkach). W badaniu posłużono się literami z dwóch powodów: po pierwsze względna częstotliwość pojawiania się poszczególnych znaków była stabilna w próbkach tekstów, po drugie proporcja ta była obserwowana przez większość członków badanej społeczności. Wyniki badań pokazały dość wysoką korelację między rzeczywistymi częstościami, a oszacowaniami osób badanych. Zauważono jednak systematyczną prawidłowość: badani przeszacowywali frekwencje liter, które pojawiają się rzadko (np. X, V, Q) w porównaniu z literami występującymi częściej (np. A, E, T). Wiele lat później Lichtenstein i in. (1978) pytali uczestników swojego badania o ocenę ilości zgonów w ciągu roku spowodowanych przez 41 różnych zdarzeń śmiertelnych (jak rak płuc, astma, porażenie prądem, utonięcie, tornado, zatrucie itp.), dla których były dostępne roczne statystyki. Badanym prezentowano dwa różne formaty oceny częstości: (i) porównanie parami, gdzie należało wybrać tę przyczynę śmierci, którą badani uważali za bardziej prawdopodobną, że spowoduje śmierć losowo wybranej osoby z amerykańskiej populacji w ciągu roku; dodatkowo proszono o wskazanie, o ile razy wydaje im się to bardziej prawdopodobne; (ii) w drugim formacie badani oszacowywali bezpośrednio całkowitą roczną frekwencję wymienionych przyczyn śmierci w Stanach Zjednoczonych. Oszacowania badanych z obu zadań były porównane z bieżącymi statystykami częstości

37 zdarzeń śmiertelnych. Zaobserwowano, że oszacowania te ulegają pewnym systematycznym trendom. Częstości relatywnie rzadkich zdarzeń były systematycznie przeszacowywane, podczas gdy frekwencje relatywnie częstych zdarzeń były systematycznie niedoszacowane. Rysunek 1 przedstawia uzyskaną zależność między ocenami a rzeczywistymi frekwencjami pojawiania się zdarzeń śmiertelnych.

Rysunek 1. Zależność między ocenami a aktualnymi frekwencjami pojawiania się zdarzeń śmiertelnych w badaniu Lichtenstein i in. (1978). Źródło: Lichtenstein i in. (1978, s. 558).

Tak więc, w percepcji zdarzeń, które pojawiają się rzadko, ludzie mają skłonność przeszacowywać ich względną częstość. Inne prace prezentowały badanym gotowe sekwencje zdarzeń i na podstawie tych obserwacji proszono o ocenę częstości. Przykładowo, Begg (1974) prosił respondentów o oszacowanie częstości prezentowanych słów (rzeczywistych i wymyślonych przez badaczy). Uczestnicy badania zostali podzieleni na dwie grupy. W grupie pierwszej badani oceniali częstość bezpośrednio po prezentacji każdego ze słów (bezpośrednia ocena) i dodatkowo mieli dokonać oceny po prezentacji wszystkich słów (opóźniona ocena). W

38 drugiej grupie badani oceniali częstości dopiero po tym, jak zobaczyli całą listę słów, choć wcześniej zostali poinformowani, że ich zadaniem będzie zapamiętanie ile razy słowa pojawiły się podczas prezentacji (ocena pojedyncza). Wyniki badania pokazały, że uczestnicy bardzo dobrze oceniali częstość pojawiających się słów w każdym wariancie. Najbliższe prawdziwym częstościom były oceny w przypadku bezpośrednich odpowiedzi nt. częstości pojawiających się słów (zależność prawie liniowa), największe odchylenie od prawdziwych częstości miały oceny w przypadku oceny pojedynczej (i większe było w sytuacji słów wymyślonych niż rzeczywistych). Odchylenie to miało podobną ścieżkę jak w badaniach, gdzie szacowano częstości ze zdarzeń przechowywanych w pamięci, tj. względnie niskie częstości były przeszacowywane a wysokie niedoszacowane. W wielu innych podobnych badaniach, w których pokazywano różne sekwencje zdarzeń, uzyskiwano za każdym razem podobne wyniki: ludzie byli dość dokładni w swoich oszacowaniach częstości z tendencją do lekkiego przeszacowywania zdarzeń rzadkich i niedoszacowania tych pojawiających się częściej (min. Hintzman, 1969; Erlick, 1961; Teigen, 1973, Pitz, 1966). W artykułach podsumowujących jak Peterson i Beach (1967) czy Rapoport i Wallstein (1972), można znaleźć wiele innych przykładów takich prac. Prawdopodobieństwo obiektywne może być prezentowane nie tylko w postaci częstości zdarzeń pojawiających się w pewnych sekwencjach (jak to było w badaniach wymienionych powyżej), ale również w formie wizualnej, poprzez jednoczesną prezentację graficzną dwóch lub większej ilości różnych elementów. Manipulowano przy tym proporcją tych elementów w danej populacji i wielkością próby. Poniżej kilka przykładów badań zajmujących się szacowaniem zadanych proporcji. Stevens i Galanter (1957) badali oceny proporcji kropek wyświetlanych na kartach w dwóch kolorach (użyli 11 kart, na których proporcje jednego z kolorów zmieniały się od

39 3/36 do 33/36). Odkryli, że zależność subiektywnych oszacowań (procentowych, jak i wyrażanych za pomocą 7-stopniowej skali) od rzeczywiście wyświetlanej proporcji danego koloru kropek można było przedstawić za pomocą funkcji w kształcie odwróconego S, takiej, że krzywa była płaska w środku przedziału [0,1] i stroma na jego końcach. Podobnych procedur używał Philip (1947) (który badał ocenę proporcji na 11-stopniowej skali, wahających się od 13/36 do 23/36), czy też Shuford (1961) (który sprawdzał ocenę proporcji na skali od 0 do 100%, wahających się od 40/400 do 360/400 w przedziałach co 10%). Tym razem zależność między oszacowaniami i właściwymi proporcjami była prawie liniowa. W wielu innych badaniach na temat oceny zadanych proporcji reprezentacji graficznych, mimo pewnych różnic wynikających ze sposobu udzielania odpowiedzi, wspólne dla relacji postrzeganych do zadanych proporcji było przeszacowywanie niskich i niedoszacowanie wysokich wartości proporcji. Większość badań dotyczących oceny proporcji pokazała właśnie taki wzorzec, czyli odwróconą Skształtną funkcję oszacowanych proporcji od tych danych (Varey i in. (1990), Hollands i Dyre, 2000).

Rysunek 2. Zebrane wykresy z kilku badań na temat oceny prezentowanych proporcji. Źródło: Hollands i Dyre (2000, s. 501).

Na początku rozdziału wspomniałam, że subiektywny odbiór obiektywnie określonego prawdopodobieństwa odnosi się nie tylko do percepcji częstości, ale również

40 do prawdopodobieństw, które można określić explicite (jak prawdopodobieństwo wyrzucenia 6 oczek w rzucie kostką). Takie prawdopodobieństwa opisane są zazwyczaj numerycznie w postaci ułamków dziesiętnych (np. 0.7) czy procentów (np. 15%). Poza badaniami nad komunikacją ryzyka (zob. Visschers i in., 2009), gdzie sprawdza się m. in. wrażliwość na zmianę wielkości prawdopodobieństw, nie ma wielu prac, które mierzyłyby w sposób bezpośredni subiektywną ocenę tak zadanych prawdopodobieństw. Znane mi są jedynie dwie takie prace. W badaniu Gottlieb i in. (2007) sprawdzono, jak szacowano prawdopodobieństwa zdarzeń, w zależności od formatu prezentowania informacji niepewnej oraz od sposobu oceny: werbalnej i niewerbalnej. Tym razem przedmiotem badań były loterie, w których można było wygrać pewną sumę pieniędzy z określonym prawdopodobieństwem. Loterie, prezentowane na ekranie komputera, polegały na losowaniu jednej z 20 kart zawierających dwie wypłaty (większą bądź równą zeru). Informacja o prawdopodobieństwie wylosowania jednej z nich opisana była osobom badanym na cztery różne sposoby: a. format częstościowy np. 16 z 20 kart ma 4 punkty a pozostałe 0 punktów, b. procentowy np. 80% kart ma 4 punkty a pozostałe 20%, 0 punktów, c. wyświetlanie serii 20 kart, po jednej na raz d. jednoczesna prezentacja graficzna całej talii kart na siatce o wymiarach 4 na 5 (prezentacja podobna do tej używanej w badaniach nt. oceny wyświetlanych proporcji). Uczestników proszono o oszacowanie prawdopodobieństwa wyciągnięcia karty z daną wypłatą. Oceny dokonywano na dwa sposoby: albo przez podanie wartości procentowej, albo za pomocą zadania graficznego z siatką (ang. grid task). W zadaniu tym osoba badana zapełniała na ekranie komputera, za pomocą dwóch suwaków (pionowego i poziomego), pole kwadratu o wymiarach 40 na 40 (czyli składającego się z 1600 mniejszych kwadratowych pól). Gdy osoba badana przesuwała jeden z suwaków, program

41 komputerowy losowo rozmieszczał małe kwadraciki w dużym polu, zwiększając lub zmniejszając gęstość jego wypełnienia, w zależności od wykonanego przesunięcia. Małe kwadraty reprezentowały wypłatę niezerową loterii. Zagęszczenie tych kwadracików w dużym polu, zależne od ruchów osoby badanej, odpowiadało jej ocenie prawdopodobieństwa wylosowania danej wypłaty w loterii (zob. rysunek 3).

Rysunek 3. Zadanie z siatką (grid task) – przykład zapełnienia 32% powierzchni dużego pola siatki, kwadracikami reprezentującymi karty z wartością 6. W takim wypadku, wartość subiektywnej oceny szansy na otrzymanie wypłaty równej 6 wyniosłaby 32%. Źródło: Gottlieb i in. (2007, s. 242).

Wyniki pokazały, że werbalne oszacowanie prawdopodobieństwa za pomocą procentów nie różniło się między czterema sposobami prezentacji talii kart. Zaskakujące było to, że kiedy prawdopodobieństwa były szacowane niewerbalnie za pomocą zadania z siatką, to oceny dla wariantów a, c, d były dokładniejsze niż dla b-procentowego. Ten prowadził do największego odchylenia od liniowości w ocenach obiektywnie zadanego prawdopodobieństwa. Jednocześnie we wszystkich formatach zachował się wzorzec przeszacowania niskich i niedoszacowania wysokich prawdopodobieństw.

42 Podobnej procedury bezpośredniej oceny prawdopodobieństwa użyto w badaniu Camilleri i Newell (2009). Osobom badanym proponowano znowu proste loterie z dwiema wypłatami postaci (X, p; 0, 1-p). Loterie były reprezentowane przez maszyny losujące w dwóch wariantach. W pierwszym badany dowiadywał się o szansach na otrzymanie wypłaty X poprzez obserwację częstości pojawiania się tej wartości w ciągu zdarzeń, symulującym kolejne losowania w danej loterii (wariant doświadczeniowy); w drugim wariancie szanse te były opisane za pomocą procentów (wariant opisowy). W obu warunkach badani oceniali prawdopodobieństwo wypłaty X na dwa sposoby: werbalny i niewerbalny. Werbalny polegał na uzupełnieniu zdania: „X jest wypłacany przez maszynę __ procent razy”. Niewerbalny wykorzystywał zadanie graficzne z siatką (jak u Gottlieb i in., 2007). Badany musiał dostosować częstości danej wypłaty na siatce do tej wypłacanej przez maszynę. Wyniki pokazały, że badani dokonywali bardziej trafnych oszacowań prawdopodobieństwa w przypadku werbalnej niż niewerbalnej oceny i jednocześnie oszacowania te były „lepsze” w wariancie opisowym niż doświadczeniowym. W przypadku oceny niewerbalnej okazało się, że badani mniej przeszacowywali niskie i niedoszacowywali wysokie prawdopodobieństwa, gdy formułowali swoje oceny prawdopodobieństw bazując na obserwacji częstości wypłat, niż gdy otrzymywali informację o prawdopodobieństwie za pomocą procentów. Okazuje się, że ocena niewerbalna, choć produkuje mniej dokładne oszacowania obiektywnych prawdopodobieństw, to pozwala rozróżnić między nabywaniem informacji o prawdopodobieństwie przy formacie bazującym na doświadczeniu, a tym bazującym na opisie. Dwa badania opisane powyżej pokazały, że subiektywna ocena nawet numerycznie opisanego prawdopodobieństwa zachowuje wzorzec pokazany we wcześniejszych

43 badaniach dotyczących percepcji częstości czy proporcji: choć oceny są wysoce dokładne, to zachowane jest odchylenie w kierunku przeszacowania niskich i niedoszacowania wysokich prawdopodobieństw. Z przedstawionego przeglądu badań wynika, że ludzie są zaskakująco trafni w subiektywnej ocenie obiektywnie określonych wielkości prawdopodobieństw, bez względu na to, czy przedstawione są one za pomocą częstości obserwowanych lub przywoływanych z pamięci, czy wizualnie za pomocą proporcji, czy wreszcie numerycznie. Ta zdolność trafnego postrzegania częstości nie jest wyłącznie domeną dorosłego życia. Okazuje się, że nawet małe dzieci potrafią trafnie rozróżniać zadane wielkości reprezentujące prawdopodobieństwa. Przykładowo w badaniu Acredolo i jego współpracowników (1989) brali udział uczniowie klas początkowych. Sprawdzono jak poradzą sobie z zadaniem oszacowania prawdopodobieństwa w pewnej, opisanej im sytuacji. Zadanie eksperymentalne przedstawia rysunek 4. Żeby nie odtwarzać całej historii, którą opowiedziano dzieciom przed wykonaniem zadania eksperymentalnego, wyjaśnię tylko, że uczniowie widzieli na ekranie komputera doniczki ustawione na parapecie, z kwiatami lub pająkami w różnych proporcjach. Pod spodem znajdował się robak, który mógł wskoczyć (ale tylko losowo) do jednej z doniczek. Dla robaka pożądane byłoby znalezienie się w doniczce z kwiatem (wówczas mógłby go zjeść), natomiast zdecydowanie niekorzystna byłaby sytuacja, w której znalazłby się w doniczce z pająkiem (tym razem sam byłby zjedzony). Dzieci musiały ocenić za każdym razem, gdy zmieniały się proporcje kwiatów i pająków w doniczkach, jakie szanse ma robak na wskoczenie do doniczki z rośliną. W tym celu przesuwały za pomocą myszki komputerowej czarną kropkę wzdłuż linii widocznej na rysunku 4.

44

Rysunek 4. Ekran z zadaniem eksperymentalnym w badaniu Acredolo i współpracowników (1989). Źródło: Acredolo i in. (1989, s. 940).

Dzieci, choć nie uniknęły pewnych błędów, dobrze radziły sobie z oceną prawdopodobieństwa przeżycia robaka po wykonaniu skoku. W istotnym stopniu rozróżniały w swoich oszacowaniach zmiany wielkości zadanych proporcji. Cosmides i Tooby (1992) uważają, że zdolność trafnego postrzegania częstości może być skutkiem procesu ewolucji człowieka, którego działania musiały często bazować na informacji o częstości zdarzeń. Człowiek musiał zatem rozwinąć pewne mechanizmy, które pozwalały mu wykorzystywać tę informację (Tyszka, 2010). Podobnie, tak wysoką precyzyjność ocen (zwłaszcza tych dotyczących częstości zdarzeń przechowywanych w pamięci czy obserwowanych sekwencyjnie) tłumaczy hipoteza Zacks i Hasher o automatycznym kodowaniu (Hasher i Zacks, 1979; Zacks i Hasher, 2002). Według nich ludzie kodują obserwowane częstości na skutek automatycznych procesów zachodzących przy użyciu niewielkich zasobów uwagi. Czynność ta nie wymaga intencji i jest niezależna od wieku, uczenia się i większości różnic indywidualnych. Jakkolwiek ludzie, choć dość dokładnie w swoich ocenach rozróżniają między wartościami prawdopodobieństw, to jednak (jak pokazały wyniki przytoczonych badań)

45 nie unikają błędów. Zachowują przeważnie pewne zniekształcenie względem obiektywnej skali prawdopodobieństwa w postaci przeszacowywania niskich i niedoszacowania wysokich wartości prawdopodobieństw. Zjawisko przeceniania rzadkich zdarzeń tłumaczy się często heurystyką dostępności, której stosowanie powoduje, że na oszacowanie prawdopodobieństwa zdarzenia wpływa łatwość, z jaką przypominamy sobie zajście podobnego zdarzenia w przeszłości (Tversky i Kahneman, 1974). Heurystyką tą posłużyli się Lichtenstein i jego współpracownicy (1978), aby wyjaśnić otrzymane wyniki popełniania systematycznych błędów w oszacowaniach frekwencji przyczyn zdarzeń śmiertelnych. Przykładowo, osoby badane znacznie przeceniały częstość zgonu z powodu szczepienia przeciw ospie (zob. rysunek 1). Takie rzadkie zdarzenia, jak śmierć w wyniku szczepienia, najczęściej są dramatyczne, nietypowe i silnie nacechowane emocjonalnie. Łatwiej je pamiętamy i dlatego mogą prowadzić do obserwowanego przeszacowania ich prawdopodobieństwa (Hertwig i in., 2005). Heurystyką dostępności nie można jednak wyjaśnić zjawiska przeszacowania/niedoszacowania w pozostałych przypadkach, kiedy subiektywne oceny prawdopodobieństwa dotyczą nie tylko częstości zdarzeń przechowywanych w pamięci, ale również innych formatów, jak obserwowane sekwencje zdarzeń, proporcje czy wartości numeryczne. Drugim powodem tego zjawiska (zaobserwowanego przy stosowaniu różnych formatów służących do reprezentacji informacji o prawdopodobieństwie) może być mechanizm regresji do średniej (Hertwig i in., 2005). W jego efekcie prawdopodobieństwa poniżej wartości 0.5 są przeceniane a powyżej niedoceniane. Ponadto, wielu badaczy zaobserwowało, że precyzyjność oszacowań wzrastała jak tylko wyświetlana proporcja odbiegała od wartości 0.5. Oszacowania okazywały się bardziej

46 wrażliwe na zmiany wartości, gdy były bliżej punktów ekstremalnych: 0 i 1 niż w środku skali (podsumowanie w DuCharme i in., 1962). Subiektywne zniekształcanie rzeczywistych częstości, które może reprezentować informacje o prawdopodobieństwie, prawie w ogóle nie było badane w kontekście samego podejmowania decyzji w warunkach ryzyka (zwłaszcza, jeżeli chodzi o numeryczny format prawdopodobieństwa). Problematyka ta stanowi jeden z przedmiotów badań opisanych w niniejszej pracy.

47 4. Wagi prawdopodobieństwa w decyzjach ryzykownych

W poprzednim rozdziale pokazałam, że obiektywne prawdopodobieństwa mogą być subiektywnie zniekształcane w pomiarze bezpośrednim, w ocenach. W tym rozdziale poruszam kwestię subiektywnego zniekształcania prawdopodobieństwa w pomiarze pośrednim poprzez przyjęcie określonego modelu decyzyjnego w warunkach ryzyka. Z przyjętych założeń modelu maksymalizacji oczekiwanej użyteczności, o którym była mowa w rozdziale pierwszym, wynika, że użyteczność opcji ryzykownych jest liniową funkcją prawdopodobieństw. Oznacza to, że ludzie przyjmują obiektywne wartości prawdopodobieństw i te niezmienione prawdopodobieństwa stanowią wagę dla danych wartości ryzykownych opcji. Niedługo jednak po zaproponowaniu tego modelu pojawiły się wątpliwości czy ludzie w swoich wyborach rzeczywiście kierują się obiektywnymi wartościami prawdopodobieństwa? Istotnie już pierwsze badania rozważające tą kwestię wskazywały na subiektywne traktowanie danych prawdopodobieństw. Word Edwards przeprowadził całą serię badań, w których pokazał, że: (1) różni ludzie różnie skalowali te same obiektywne prawdopodobieństwa oraz (2) osoby badane przejawiały pewne preferencje, co do niektórych wielkości prawdopodobieństw (1953, 1954a, 1954b). Edwards w swoich eksperymentach obserwował, jak ludzie obstawiają różne zakłady pieniężne. Służyła mu do tego maszyna podobna do gry w „Pinball”, na dole której znajdowało się osiem ponumerowanych otworów. Do każdego z nich, z prawdopodobieństwem równym 1/8, mogła wpaść tocząca się z góry kulka. Edwards zadawał uczestnikom wybory między dwiema grami, których wyniki zależne były od tego, do jakich otworów trafi kulka. W jednym z eksperymentów badani mieli wybór między parami zakładów trzech typów: z dodatnią, ujemną i zerową wartością oczekiwaną. W każdym wariancie wyboru

48 dokonywano pomiędzy zakładami o tej samej wartości oczekiwanej, tak że z obiektywnego punktu widzenia nie było powodu, dla którego jeden zakład miałby być preferowany względem drugiego. Otrzymane wyniki pokazały jednak dwa czynniki, które miały istotny wpływ na wybór gry w parze. Po pierwsze, ogólna skłonność osoby do ryzyka - np. strata większej ilości pieniędzy, ale z mniejszym prawdopodobieństwem, była preferowana względem straty mniejszej ilości pieniędzy, ale z większym prawdopodobieństwem. Po drugie, wybór był determinowany przez specyficzne preferencje co do pewnych wielkości prawdopodobieństw, niezależne od wielkości wypłat w grze. Badani systematycznie preferowali zakłady zawierające prawdopodobieństwo wygranej 4/8 nad każde inne oraz unikali gier zawierających wygraną z prawdopodobieństwem 6/8 (odwrotny rezultat zaobserwowany był w przypadku strat, czyli par gier z negatywną wartością oczekiwaną). To pokazało, że wybór w warunkach ryzyka nie koniecznie był determinowany przez obiektywne prawdopodobieństwa, a raczej osoby badane brały pod uwagę pewne subiektywne wartości prawdopodobieństw. Innym interesującym badaniem z tego okresu, w którym podjęto próbę wyznaczenia subiektywnej skali prawdopodobieństwa, przeprowadzili Preston i Baratta (1948). W swojej pracy przyjęli prosty model, według którego ludzie maksymalizują subiektywnie oczekiwaną wartość (ang. subjective expected value, SEV) tzn.: n

SEV = ∑ s ( p i ) x i , i =1

gdzie s(pi) - psychologiczne prawdopodobieństwo związane z i-tym wynikiem xi. W modelu tym badacze, zamiast mierzyć subiektywną wartość wypłat, jak to miałoby miejsce przyjmując model EU, dokonali pomiaru subiektywnych wartości prawdopodobieństw. Stwierdzili, że psychologiczne prawdopodobieństwo było przeszacowywane względem prawdopodobieństw o wartości p=0.01 i p=0.05 natomiast niedoszacowane względem p = 0.25, 0.50, 0.75, 0.95, 0.99. Punkt przecięcia psychologicznego prawdopodobieństwa z

49 linią identyczności znajdował się poniżej p=0.25. Podobny kierunek zniekształcania obiektywnych prawdopodobieństw uzyskali również Griffith (1949) analizując obstawiane zakłady w wyścigach konnych, czy też Sprowls (1953) analizując rzeczywiste loterie. Edwards w przeglądowych artykułach (1954c, 1961) zwracał uwagę, że przytoczone badania miały pewne słabości metodologiczne i zbyt rzadko były przeprowadzane w odpowiednio kontrolowanych warunkach. Brakowało im też teoretycznych przesłanek do opisania prawa rządzącego połączeniem wartości wypłat i związanych z nimi prawdopodobieństw. Wskazały jednak na możliwość istnienia pewnych subiektywnych odchyleń w traktowaniu obiektywnego prawdopodobieństwa oraz na to, że taka subiektywna skala niekoniecznie spełnia zasady matematycznego prawdopodobieństwa. Na przykład badani mogli ocenić szansę na więcej niż 50% zarówno dla zaistnienia danego zdarzenia, jak i dla jego niezaistnienia. Dopiero w 1979 powstał pełny model, w którym obiektywne prawdopodobieństwa zostały zastąpione subiektywnymi wagami decyzyjnymi, będącymi pewną nieliniową transformacją obiektywnego prawdopodobieństwa. Zaproponowali go Kahneman i Tversky (1979) w teorii perspektywy (ang. prospect theory, w skrócie PT), która stała się alternatywą dla teorii oczekiwanej użyteczności. Zanim do tego doszło, Kahneman i Tversky zanalizowali wiele naruszeń aksjomatów racjonalnego zachowania przyjętych przez model EU, do których należał między innymi postulat o niezależności preferencji (s. 12). Przypomnę, że warunek ten głosił, że jeżeli decydent woli loterię L1 od loterii L2, to preferencja ta nie powinna się zmienić pod wpływem liniowej kombinacji tych dwóch loterii z dowolną trzecią L3 tj. loteria postaci (L1, p; L3, 1-p) powinna być preferowana względem loterii postaci (L2, p; L3, 1-p) dla każdej opcji L3 i prawdopodobieństwa p (z przedziału między 0 i 1). Inaczej mówiąc, identyczne wypłaty w dwóch różnych loteriach

50 nie powinny mieć wpływu na ustalenie preferencji między tymi loteriami. Przyjęcie tego założenia oznacza, że (oczekiwana) użyteczność loterii jest liniową funkcją prawdopodobieństwa. Chyba najbardziej znanym przykładem, pokazującym naruszenie aksjomatu niezależności jest tzw. paradoks Allais (Allais, 1953). Allais postawił dwa problemy decyzyjne. W pierwszym rozważał wybór między: - loterią A, która daje bez ponoszenia ryzyka wypłatę w wysokości 1 000 000 $, - loterią B, która daje szansę 10% na wygranie 5 000 000 $ lub szansę 89% na wygranie 1 000 000 $ lub też nie wypłaca niczego z prawdopodobieństwem 1%. W drugim problemie rozważał wybór między: - loterią C, która daje szansę 11% na wygranie 1 000 000 $ lub nie wypłaca niczego w przeciwnym wypadku, - loterią D, która daje szansę 10% na wygranie 5 000 000 $ lub nie wypłaca niczego w przeciwnym wypadku. Okazuje się, że w sytuacji pierwszej większość osób preferuje loterię A, natomiast w drugiej D, a taki układ preferencji narusza aksjomat niezależności. Z wyboru pierwszego wynika, że użyteczność opcji A jest większa niż użyteczność opcji B. Zgodnie z modelem maksymalizacji oczekiwanej użyteczności możemy zapisać następującą nierówność: u(1mln)>0.10×u(5mln)+0.89×u(1mln)+0.01×u(0mln). Po prostych przekształceniach otrzymujemy: 0.11×u(1mln) )>0.10×u(5mln). Z drugiego wyboru wynika, że użyteczność opcji D jest większa niż użyteczność opcji C, co tym razem prowadzi do odwrotnej nierówności: 0.11×u(1mln)0.33×u(2500), podczas gdy z wyboru drugiego otrzymujemy odwrotną nierówność: 0.34×u(2400)0, staje się bardziej atrakcyjna, gdy prawdopodobieństwo p wygranej w obu opcjach zredukowane jest w tej samej proporcji. Przykładowo Kahneman i Tversky (1979) zaproponowali osobom

52 badanym wybór pomiędzy: (J) otrzymaniem 3000$ z pewnością a (K) szansą 80% na wygranie 4000$. W drugiej sytuacji natomiast postawili badanych przed wyborem pomiędzy: (M) szansą 25% na otrzymanie 3000$, a (N) szansą 20% na otrzymanie 4000$ (czyli czterokrotnie zredukowali prawdopodobieństwa wygranych w loteriach prezentowanych w wyborze pierwszym). W sytuacji pierwszej badani częściej wybierali opcję mniej ryzykowną, czyli (J) natomiast w drugiej częściej bardziej ryzykowną (N). Ponownie otrzymany układ preferencji nie jest możliwy, gdyby prawdopodobieństwa były traktowane liniowo, zgodnie z postulatem niezależności. Powyższe obserwacje i kilka innych zaowocowały nowym podejściem do decyzji w warunkach ryzyka. W teorii perspektywy przyjmuje się, że całkowita subiektywna wartość V opcji ryzykownej, ' = (( , ) ; … ; (, , ), ; … ; (- , )- ), gdzie ∑-,3 ), = 1 , zależy od dwóch funkcji: funkcji wartości v() zdefiniowanej na wypłatach opcji L oraz funkcji wag decyzyjnych π() zdefiniowanej na zadanych prawdopodobieństwach związanych z wypłatami. Funkcja V przyjmuje postać sumy średnich wartości wypłat ważonych subiektywnymi wagami prawdopodobieństwa: 4(') = ∑-,3 5(), )6((, ). Funkcja wartości v() odpowiada funkcji użyteczności u() modelu EU, z tą różnicą, że nie jest zdefiniowana na końcowych poziomach bogactwa, a raczej zdeterminowana przez jego zmiany zależne od ustalonego punktu odniesienia. Zmiany te przyjęło się nazywać zyskami – powyżej punktu odniesienia i stratami - poniżej tego punktu. Punktem odniesienia może być np. bieżący zasób, który jednostka posiada. Na wybór tego punktu może mieć również wpływ tzw. efekt sformułowania problemu, który ma miejsce w pierwszym etapie procesu decyzyjnego (w tzw. fazie edytowania). Kolejna różnica między funkcją wartości a użyteczności to jej kształt. Przyjmuje się, że funkcja wartości jest wklęsła dla zysków a wypukła dla strat, co oznacza, że w dziedzinie zysków ludzie

53 wykazują raczej awersję do ryzyka natomiast skłonność w dziedzinie strat. Przypomnę, że w modelu oczekiwanej użyteczności przyjmowano wklęsłą funkcję użyteczności u( ) w obu obszarach tzn. zakładano, że ludzie wykazują ogólnie awersję do ryzyka. Ponadto, funkcja wartości jest bardziej stroma dla strat niż dla zysków, co oznacza, że ludzie wykazują awersję do straty i silniej reagują na stratę niż na zysk tej samej wielkości (odczuwając względnie większą przykrość z powodu straty niż radość z relatywnie takiego samego zysku). Założenia te prowadzą do asymetrycznej, S-kształtnej funkcji wartości. Drugim elementem wchodzącym w skład oceny opcji ryzykownej jest funkcja wag decyzyjnych π(). Kahneman i Tversky postulują, że decydent waży wartości wyników opcji nie poprzez same prawdopodobieństwa (obiektywne - jak w modelu EU, albo subiektywne - jak w modelu SEU), ale raczej przez wagi decyzyjne, będące pewną nieliniową transformacją prawdopodobieństw. Tak więc funkcja wag decyzyjnych nie jest ani obiektywnym prawdopodobieństwem, ani stopniem przekonania w rozumieniu Savage’a. Po pierwsze, nie spełnia ona aksjomatów matematycznego prawdopodobieństwa, a po drugie, nie tłumaczy jak te prawdopodobieństwa są generowane. Wyraża raczej ilość uwagi, jaka jest przypisana danemu wynikowi wybieranej opcji. Gdy znane są decydentowi obiektywne prawdopodobieństwa, to wykorzystywane są „od razu” do przypisywania wag wartościom konsekwencji, z którymi są związane. Gdy decydent działa w warunkach niepewności, to najpierw ocenia prawdopodobieństwa zdarzeń zgodnie z własnymi przekonaniami, a dopiero wówczas wykorzystuje je do tworzenia wag (Tversky i Fox, 1995; Fox i Tversky, 1998;). Hipotetyczna funkcja wag decyzyjnych π() w oryginalnej teorii perspektywy ma kilka głównych własności. Po pierwsze, jest to funkcja rosnąca określona na przedziale [0,1] i π(0)=0 i π(1)=1. Po drugie, wagi zdarzeń przeciwnych nie sumują się tak jak zwykłe prawdopodobieństwa do jednego, czyli π ( p ) + π (1 − p ) < 1 dla każdego p (tzw.

54 subpewność funkcji π()). Kolejna własność funkcji π() związana jest z opisanym wcześniej efektem wspólnej proporcji i mówi, że dla ustalonego stosunku prawdopodobieństw, stosunek wag decyzyjnych jest bliższy jedności, gdy prawdopodobieństwa te są niskie, niż gdy są wysokie tzn.

π ( pq ) π ( pqr ) . Z efektu wspólnej konsekwencji zaś wynika, że ≤ π ( p) π ( pr )

funkcja π() jest bardziej wrażliwa na zmiany prawdopodobieństw blisko punktów 0 i 1. Wymienione własności implikują nieliniowy kształt funkcji wag decyzyjnych względem prawdopodobieństw oraz to, że niskie prawdopodobieństwa są przeważane natomiast pozostałe niedoważane. Inaczej mówiąc, ludzie nadają większe znaczenie niskim prawdopodobieństwom niż wynikałoby to z ich obiektywnej wartości, a mniejsze znaczenie średnim i wysokim. Kahneman i Tversky podkreślali, że funkcja wag decyzyjnych nie zachowuje się dobrze na końcach przedziału obiektywnego prawdopodobieństwa. W konsekwencji, zjawisko przeważania/niedoważania obiektywnych wartości prawdopodobieństw ma bezpośredni wpływ na stosunek jednostki do ryzyka. W teorii perspektywy zarówno kształt funkcji wartości, jak i funkcji wag decyzyjnych wpływają na nastawienie wobec ryzyka tworząc tzw. czteropolowy schemat postaw wobec ryzyka (ang. the fourfold pattern of risk attitude) taki, że: (i) w dziedzinie zysków ludzie zachowują ogólnie awersję wobec ryzyka, oprócz mało prawdopodobnych zysków, gdzie raczej przejawiają skłonność do zachowań ryzykownych (jak w przypadku udziału w grach losowych typu Lotto), (ii) w dziedzinie strat ludzie są na ogół skłonni do podejmowania ryzyka, oprócz mało prawdopodobnych strat, gdzie wykazują częściej awersję (jak w przypadku ubezpieczania się od następstw rzadkich zdarzeń).

55 Wybory zgodne z tym schematem były potwierdzane min. przez Kahnemana i Tversky’ego (1979), ale również wcześniej przez Fishburn i Kochenberger (1979) czy Hershey i Schoemaker (1980). W celu wyznaczenia empirycznie funkcji wag decyzyjnych, przyjmowano najczęściej model z rozszerzonej wersji teorii perspektywy tzw. skumulowanej teorii perspektywy (ang. cumulated prospect theory, w skrócie CPT) Kahnemana i Tversky’ego (1992). W modelu CPT wagi decyzyjne π()8 są po pierwsze zależne od znaku, tzn. wyznaczane są osobno dla zysków i osobno dla strat, a po drugie są uzależnione od porządku wypłat loterii. Zgodnie z CPT całkowita „użyteczność” V loterii L = ( x1 , p1 ;K; xn , pn ) , gdzie

x1 ≤ K ≤ x r ≤ 0 ≤ x r +1 ≤ K ≤ x n wynosi: r



VCPT ( L) = ∑ π i v ( xi ) + i =1

n

∑π

j = r +1

+ j

v( x j ) .

Wagi decyzyjne dla strat i zysków zdefiniowane są odpowiednio przez: i

i −1

k =1

k =1

π i − = w − (∑ p k ) − w − (∑ p k ) dla i ≥ 2 oraz π 1 − = w − ( p1 ) +

n

n

. +

π j = w (∑ p k ) − w ( ∑ p k ) dla j ≤ n − 1 oraz π n = w ( p n ) +

k= j

+

+

k = j +1

W formule CPT przez funkcję wag decyzyjnych w() transformowane są „prawdopodobieństwa skumulowane” dla zysków (czyli takie, które opisują prawdopodobieństwo otrzymania danej wypłaty pozytywnej lub jakiejkolwiek lepszej) oraz „zdekumulowane” dla strat (czyli prawdopodobieństwo otrzymania danej wypłaty negatywnej lub jakiejkolwiek gorszej). Stąd wagi decyzyjne dla zysków i strat otrzymuje się jako różnice pomiędzy transformowanymi wartościami odpowiednio skumulowanych i zdekumulowanych prawdopodobieństw.

8

W modelu CPT π oznacza wagi decyzyjne zaś funkcja wag decyzyjnych oznaczana jest przez w().

56 W modelu CPT przyjmuje się odwróconą S-kształtną funkcję wag decyzyjnych w( ), która dla niskich wartości prawdopodobieństw jest wklęsła (zjawisko przeważania), a dla średnich i wysokich wypukła (zjawisko niedoważania). Wynika to bezpośrednio z własności krańcowej malejącej wrażliwości na zmiany prawdopodobieństw wraz z oddaleniem od punktów odniesienia, które w przypadku funkcji wag decyzyjnych przyjmują wartości 0 i 1 (interpretowane odpowiednio: „z pewnością się nie zdarzy” i „z pewnością się zdarzy”). Według tej zasady przyrosty blisko końców przedziału [0,1] mają większe znaczenie niż przyrosty na środku skali. Ponadto funkcja ta jest regresyjna, tj. przecinająca linię identyczności obiektywnego prawdopodobieństwa i asymetryczna, z punktem przegięcia poniżej prawdopodobieństwa 1/3 (co pokazały liczne badania). W wielu badaniach empirycznych, pomimo stosowania różnych metod pomiaru i przyjmowania różnych postaci parametrycznych funkcji wag decyzyjnych, potwierdzono powyżej wymienione własności funkcji wag decyzyjnych, a zwłaszcza przeważanie niskich i niedoważanie średnich i wysokich prawdopodobieństw (m. in. Tversky i Kahneman, 1992, Camerer i Ho, 1994, Tversky i Fox, 1995; Wu i Gonzales, 1996; Gonzalez i Wu, 1999; Abdellaoui, 2000; Bleichrodt i Pinto, 2000). Obszerne podsumowanie można znaleźć w artykule Stotta (2006). Poniższy rysunek przedstawia typowy empiryczny kształt funkcji wag decyzyjnych uzyskiwany w badaniach.

57

Rysunek 5. Typowa empiryczna funkcja wag decyzyjnych. Źródło: opracowanie własne.

4.1. Dwa formaty prawdopodobieństwa

W tradycji większości badań nad decyzjami w warunkach ryzyka decydentom prezentowano opcje (najczęściej loterie) za pomocą pełnej informacji dotyczącej możliwych wyników tej opcji i prawdopodobieństw z nimi związanych. Przykładowo, proponowano wybór pomiędzy otrzymaniem 10 zł z prawdopodobieństwem 100% lub udziałem w loterii, w której szansa na wygranie 1000 zł wynosi 5%. Stosowano przy tym różne numeryczne sposoby informowania o prawdopodobieństwie, jak procenty, ułamki dziesiętne, np. 0.05, częstości, np. 5 na 100. W ostatniej dekadzie wielu badaczy zwróciło uwagę, że ludzie rzadko w świecie realnym wykorzystują taki sposób informowania o prawdopodobieństwie niepewnych zdarzeń (a mimo to w większości badań laboratoryjnych się go stosuje i jednocześnie wyniki są uogólniane na rzeczywiste wybory). W celu przełożenia rzeczywistych problemów decyzyjnych na sztuczny świat laboratoryjnych eksperymentów powstał nowy paradygmat badawczy rozróżniający decyzje z opisu (takie jak w powyższym paragrafie) od decyzji z doświadczenia. W przypadku tych drugich decydent dowiaduje się o

58 rozkładzie wyników opcji ryzykownej w procesie uczenia się, poprzez doświadczanie (obserwację) częstości wystąpienia wyników. Na przykład obserwuje na ekranie komputera sekwencję wyników loterii, która w 80 przypadkach na 100 kończy się wygraną, a w 20 przypadkach – brakiem wygranej (Hertwig i in., 2004; Hau i in., 2008; Ungemach i in., 2009; Rakow i Rahim, 2010; Hertwig, 2012). Ogólnie, procedura stosowana w badaniach nad decyzjami bazującymi na doświadczeniu zakłada swobodne pobieranie próby losowej (ang. free sampling). W podstawowej wersji polega to na tym, że osoba badana widzi na ekranie swojego komputera dwie karty (reprezentujące dostępne opcje wyboru), a każda z nich ma zadany a priori rozkład wypłat, o którym uczestnik eksperymentu nic nie wie. Naciskając na każdą z kart dowolną ilość razy i w dowolnej kolejności, decydent dowiaduje się o możliwych wypłatach i ich prawdopodobieństwach. Jak tylko poczuje się wystarczająco przekonany o wiedzy na temat prezentowanych loterii, proszony jest o wybranie jednej z nich (Hertwig i in., 2004)9. Okazuje się, że taka procedura może prowadzić do odmiennych decyzji niż wówczas, gdy loterie przedstawiane są w tradycyjny, opisowy sposób i dotyczy to głównie traktowania niskich prawdopodobieństw. Jednym z pierwszych badań, które pokazuje różnice między decyzjami z opisu i doświadczenia przeprowadził Hertwig razem z jego współpracownikami (2004). W eksperymencie każdy z uczestników zapoznawał się z sześcioma problemami decyzyjnymi (w wielu następnych badaniach stosowano dokładnie te same 6 problemów, dlatego też postanowiłam dokładnie je opisać w tabeli 1). Każda

9 Decyzje z doświadczenia są pochodną badań nad tzw. decyzjami z informacją zwrotną (z ang. feedback based decision), gdzie osoby badane otrzymują informację o wypłatach i prawdopodobieństwach opcji ryzykownych, jak przy decyzjach z opisu ale wybory mogą być powtarzane i dodatkowo za każdym razem decydenci dostają informację zwrotną o wyniku wybranej przez siebie opcji (procedurę tę stosowali m.in.: Baron i Erev, 2003; Erev, Ert i Yechiam (2008); Jessup, Bishara i Busemeyer (2008)). Hertwig i in. (2004) argumentują, że paradygmat swobodnego pobierania próby jest bliższy decyzjom z opisu niż decyzje z informacją zwrotną, bo najpierw następuje eksploracja dostępnych opcji a później dopiero wybór (bez informacji o wyniku). W przeprowadzonych badaniach nad decyzjami z informacją zwrotną otrzymuje się wyniki zbliżone do tych nad decyzjami z doświadczenia. Procedura ta jednak nie będzie przedmiotem zainteresowania niniejszej pracy.

59 decyzja składała się z dwóch loterii: z wyższą wartością oczekiwaną (opcja W) i z niższą wartością oczekiwaną (opcja N). Respondenci podzieleni byli na dwie grupy: pierwsza dokonywała wyboru w warunkach decyzji z opisu, a druga w warunkach decyzji z doświadczenia. W obu grupach porównywano jaki procent osób badanych wybierał loterię W z wyższą wartością oczekiwaną w każdej ustalonej parze loterii. Wyniki prezentuje tabela 1.

Tabela 1. Loterie i wybory osób badanych w badaniu Hertwig i in. (2004) Grya Problem decyzyjny 1 2 3 4 5 6 a

Opcja W (4, .8) (4, .2) (-3) (-3) (32, .1) (32, .025)

Procent uczestników, którzy wybrali loterię W Decyzje Decyzje Opcja N z opisu z doświadczenia (3) 36 88 (3, .25) 64 44 (-32, .1) 64 28 (-4, .8) 28 56 (3) 48 20 (3, .25) 64 12

Komórki zaznaczone na szaro oznaczają gry zawierające rzadkie zdarzenie.

Hertwig i jego współpracownicy zaobserwowali, że przeciętna różnica między obiema grupami eksperymentalnymi w wyborze opcji z wyższą wartością oczekiwaną wyniosła 36 punktów procentowych. Ponadto stwierdzili, że wybory, w grupie podejmującej decyzje na podstawie opisu, były zgodne z czteropolowym schematem stosunku do ryzyka z teorii perspektywy, w przeciwieństwie do grupy z decyzjami bazującymi na doświadczeniu. Przykładowo, weźmy wybór w problemie pierwszym w tabeli 1 pomiędzy opcją N, która daje 3$ z pewnością a opcją W, która oferuje 4$ z prawdopodobieństwem 0.8 lub zero w przeciwnym wypadku. W warunkach opisowych respondenci zachowywali się zgodnie z tym, co przewiduje czteropolowy schemat stosunku do ryzyka i większość - 64% - wybierała opcję pewną N (czyli zgodnie z awersją do ryzyka dla zysków i wysokich prawdopodobieństw), w przeciwieństwie do osób z

60 grupy z doświadczeniem, gdzie tylko 12% preferowało tę opcję (większość wybierała opcję W - bardziej ryzykowną). Autorzy sugerują, że taki wybór w grupie z opisem jest wynikiem przeważania niskiego prawdopodobieństwa (tj. szansy 0.2 na uzyskanie wypłaty 0, którą dawała opcja W), natomiast w grupie z doświadczeniem niedoważania. Według autorów, w warunkach decyzji bazujących na doświadczeniu decydenci zachowują się tak, jakby rzadkie zdarzenia były niedoważane, w przeciwieństwie do decyzji w warunkach opisowych, gdzie są przeważane. Do podobnych wniosków doszli również inni badacze, którzy wykorzystywali procedurę swobodnego pobierania próby. Niektórzy złagodzili wnioski o niedoważaniu niskich prawdopodobieństw w decyzjach z doświadczenia, do tego, że rzadkie zdarzenia nie są tak mocno przecenianie jak w decyzjach z opisu (min. Hau i in., 2008; Weber, Shafir i Blais, 2004; Rakow, Demesy i Newell, 2008; Ungemach i in., 2009). Próba wyjaśnienia różnych preferencji w decyzjach z opisu i doświadczenia: błąd pobieranej próby Obserwowaną różnicę w preferencjach w zależności od rodzaju zadania decyzyjnego nazwano w literaturze luką między doświadczeniem a opisem (ang. experience–description gap). Ustalenie przyczyny tej luki jest jednym z głównych zadań większości badań wykorzystujących paradygmat decyzji z doświadczenia. Za podstawowe wyjaśnienie tego zjawiska uważa się tzw. błąd pobieranej próby (ang. sampling error). Na czym polega ów błąd? Uczestnicy eksperymentu Hertwig i in. (2004) sami decydowali o liczbie obserwowanych, generowanych losowo wypłat każdej loterii. Okazało się, że średnia liczba obserwowanych wypłat oscylowała wokół 15, czyli pobierane próby nie mogły być wystarczająco reprezentatywne. Badani uzyskiwali raczej dwumianowy rozkład wypłat, w którym bardzo rzadkie zdarzenia były reprezentowane w niedostatecznym stopniu (w małych próbkach jest bardziej prawdopodobne, że badani

61 zaobserwują relatywnie mniej rzadkich zdarzeń niż to wynika z rozkładu). Fox i Hadar (2006) twierdzą, że jeżeli uzyskane wyniki w badaniu Hertwig i in. (2004) rozważane będą w kontekście „zaobserwowanego” (rzeczywiście doświadczonego) rozkładu wypłat, który jest różny od tego obiektywnie zadanego, to nie koniecznie uzyskamy niedoważanie niskich prawdopodobieństw10. Nasuwa się pytanie, czy różnica między decyzjami z opisu i z doświadczenia wynika wyłącznie z przyczyny czysto statystycznej? Hadar i Fox (2009) postawili hipotezę o asymetrii informacji, która mówi, że rozstęp ten bierze się wyłącznie z różnic w dostępnej informacji dla decydenta. Niereprezentatywne próby otrzymywane na drodze swobodnego pobierania próby powodują, że w decyzjach z doświadczenia decydent inaczej rozumie w sensie ilościowym rozkład wypłat niż w decyzjach z opisu. Wydaje się więc, że rozstęp powinien zniknąć kiedy informacje nabywane zarówno w paradygmacie decyzji z opisu, jak i decyzji z doświadczenia będą równoważne. W wielu kolejnych badaniach postanowiono sprawdzić, czy wyeliminowanie błędu próby zredukuje obserwowany rozstęp między decyzjami z opisu i z doświadczenia. W tym celu zastosowano kilka różnych procedur i otrzymano niejednoznaczne wyniki. Badaniem, w którym wyeliminowanie błędu próby wpłynęło na usunięcie rozdźwięku między decyzjami z opisu, a z doświadczenia, było wykonane przez Rakow i współpracowników (2008). Zastosowali autorski zabieg nazwany przez nich procedurą powiązania (ang. yoked procedure). Procedura powiązania polegała na tym, że utworzono dwie „bliźniacze” grupy eksperymentalne: w pierwszej grupie osoby doświadczały wypłat jak w metodzie swobodnego pobierania próby; w drugiej grupie przedstawiano osobom te same rozkłady wypłat, co doświadczane w grupie pierwszej, ale numerycznie. Zabieg ten

10

Fox i Hadar powtórzyli analizę danych z badania Hertwig i in. (2004) i zastąpili obiektywne prawdopodobieństwa tymi doświadczonymi przez badanych i stwierdzili, że dokładność predykcyjna modelu CPT, z parametrami funkcji wag decyzyjnych uzyskanymi w badaniu Tversky’ego i Kahnemana (1992) dla decyzji z doświadczenia wzrosła z 40% do 63%.

62 spowodował, że rzeczywiście zniknęła różnica w wyborach między obiema grupami. Niemniej, gdy procedura ta została powtórzona przez Hau i in. (2010) z lekką modyfikacją, wyniki już nie były takie oczywiste. Badacze podzielili grupę z doświadczeniem na pięć wariantów, które różniły się ustaloną wielkością pobieranej próby, a mianowicie próby zawierały 5, 10, 20, 30 i 50 wypłat. Tym razem luka między doświadczeniem a „powiązaną” grupą opisową zanikała ale tylko dla małych prób (jak 5), natomiast dla dużych (jak 50) znowu się pojawiał. Zdecydowana większość badań pokazuje, że wyeliminowanie błędu próby (lub zmniejszanie go) wpływa co najwyżej na zmniejszenie rozmiaru luki między decyzjami z opisu i doświadczenia ale nie redukuje jej całkowicie (m.in.: Ungemach i in., 2009; Hau i in., 2008 i 2010, Camilleri i Newell, 2009). Przykładowo, Hau i in. (2008) redukują zniekształcenie pobieranej próby na dwa sposoby: (i) poprzez wzrost bodźca motywacyjnego (zastosowanie większej wypłaty za udział w badaniu), co doprowadziło do szerszej eksploracji dostępnych opcji wyboru, czyli do wzrostu wielkości pobieranej próby (wysiłek decydentów włożony w poszukiwanie informacji o rozkładzie wypłat zwiększono do obserwacji średnio 33 wypłat (na problem) w porównaniu z obserwacją 11 wypłat w warunkach swobodnego pobierania próby); (ii) poprzez ustalenie wielkości próby (ang. fixed sampling) tzn. badani zmuszeni byli do odkrycia 100 kart na problem decyzyjny (czyli w obu loteriach łącznie). Okazało się, że wraz ze wzrostem wielkości pobieranej próby rozstęp pomiędzy decyzjami z opisu a decyzjami z doświadczenia zmalał, ale nie został całkowicie zredukowany. Podobną procedurę ustalonej wielkości próby zastosowali Ungemach i in. (2009). Mimo, że badani doświadczali częstości takich jak numerycznie zadane (obserwowali próbę 40 wypłat na każdą opcję w problemie), to wybory znów różniły się od tych w decyzjach z opisu – różnica ta zmniejszyła się w porównaniu z warunkami

63 swobodnego pobierania próby, ale nie zniknęła całkowicie. Wyniki obu badań przedstawia tabela 2.

Tabela 2. Wybory osób badanych w badaniu Hau i in. (2008) oraz Ungemach i in. (2009) Loteriea

Procent badanych, którzy wybrali grę W Hau i in. (2008)

W

N

Decyzje z opisu

Decyzje z doświadczenia (trzy warunkib) (a) (b) (c)

Ungemach i in. (2009) Decyzje z opisu

Decyzje z doświadczenia

Swobodne ustalone Problem próbkowanie próbkowanie decyzyjny (4, .8) (3) 1 33 62 56 65 36 64 48 (4, .2) (3, .25) 2 72 55 51 78 72 56 60 (-3) (-32, .1) 3 37 11 36 30 64 16 28 (-3) (-4, .8) 4 31 45 36 55 36 68 32 (32, .1) (3) 5 63 15 36 40 48 8 16 (32, .025) (3, .25) 6 47 28 46 38 52 28 28 a W - gra z wyższą a N - gra z niższą wartością oczekiwaną. b (a) swobodne próbkowanie; (b) wzrost bodźca motywacyjnego do poszukiwania informacji; (c) ustalone próbkowanie

Z otrzymanych wyników badań nad błędem pobieranej próby wydaje się, że wyjaśnienie luki między decyzjami z opisu i doświadczenia nie może być tylko natury statystycznej. Luka ta wydaje się pozostawać nawet wówczas, gdy informacje nabywane w obu warunkach są równoważne. Być może to procesy poznawcze towarzyszące nabywaniu i ocenie pozyskiwanej informacji o rozkładzie wypłat z doświadczenia są odmienne od tych towarzyszących decyzjom z opisu? Przykładowo, w wielu badaniach sprawdzano, czy porządek wypłat, obserwowany przez osobę badaną w decyzjach z doświadczenia, istotnie wpływa na inne preferencje niż te w decyzjach z opisu. Wypłaty otrzymywane sekwencyjnie nie muszą być przecież wszystkie traktowane tak samo przez decydenta. Niektórzy badali zatem wpływ tzw. efektu świeżości (ang. recency effect), który polega na większym znaczeniu wypłat obserwowanych na końcu pobierania próby niż tych z początku próbkowania. Często w praktyce codziennej można się spotkać z takimi sytuacjami: wydaje się, że ludzie chętniej ubezpieczą się od np. powodzi, gdy właśnie wystąpiło zalanie ich własności. Efekt świeżości nie został jednoznacznie potwierdzony.

64 Raz jest obserwowany – jak u Hertwig i in. (2004), którzy sprawdzili, że druga połowa obserwowanej próby wypłat lepiej przewidywała wybory niż pierwsza (75% w porównaniu z 59%). Innym razem efekt ten jest częściowy – jak u Rakow i in. (2008), którzy potwierdzili jego wpływ, ale tylko w warunkach aktywnego pobierania próby wypłat przez badanego, w przeciwieństwie do warunków biernej obserwacji sekwencji wypłat danej loterii. Rakow i Rahim (2010) potwierdzili działanie efektu świeżości, ale tylko u dzieci w przeciwieństwie do dorosłych. Z kolei w badaniach Camilleri i Newell (2011), Hau i in. (2010) czy Ungemach i in. (2009) nie miał żadnego znaczenia. Oprócz poszukiwania możliwych przyczyn luki między decyzjami z opisu i z doświadczenia, prowadzone są inne kierunki badań wykorzystujące paradygmat decyzji bazujących na doświadczeniu. W artykułach podsumowujących dotychczasowe rezultaty eksperymentów zwraca się uwagę na bogactwo tego paradygmatu, m.in. na możliwość badania sekwencyjnego przetwarzania informacji, od czego zależy ilość informacji którą nabywamy, jaką rolę odgrywa pamięć i wnioskowanie, itd. (por. Hertwig 2009, 2012; Rakow i Newell, 2010; Camilleri i Newell, 2013). Nie będzie to jednak przedmiotem zainteresowań w dalszej części niniejszej pracy. Wróćmy do kwestii ważenia prawdopodobieństw w decyzjach z doświadczenia. Choć, na podstawie podejmowanych decyzji binarnych w badaniach na ten temat, wnioskuje się o niedoważaniu niskich prawdopodobieństw, to tylko w kilku porusza się kwestię zniekształcania prawdopodobieństw w funkcji wag decyzyjnych (i nie jest to podstawowy cel tych badań). We wspomnianym już badaniu Hau i in. (2008) sprawdzali moc predykcyjną kilkunastu modeli opisujących wybory dokonywane na podstawie doświadczanego rozkładu wypłat loterii. W tym celu, wyznaczali najpierw dla każdego z rozpatrywanych modeli optymalny zestaw parametrów dopasowanych do danych z badania Hertwig i in. (2004) (w obu badaniach bowiem wykorzystane były w procedurze

65 te same problemy decyzyjne). Następnie, Hau i jego współpracownicy, sprawdzali jak dobrze uzyskane parametry dla różnych modeli przewidują wybory dokonywane w ich eksperymencie. Okazało się, że najlepsze predykcje (69%) daje model maksimaksowy (należy zwrócić uwagę na fakt, że jest to heurystyka, która nie bierze w ogóle pod uwagę prawdopodobieństw) oraz model dwuetapowy skumulowanej teorii perspektywy (również 69%). Hau i in. przyjęli jednoparametryczną funkcję wag decyzyjnych wykorzystaną w badaniu Tversky’ego i Kahneman’a (1992), postaci:

)8 , ; 0 (i tego się spodziewam dla średnich i wysokich wartości prawdopodobieństw).13 Im wyższa jest wartość ekwiwalentu pewnego (im decydent żąda wyższej wypłaty pewnej w zamian za rezygnację z udziału w ryzykownej grze), czyli im niższy wskaźnik

WPRij, tym większa skłonność do wyborów ryzykownych. Poniższe wykresy przedstawiają porównanie medialnych wartości wskaźnika WPR policzonych względem dziewięciu poziomów prawdopodobieństw wykorzystanych w loteriach (związanych z wyższą wypłatą) w podziale na grupy eksperymentalne.

WPR

-0,1

0,01

0,05

0,1

0,25

0,5

0,75

0,9

0,95

-0,6

-1,1

Opis Doświadczenie

-1,6

Rysunek 8. Względna premia za ryzyko WPR w podziale na grupy eksperymentalne.

13

0,99

WPR = 0 oznacza neutralne zachowanie wobec ryzyka.

83 Jak pokazuje rysunek 8, uczestnicy obu grup eksperymentalnych zachowywali się zgodnie z czteropolowym schematem postaw wobec ryzyka tzn.: - Osoby badane przejawiały skłonność do ryzyka dla niskich prawdopodobieństw (tj. poniżej 0.25). Zarówno w grupie z opisem jak i z doświadczeniem wskaźnik WPR wyszedł istotnie niższy od zera (test jednostronny Wilcoxona dla jednej próby, p