Biznesplan - Księgowość.  Porozumienie.  Życie i biznes.  Języki obce.  Historie sukcesów

Podejmowanie decyzji w warunkach niepewności Kahneman. Podejmowanie decyzji w warunkach niepewności

BIBLIOTEKA HUMANISTYCZNA ANDRIEJA PŁATONOWA

Daniel Kahneman, Paul Slovik, Amos Tversky

Podejmowanie decyzji w niepewności

Książka, na którą zwracamy uwagę, zawiera wyniki przemyśleń i badań eksperymentalnych zagranicznych naukowców, mało znanych rosyjskojęzycznemu czytelnikowi.

Mówimy o osobliwościach myślenia i zachowania ludzi przy ocenie i przewidywaniu niepewnych zdarzeń i wielkości, takich jak w szczególności szanse na wygraną lub zachorowanie, preferencje w wyborach, ocena przydatności zawodowej, ocena wypadków i wiele innych.

Jak przekonująco pokazuje książka, podejmując decyzje w niepewnych warunkach, ludzie zazwyczaj popełniają błędy, czasem dość istotne, nawet jeśli studiowali teorię prawdopodobieństwa i statystykę. Błędy te podlegają pewnym wzorcom psychologicznym, które zostały zidentyfikowane i dobrze potwierdzone eksperymentalnie przez badaczy.

Trzeba powiedzieć, że nie tylko naturalne błędy ludzkich decyzji w sytuacjach niepewności, ale także organizacja eksperymentów, które ujawniają te naturalne błędy, jest bardzo interesująca i praktycznie przydatna.

Można śmiało sądzić, że tłumaczenie tej książki będzie interesujące i przydatne nie tylko dla krajowych psychologów, lekarzy, polityków i różnych ekspertów, ale także dla wielu innych osób, które w ten czy inny sposób są związane z oceną i prognozą zasadniczo przypadkowe zdarzenia społeczne i osobiste.

Redaktor naukowy

Doktor psychologii

Profesor na Uniwersytecie Państwowym w Petersburgu

G.V. Sukhodolski,

Petersburg, 2004

Podejście do podejmowania decyzji przedstawione w tej książce opiera się na trzech kierunkach badań, które rozwinęły się w latach pięćdziesiątych i sześćdziesiątych XX wieku. Na przykład porównanie przewidywań klinicznych i statystycznych zainicjowane przez Paula Teehla; badanie prawdopodobieństwa subiektywnego w paradygmacie Bayesa, prezentowane w psychologii przez Warda Edwardsa; oraz badanie heurystyki i strategii rozumowania przedstawione przez Herberta Simona i Jerome'a ​​Brunera.

W naszej kolekcji znajduje się także współczesna teoria na styku podejmowania decyzji z inną gałęzią badań psychologicznych: badaniem atrybucji przyczynowej i codziennej interpretacji psychologicznej, którego pionierem był Fritz Heider.

Klasyczna książka Teala, opublikowana w 1954 roku, potwierdza fakt, że proste liniowe kombinacje stwierdzeń są lepsze od intuicyjnych ocen ekspertów w przewidywaniu istotnych kryteriów behawioralnych. Trwała intelektualna spuścizna tej pracy i burzliwe kontrowersje, które po niej nastąpiły, prawdopodobnie nie dowiodły, że klinicyści źle wykonali pracę, której, jak zauważył Teale, nie powinni byli się podejmować.

Była to raczej demonstracja znacznej rozbieżności między obiektywnymi miarami sukcesu ludzi w wykonywaniu zadań związanych z przewidywaniem a ich szczerymi przekonaniami na temat własnej produktywności. Wniosek ten dotyczy nie tylko klinicystów i przewidywań klinicznych: opinie ludzi na temat tego, w jaki sposób dochodzą do wniosków i jak dobrze to robią, nie mogą być traktowane jako podstawa.

W końcu badacze kliniczni często wykorzystywali siebie lub swoich przyjaciół jako obiekty, a interpretacja błędów i odchyleń miała charakter poznawczy, a nie psychodynamiczny: jako model wykorzystywano raczej wrażenia błędów, a nie rzeczywiste błędy.

Od czasu wprowadzenia idei Bayesa do badań psychologicznych przez Edwardsa i jego współpracowników psychologom po raz pierwszy zaoferowano spójny i jasno wyartykułowany model optymalnego zachowania w warunkach niepewności, z którym można porównać ludzkie podejmowanie decyzji. Zgodność podejmowania decyzji z modelami normatywnymi stała się jednym z głównych paradygmatów badawczych w zakresie osądów w warunkach niepewności. To nieuchronnie podniosło kwestię uprzedzeń, jakie mają ludzie przy wyciąganiu wniosków indukcyjnych, oraz metod, które można zastosować, aby je skorygować. Zagadnieniom tym poświęcona jest większość rozdziałów tej publikacji. Jednak wiele wczesnych prac wykorzystywało model normatywny do wyjaśnienia ludzkich zachowań i wprowadziło dodatkowe procesy w celu wyjaśnienia odchyleń od optymalnych wyników. Natomiast celem badań w zakresie heurystyki decyzyjnej jest wyjaśnienie zarówno prawidłowych, jak i błędnych sądów w kategoriach tych samych procesów psychologicznych.

Pojawienie się nowego paradygmatu, jakim jest psychologia poznawcza, wywarło poważny wpływ na badania nad podejmowaniem decyzji. Psychologia poznawcza zajmuje się procesami wewnętrznymi, ograniczeniami umysłowymi i wpływem ograniczeń na te procesy. Wczesne przykłady prac koncepcyjnych i empirycznych w tej dziedzinie obejmują badanie Brunera i jego współpracowników strategii myślenia oraz leczenie przez Simona heurystyki rozumowania i ograniczonej racjonalności. Zarówno Bruner, jak i Simon zajmowali się strategiami upraszczania, które zmniejszają złożoność problemów decyzyjnych, aby uczynić je akceptowalnymi dla sposobu myślenia ludzi. W oparciu o podobne rozważania zamieściliśmy większość prac w tej książce.

W ostatnich latach wiele badań poświęcono heurystykom osądów i ich skutkom. W niniejszej publikacji kompleksowo omówiono to podejście. Zawiera nowe prace napisane specjalnie dla tego zbioru oraz opublikowane już artykuły dotyczące zagadnień osądów i założeń. Chociaż granica między osądem a podejmowaniem decyzji nie zawsze jest jasna, skupiamy się tutaj na osądzie, a nie na wyborze. Temat podejmowania decyzji jest na tyle ważny, że stanowi temat osobnej publikacji.

Książka składa się z dziesięciu części. Pierwsza część zawiera wczesne badania nad heurystykami i stereotypami w intuicyjnym podejmowaniu decyzji. Część II skupia się w szczególności na heurystyce reprezentatywności, którą część III rozszerza na problemy atrybucji przyczynowej. Część IV opisuje heurystykę dostępności i jej rolę w osądzie społecznym. Część V bada rozumienie i badanie kowariancji oraz ukazuje obecność iluzorycznych korelacji w procesie decyzyjnym zwykłych ludzi i ekspertów. Część VI omawia testowanie szacunków prawdopodobieństwa i argumentuje za powszechnym zjawiskiem nadmiernej pewności w przewidywaniu i wyjaśnianiu. Błędy związane z wnioskowaniem wieloetapowym omówiono w części VII. Część VIII analizuje formalne i nieformalne procedury korygowania i ulepszania intuicyjnego podejmowania decyzji. Część IX podsumowuje badanie konsekwencji stereotypów w podejmowaniu decyzji dotyczących ryzyka. Ostatnia część zawiera współczesne przemyślenia na temat kilku zagadnień koncepcyjnych i metodologicznych w badaniu heurystyki i uprzedzeń.

Dla wygody wszystkie linki zebrano na osobnej liście na końcu książki. Numery wydrukowane pogrubioną czcionką odnoszą się do materiału zawartego w książce, wskazując rozdział, w którym dany materiał się pojawia. Użyliśmy nawiasów (...), aby wskazać usunięty materiał z wcześniej opublikowanych artykułów.

Nasze prace nad przygotowaniem tej książki wsparły Naval Research Service w ramach grantu N00014-79-C-0077 dla Uniwersytetu Stanforda oraz Naval Research Service w ramach kontraktu na badanie decyzji N0014-80-C-0150.

Chcielibyśmy podziękować Peggy Rocker, Nancy Collins, Jerry’emu Hensonowi i Donowi McGregorowi za pomoc w przygotowaniu tej książki.

Daniela Kahnemana

Paweł Słowik

Amosa Twerskiego

Wstęp

1. Podejmowanie decyzji w warunkach niepewności: zasady i uprzedzenia*

Amosa Tversky’ego i Daniela Kahnemana

Wiele decyzji opiera się na przekonaniach o prawdopodobieństwie niepewnych zdarzeń, takich jak wynik wyborów, wina oskarżonego w sprawie sądowej lub przyszła wartość dolara. Przekonania te wyrażane są zazwyczaj w stwierdzeniach typu: Myślę, że..., jest prawdopodobne, że..., jest mało prawdopodobne, że...

Itp. Czasami przekonania na temat niepewnych zdarzeń wyrażane są liczbowo jako szanse lub subiektywne prawdopodobieństwa. Co determinuje takie przekonania? Jak ludzie szacują prawdopodobieństwo niepewnego zdarzenia lub wartość niepewnej wielkości? W tej sekcji pokazano, że ludzie opierają się na ograniczonej liczbie zasad heurystycznych, które redukują złożone zadania szacowania prawdopodobieństw i przewidywania wartości wielkości do prostszych operacji oceny. Ogólnie rzecz biorąc, te heurystyki są całkiem przydatne, ale czasami prowadzą do poważnych i systematycznych błędów.

Subiektywna ocena prawdopodobieństwa jest podobna do subiektywnej oceny wielkości fizycznych, takich jak odległość czy rozmiar. Wszystkie te szacunki opierają się na danych o ograniczonej wiarygodności, które są przetwarzane zgodnie z regułami heurystycznymi. Na przykład szacowana odległość do obiektu jest częściowo określona przez jego przejrzystość. Im ostrzejszy obiekt, tym bliżej się wydaje. Ta zasada ma pewne znaczenie, ponieważ w każdym terenie odległe obiekty wydają się mniej wyraźne niż bliższe. Jednak ciągłe przestrzeganie tej zasady prowadzi do systematycznych błędów w szacowaniu odległości. Zwykle przy słabej widoczności odległości są często zawyżane, ponieważ kontury obiektów są rozmyte. Z drugiej strony odległości są często niedoceniane, gdy widoczność jest dobra, ponieważ obiekty wydają się wyraźniejsze. Zatem używanie przejrzystości jako miary odległości prowadzi do powszechnych uprzedzeń. Takie błędy można również znaleźć w intuicyjnych ocenach prawdopodobieństwa. W tej książce opisano trzy rodzaje heurystyk, które służą do szacowania prawdopodobieństwa i przewidywania wartości wielkości. Zarysowano uprzedzenia, do których prowadzą te heurystyki, a także omówiono praktyczne i teoretyczne implikacje tych obserwacji.

* Rozdział ten ukazał się po raz pierwszy w Science, 1974, 185, 1124-1131. Prawa autorskie (c) 1974 przyznane przez Amerykańskie Stowarzyszenie Postępu Nauki. Opublikowano ponownie za pozwoleniem.

Reprezentatywność

Większość pytań dotyczących prawdopodobieństwa ma jeden z następujących typów: Jakie jest prawdopodobieństwo, że obiekt A należy do klasy B? Jakie jest prawdopodobieństwo, że zdarzenie A jest spowodowane procesem B? Jakie jest prawdopodobieństwo, że proces B doprowadzi do zdarzenia A? Odpowiadając na takie pytania, ludzie zazwyczaj polegają na heurystyce reprezentatywności, w której prawdopodobieństwo jest określane na podstawie stopnia, w jakim A jest reprezentatywny dla B, to znaczy stopnia, w jakim A jest podobne do B. Na przykład, gdy A jest wysoce reprezentatywne B, prawdopodobieństwo, że zdarzenie A pochodzi z B, ocenia się jako wysokie. Z drugiej strony, jeśli A nie jest podobne do B, wówczas prawdopodobieństwo ocenia się jako niskie.

Aby zilustrować ocenę reprezentatywności, rozważ opis mężczyzny sporządzony przez jego byłego sąsiada: „Steve jest bardzo zamknięty w sobie i nieśmiały, zawsze gotowy mi pomóc, ale zbyt mało interesuje się innymi ludźmi i ogólnie rzeczywistością. Jest bardzo cichy i schludny , lubi porządek i organizację, a także ma tendencję do szczegółowości ” Jak ludzie oceniają prawdopodobieństwo, że Steve będzie wykonywał zawód (na przykład rolnik, sprzedawca, pilot samolotu, bibliotekarz lub lekarz)? Jak ludzie klasyfikują te zawody od najbardziej do najmniej prawdopodobnych? W heurystyce reprezentatywności prawdopodobieństwo, że Steve jest na przykład bibliotekarzem, zależy od stopnia, w jakim jest on reprezentatywny dla bibliotekarza lub w jakim pasuje do stereotypu bibliotekarza. Rzeczywiście, badania nad podobnymi problemami wykazały, że ludzie przypisują zawody dokładnie w ten sam sposób (Kahneman i Tversky 1973, 4). Takie podejście do szacowania prawdopodobieństwa prowadzi do poważnych błędów, ponieważ na podobieństwo lub reprezentatywność nie mają wpływu indywidualne czynniki, które powinny mieć wpływ na oszacowanie prawdopodobieństwa.

Niewrażliwy na wcześniejsze prawdopodobieństwo wyniku

Jednym z czynników, który nie wpływa na reprezentatywność, ale znacząco wpływa na prawdopodobieństwo, jest prawdopodobieństwo wcześniejsze lub częstotliwość podstawowych wartości wyników (wyników). Na przykład w przypadku Steve’a fakt, że w populacji jest o wiele więcej rolników niż bibliotekarzy, jest koniecznie brany pod uwagę przy każdej rozsądnej ocenie prawdopodobieństwa tego, że Steve jest raczej bibliotekarzem niż rolnikiem. Uwzględnienie częstotliwości wartości bazowych nie wpływa jednak tak naprawdę na zgodność Steve'a ze stereotypem bibliotekarza i rolnika. Jeśli ludzie szacują prawdopodobieństwo poprzez reprezentatywność, oznacza to, że zaniedbują wcześniejsze prawdopodobieństwa. Hipotezę tę sprawdzono w eksperymencie, w którym zmieniano wcześniejsze prawdopodobieństwa (Kahneman i Tversky, 1973, 4). Badanym pokazano krótkie opisy kilku osób wybranych losowo z grupy 100 wyspecjalizowanych inżynierów i prawników. Osoby badane poproszono o ocenę, dla każdego opisu, prawdopodobieństwa, że ​​należał on do inżyniera, a nie prawnika. W jednym przypadku eksperymentalnym powiedziano badanym, że grupa, z której wykonano opisy, składała się z 70 inżynierów i 30 prawników. W innym przypadku badanym powiedziano, że grupa składa się z 30 inżynierów i 70 prawników. Szansa, że ​​dany opis dotyczy raczej inżyniera niż prawnika, powinna być większa w pierwszym przypadku, gdzie większość to inżynierowie, niż w drugim, gdzie większość to prawnicy. Można to wykazać, stosując regułę Bayesa, że ​​proporcja tych szans musi wynosić (0,7/0,3)2, czyli 5,44, dla każdego opisu. Z rażącym naruszeniem reguły Bayesa badani w obu przypadkach wykazali zasadniczo takie same szacunki prawdopodobieństwa. Najwyraźniej uczestnicy eksperymentu oceniali prawdopodobieństwo, że dany opis należy do inżyniera, a nie prawnika, na podstawie stopnia, w jakim opis ten był reprezentatywny dla obu stereotypów, z niewielkim lub w ogóle uwzględnieniem wcześniejszego prawdopodobieństwa tych kategorii.

Badani prawidłowo wykorzystali wcześniejsze prawdopodobieństwa, gdy nie mieli innych informacji. Wobec braku krótkiego opisu osobowości oszacowali prawdopodobieństwo, że nieznana osoba jest inżynierem, w obu przypadkach na odpowiednio 0,7 i 0,3 w obu warunkach częstotliwości podstawowej. Jednakże wcześniejsze prawdopodobieństwa zostały całkowicie zignorowane podczas przedstawiania opisu, nawet jeśli był on całkowicie pozbawiony informacji. Reakcje na poniższy opis ilustrują to zjawisko:

Dick to 30-letni mężczyzna. Żonaty, nie ma jeszcze dzieci. Bardzo zdolny i zmotywowany pracownik, który daje duże nadzieje. Uznany przez kolegów.

Opis ten miał nie dostarczać żadnych informacji, czy Dick jest inżynierem, czy prawnikiem. Zatem prawdopodobieństwo, że Dick jest inżynierem, musi być równe odsetkowi inżynierów w grupie, tak jakby w ogóle nie podano żadnego opisu. Badani natomiast ocenili prawdopodobieństwo, że Dick był inżynierem na 5, niezależnie od tego, czy podano odsetek inżynierów w grupie (7 do 3 czy 3 do 7). Oczywiście ludzie inaczej reagują w sytuacjach, w których nie ma opisu i gdy podaje się opis bezużyteczny. W przypadku braku opisów odpowiednio stosuje się prawdopodobieństwa wcześniejsze; a wcześniejsze prawdopodobieństwa są ignorowane, gdy podaje się bezużyteczny opis (Kahneman i Tversky, 1973, 4).

Niewrażliwy na wielkość próbki

Aby oszacować prawdopodobieństwo uzyskania określonego wyniku w próbie wybranej z określonej populacji, ludzie zazwyczaj korzystają z heurystyki reprezentatywności. Oznacza to, że szacują prawdopodobieństwo uzyskania wyniku w próbie, na przykład tego, że średni wzrost losowej próbki składającej się z dziesięciu osób wyniesie 6 stóp (180 centymetrów) w stopniu, w jakim wynik ten jest podobny do odpowiedniego parametru ( czyli średni wzrost ludzi w całej populacji). Podobieństwo statystyk w próbie do typowego parametru w całej populacji nie zależy od liczebności próby. Dlatego też, jeśli prawdopodobieństwo zostanie obliczone na podstawie reprezentatywności, wówczas prawdopodobieństwo statystyczne w próbie będzie zasadniczo niezależne od wielkości próby.

Rzeczywiście, gdy uczestnicy badania oszacowali rozkład średnich wysokości dla próbek o różnych rozmiarach, uzyskali identyczne rozkłady. Na przykład oszacowano, że prawdopodobieństwo uzyskania średniego wzrostu powyżej 180 cm jest podobne w przypadku próbek liczących 1000, 100 i 10 osób (Kahneman i Tversky, 1972b, 3). Ponadto badani nie doceniali roli wielkości próby, nawet jeśli została ona podkreślona w opisie problemu. Podajmy przykład, który to potwierdza.

Pewne miasto jest obsługiwane przez dwa szpitale. W większym szpitalu rodzi się dziennie około 45 dzieci, a w mniejszym – około 15 dzieci. Jak wiadomo, około 50% wszystkich dzieci to chłopcy. Jednak dokładny odsetek zmienia się z dnia na dzień. Czasami może być wyższa niż 50%, czasami niższa.
Przez rok każdy szpital rejestrował dni, w których ponad 60% urodzonych dzieci to chłopcy. Jak myślisz, który szpital zanotował więcej takich dni?
Duży szpital (21)
Mniejszy szpital (21)
Mniej więcej po równo (tj. z różnicą 5%) (53)

Liczby w nawiasach oznaczają liczbę studentów ostatniego roku, którzy odpowiedzieli.

Większość osób zdających oszacowała prawdopodobieństwo, że zarówno w małym, jak i dużym szpitalu będzie ponad 60% chłopców, być może dlatego, że zdarzenia te są objęte tymi samymi statystykami, a zatem są w równym stopniu reprezentatywne dla całej populacji.

Natomiast zgodnie z teorią pobierania próbek oczekiwana liczba dni, w których ponad 60% urodzonych dzieci to chłopcy, jest znacznie wyższa w małym szpitalu niż w dużym, ponieważ w przypadku dużej próby jest mniejsze prawdopodobieństwo odchylenia się od 50%. To podstawowe pojęcie statystyki oczywiście nie leży w ludzkiej intuicji.

Podobną niewrażliwość na wielkość próby udokumentowano w szacunkach prawdopodobieństwa a posteriori, to znaczy prawdopodobieństwa, że ​​próbka została wybrana z tej, a nie innej populacji. Spójrzmy na następujący przykład:

Wyobraź sobie kosz wypełniony kulkami, z których 2/3 jest jednego koloru, a 1/3 innego. Jedna osoba bierze z koszyka 5 piłek i odkrywa, że ​​4 z nich są czerwone, a 1 biała. Inna osoba wyjmuje 20 piłek i odkrywa, że ​​12 z nich jest czerwonych, a 8 białych. Która z tych dwóch osób powinna z większą pewnością stwierdzić, że w koszu znajduje się 2/3 czerwonych i 1/3 białych bil, zamiast odwrotnie? Jakie szanse ma każda z tych osób?

W tym przykładzie poprawną odpowiedzią jest oszacowanie kolejnych szans na 8 do 1 dla próbki 4:1 i 16 do 1 dla próbki 12:8, zakładając, że wcześniejsze prawdopodobieństwa są równe. Jednak większość osób uważa, że ​​pierwsza próbka znacznie mocniej potwierdza hipotezę, że kosz wypełniony jest przede wszystkim kulkami czerwonymi, ponieważ odsetek czerwonych kulek w pierwszej próbie jest większy niż w drugiej. To ponownie pokazuje, że w intuicji dominuje proporcja próbki, a nie jej wielkość, co odgrywa decydującą rolę w określaniu rzeczywistych kolejnych szans. (Kahneman i Tversky, 1972b). Ponadto intuicyjne szacunki kolejnych kursów (po kursach) są znacznie mniej radykalne niż prawidłowe wartości. W problemach tego typu wielokrotnie obserwowano niedocenianie wpływu tego, co oczywiste (W. Edwards, 1968, 25; Slovic i Lichtenstein, 1971). Zjawisko to nazywa się „konserwatyzmem”.

Błędne wyobrażenia o przypadku

Ludzie wierzą, że sekwencja zdarzeń zorganizowanych w sposób losowy stanowi istotną cechę tego procesu, nawet jeśli sekwencja jest krótka. Na przykład w przypadku monety, która wyląduje na orle lub reszce, ludzie uważają, że ciąg O-P-O-P-P-O jest bardziej prawdopodobny niż ciąg O-O-O-R-P-P, który nie wydaje się przypadkowy, a także bardziej prawdopodobny niż ciąg O-O-O-O-R-O, który nie odzwierciedla równoważności boków monety (Kahneman i Tvegsky, 1972b, 3). Dlatego ludzie oczekują, że zasadnicze cechy procesu będą reprezentowane nie tylko globalnie, tj. w pełnej kolejności, ale także lokalnie w każdej jej części. Jednak lokalnie reprezentatywna sekwencja systematycznie odbiega od oczekiwanych szans: ma zbyt wiele zmian i zbyt mało powtórzeń. Inną konsekwencją przekonań o reprezentatywności jest dobrze znany błąd hazardzisty kasynowego. Widząc na przykład, że czerwone wylądują na kole ruletki zbyt długo, większość ludzi błędnie uważa, że ​​bardziej prawdopodobne jest, że czarne powinny teraz wypaść, ponieważ trafienie czarnego zakończyłoby bardziej reprezentatywną sekwencję niż trafienie kolejnej czerwonej. Szansa jest ogólnie postrzegana jako proces samoregulujący, w którym odchylenie w jednym kierunku prowadzi do odchylenia w kierunku przeciwnym, aby przywrócić równowagę. W rzeczywistości odchylenia nie są korygowane, ale po prostu „rozpuszczane” w miarę postępu losowego procesu.

Błędne przekonania na temat przypadku nie dotyczą wyłącznie niedoświadczonych osób zdających egzamin. Badanie intuicji we wnioskach statystycznych przeprowadzone wśród doświadczonych psychologów teoretyków (Tvegsky i Kahneman, 1971, 2) ujawniło silną wiarę w to, co można nazwać prawem małych liczb, zgodnie z którym nawet małe próbki są wysoce reprezentatywne dla populacji, z których pochodzą. są wybrane. Wyniki tych badaczy odzwierciedlały oczekiwanie, że hipoteza, która jest ważna w odniesieniu do całej populacji, okaże się statystycznie istotnym wynikiem w próbie, a wielkość próby nie ma znaczenia. W rezultacie eksperci pokładają zbyt dużą wiarę w wynikach uzyskanych z małych próbek i przeceniają powtarzalność tych wyników. Podczas prowadzenia badań nastawienie to prowadzi do doboru próbek o nieodpowiedniej wielkości i do przesadnej interpretacji wyników.

Niewrażliwy na wiarygodność prognoz

Czasami ludzie są zmuszeni do przewidywania numerycznego, np. przyszłej ceny akcji, popytu na produkt lub wyniku meczu piłkarskiego. Takie przewidywania opierają się na reprezentatywności. Załóżmy na przykład, że ktoś otrzymuje opis firmy i zostaje poproszony o przewidzenie jej przyszłych zysków. Jeżeli opis firmy jest bardzo korzystny, wówczas bardzo wysokie zyski będą wydawać się najbardziej reprezentatywne z tego opisu; jeśli opis będzie mierny, wówczas najbardziej reprezentatywnym rozwojem będzie wydawał się zwykły rozwój wydarzeń. Stopień, w jakim opis jest korzystny, nie zależy od prawdziwości tego opisu ani od stopnia, w jakim pozwala na dokładne przewidywanie.

Jeśli więc ludzie dokonują przewidywań wyłącznie na podstawie korzystności opisu, ich przewidywania będą niewrażliwe na wiarygodność opisu i oczekiwaną dokładność przewidywania.

Taki sposób dokonywania ocen narusza normatywną teorię statystyki, w której skrajność i zakres przewidywań zależą od przewidywalności. Gdy przewidywalność wynosi zero, we wszystkich przypadkach należy dokonać tej samej prognozy. Przykładowo, jeśli w opisach firm nie ma informacji o zyskach, to dla wszystkich spółek należy przewidzieć tę samą wartość (przy średnim zysku). Jeśli przewidywalność będzie doskonała, to oczywiście przewidywane wartości będą odpowiadać wartościom rzeczywistym, a zakres przewidywań będzie równy zakresowi wyników. Ogólnie rzecz biorąc, im wyższa przewidywalność, tym szerszy zakres przewidywanych wartości.

Niektóre badania dotyczące prognozowania numerycznego wykazały, że intuicyjne przewidywania naruszają tę zasadę i że badani przywiązują niewielką, jeśli w ogóle, uwagę do kwestii przewidywalności (Kahneman i Tversky 1973, 4). W jednym z tych badań badanym podano kilka akapitów tekstu, z których każdy opisywał pracę nauczyciela akademickiego podczas odrębnej lekcji praktycznej. Część zdających została poproszona o ocenę jakości lekcji opisanej w tekście w skali procentowej w odniesieniu do określonej populacji. Inni zdający zostali poproszeni o przewidzenie, również przy użyciu skali procentowej, pozycji każdego nauczyciela akademickiego 5 lat po tej praktycznej lekcji. Oceny wydane w obu warunkach były identyczne. Oznacza to, że przewidywanie kryterium odległego w czasie (sukces nauczyciela po 5 latach) było tożsame z oceną informacji, na podstawie której dokonano tej prognozy (jakość lekcji praktycznej). Uczniowie, którzy to sugerowali, niewątpliwie zdawali sobie sprawę z ograniczonej przewidywalności kompetencji nauczyciela na podstawie pojedynczej lekcji próbnej prowadzonej 5 lat wcześniej; jednakże ich przewidywania były tak ekstremalne, jak szacunki.

Iluzja ważności

Jak już wspomnieliśmy, ludzie często dokonują przewidywań, wybierając wynik (taki jak zawód), który jest najbardziej reprezentatywny dla danych wejściowych (takich jak opis osoby). Stopień pewności co do swojej prognozy zależy przede wszystkim od stopnia reprezentatywności (czyli jakości dopasowania wyboru do danych wejściowych), niezależnie od czynników ograniczających dokładność ich prognozy. Zatem ludzie z dużą pewnością potrafią przewidzieć, że dana osoba jest bibliotekarzem, jeśli poznają opis jej osobowości pasujący do stereotypu bibliotekarza, nawet jeśli jest on kiepski, zawodny lub przestarzały. Nieuzasadnioną pewność, będącą konsekwencją udanej zbieżności przewidywanego wyniku i danych wejściowych, można nazwać iluzją trafności. Złudzenie to utrzymuje się nawet wtedy, gdy podmiot zna czynniki ograniczające dokładność jego przewidywań. Dość często mówi się, że psychologowie prowadzący wywiady reprezentacyjne często mają duże zaufanie do swoich przewidywań, mimo że znają obszerną literaturę, która pokazuje, że wywiady reprezentacyjne są podatne na błędy.

Ciągła wiara w ważność wyników wywiadu próby klinicznej, pomimo powtarzających się dowodów na jego wiarygodność, jest wystarczającym dowodem siły tego efektu.

Wewnętrzna spójność próbki danych wejściowych jest głównym wskaźnikiem stopnia zaufania do przewidywań opartych na tych danych wejściowych. Na przykład ludzie wyrażają większą pewność w przewidywaniu średniej ocen studenta, którego świadectwo z pierwszego roku składa się wyłącznie z ocen B (4 punkty), niż w przewidywaniu średniej ocen studenta, którego świadectwo z pierwszego roku zawiera wiele ocen A (5 punktów). . ), i C (3 punkty). Wysoce spójne wzorce są najczęściej obserwowane, gdy zmienne wejściowe są wysoce redundantne lub powiązane. W rezultacie ludzie zwykle mają pewność przewidywań opartych na zbędnych zmiennych wejściowych. Jednak elementarna zasada statystyki korelacji mówi, że jeśli mamy zmienne wejściowe o określonej ważności, predykcja oparta na kilku takich danych wejściowych może osiągnąć większą dokładność, gdy zmienne są od siebie niezależne, niż gdy są redundantne lub skorelowane. Zatem redundancja danych wejściowych zmniejsza dokładność, a jednocześnie zwiększa pewność, dlatego ludzie często ufają przewidywaniom, które prawdopodobnie będą błędne (Kahneman i Tversky 1973, 4).

Błędne przekonania na temat regresji

Załóżmy, że duża grupa dzieci została poddana badaniu w ramach dwóch podobnych wersji testu umiejętności. Jeżeli spośród tych, które najlepiej poradziły sobie w jednej z tych dwóch wersji, wybierze dziesięcioro dzieci, zazwyczaj będzie zawiedziony ich wynikami w drugiej wersji testu. I odwrotnie, jeśli wybierzemy dziesięcioro dzieci spośród tych, które w pierwszej wersji testu wypadły najgorzej, to średnio okaże się, że w drugiej wersji poradziły sobie nieco lepiej. Podsumowując, rozważ dwie zmienne X i Y, które mają ten sam rozkład. Jeśli wybierzesz osoby, których średnie wyniki X odbiegają od średniej X o k jednostek, wówczas średnia ich skali Y będzie zwykle odbiegać od średniej Y o mniej niż k jednostek. Obserwacje te ilustrują ogólne zjawisko zwane regresją do średniej, które zostało odkryte przez Galtona ponad 100 lat temu.

W życiu codziennym wszyscy spotykamy się z dużą liczbą przypadków regresji do przeciętności, porównując np. wzrost ojców i synów, poziom inteligencji mężów i żon, czy wyniki zdanych po sobie egzaminów. Jednak ludzie nie mają o tym pojęcia. Po pierwsze, nie spodziewają się regresji w wielu kontekstach, w których się ona spodziewana. Po drugie, gdy rozpoznają wystąpienie regresji, często wymyślają błędne wyjaśnienia przyczyn. (Kahneman i Tversky, 1973, 4). Uważamy, że zjawisko regresji pozostaje nieuchwytne, ponieważ jest niezgodne z poglądem, że przewidywany wynik powinien być jak najbardziej reprezentatywny dla danych wejściowych, a zatem wartość zmiennej wynikowej powinna być tak skrajna, jak wartość zmiennej wejściowej.

Nierozpoznanie znaczenia regresji może mieć szkodliwe konsekwencje, jak pokazano w poniższych obserwacjach (Kahneman i Tversky, 1973, 4). W dyskusjach na temat lotów szkoleniowych doświadczeni instruktorzy zauważyli, że pochwała za wyjątkowo miękkie lądowanie zwykle wiąże się z gorszym lądowaniem przy następnej próbie, natomiast ostra krytyka po twardym lądowaniu zwykle skutkuje poprawą wyników w kolejnej próbie. Instruktorzy doszli do wniosku, że nagrody słowne są szkodliwe dla nauki, podczas gdy nagany są korzystne, co jest sprzeczne z przyjętą doktryną psychologiczną. Wniosek ten jest nie do utrzymania ze względu na występowanie średniego błędu systematycznego. Podobnie jak w innych przypadkach, gdy egzaminy następują po sobie, poprawa zwykle następuje po słabych wynikach, a pogorszenie po doskonałej pracy, nawet jeśli nauczyciel lub instruktor nie reaguje w żaden sposób na osiągnięcia ucznia za pierwszym podejściem. Ponieważ instruktorzy chwalili swoich uczniów po dobrych lądowaniach i karcili ich po złych, doszli do błędnego i potencjalnie szkodliwego wniosku, że kara jest skuteczniejsza niż nagroda.

Zatem niezrozumienie efektu regresji prowadzi do tego, że skuteczność kary jest przeceniana, a skuteczność nagrody niedoceniana. W interakcjach społecznych, podobnie jak w uczeniu się, zwykle stosuje się nagrodę, gdy praca zostanie wykonana dobrze, a karę, gdy praca zostanie wykonana źle. Kierując się wyłącznie prawem regresji, zachowanie najprawdopodobniej ulegnie poprawie po karze i najprawdopodobniej ulegnie pogorszeniu po karze. Okazuje się zatem, że przez czysty przypadek ludzie są nagradzani za karanie innych i karani za nagradzanie ich. Generalnie ludzie nie są świadomi tego faktu. W rzeczywistości subtelna rola regresji w określaniu widocznych konsekwencji nagrody i kary wydaje się umknąć uwadze badaczy zajmujących się tą dziedziną.

Dostępność

Są sytuacje, w których ludzie szacują częstość występowania klas lub prawdopodobieństwo zdarzeń na podstawie łatwości, z jaką przypominają sobie przypadki lub zdarzenia. Na przykład możesz oszacować prawdopodobieństwo zawału serca wśród osób w średnim wieku, przypominając sobie takie przypadki wśród znajomych. W podobny sposób ktoś mógłby oszacować prawdopodobieństwo niepowodzenia przedsięwzięcia biznesowego, wyobrażając sobie różne trudności, jakie może napotkać. Ta heurystyka oceny nazywa się dostępnością. Dostępność jest bardzo przydatna do szacowania częstotliwości lub prawdopodobieństwa zdarzeń, ponieważ zdarzenia należące do dużych klas są zazwyczaj przywoływane i szybciej niż instancje klas rzadszych. Jednakże na dostępność wpływają czynniki inne niż częstotliwość i prawdopodobieństwo. Zaufanie co do dostępności prowadzi zatem do przewidywalnych błędów, z których niektóre przedstawiono poniżej.

Błąd wynikający ze stopnia przypominania sobie wydarzeń w pamięci

Kiedy rozmiar klasy jest szacowany na podstawie dostępności jej elementów, klasa, której elementy można łatwo przywołać, będzie wydawać się większa niż klasa o tym samym rozmiarze, ale której elementy są mniej dostępne i trudniejsze do przywołania. W ramach prostej demonstracji tego efektu badanym czytano listę znanych osób obu płci, a następnie proszono o ocenę, czy lista zawiera więcej imion męskich niż żeńskich. Różnym grupom zdających rozdano różne listy. Na niektórych zestawieniach mężczyźni byli bardziej znani niż kobiety, a na innych kobiety były bardziej znane niż mężczyźni. Na każdej z list badani błędnie wierzyli, że klasa (w tym przypadku płeć), która zawiera więcej znanych osób, jest liczniejsza (Tvegsky i Kahneman, 1973, 11).

Oprócz znajomości istnieją inne czynniki, takie jak żywość, które wpływają na przywoływanie wydarzeń w pamięci. Przykładowo, jeśli ktoś na własne oczy był świadkiem pożaru w budynku, zaistnienie takiego wypadku uzna za prawdopodobnie bardziej subiektywnie prawdopodobne, niż gdyby o tym pożarze przeczytał w lokalnej gazecie. Ponadto niedawne zdarzenia będą prawdopodobnie nieco łatwiejsze do zapamiętania niż wcześniejsze. Często zdarza się, że subiektywna ocena prawdopodobieństwa wystąpienia wypadku drogowego chwilowo wzrasta, gdy dana osoba widzi przy drodze przewrócony samochód.

Błędy efektywności kierunku wyszukiwania

Załóżmy, że z tekstu w języku angielskim wybrano losowo słowo (składające się z trzech lub więcej liter). Co jest bardziej prawdopodobne, że słowo zaczyna się na literę r, czy też r jest trzecią literą? Ludzie podchodzą do tego problemu, przypominając sobie słowa zaczynające się na r (droga) i słowa, które mają r na trzeciej pozycji (samochód) i szacując względną częstotliwość na podstawie łatwości, z jaką przychodzą na myśl słowa tych dwóch typów. Ponieważ znacznie łatwiej jest wyszukiwać słowa według pierwszej litery niż trzeciej, większość ludzi stwierdza, że ​​jest więcej słów rozpoczynających się od tej spółgłoski niż słów, w których ta sama spółgłoska występuje na trzeciej pozycji. Wyciągają taki wniosek nawet dla spółgłosek takich jak r czy k, które częściej pojawiają się na trzeciej pozycji niż na pierwszej (Trevsky i Kahneman 1973, 11).

Różne zadania wymagają różnych kierunków wyszukiwania. Załóżmy na przykład, że poproszono Cię o ocenę częstotliwości, z jaką słowa o znaczeniu abstrakcyjnym (myśl, miłość) i konkretnym (drzwi, woda) pojawiają się w pisanym języku angielskim. Naturalnym sposobem odpowiedzi na to pytanie jest poszukiwanie kontekstów, w których mogą pojawić się te słowa. Wydaje się, że łatwiej jest przywołać konteksty, w których można wspomnieć o znaczeniu abstrakcyjnym (miłość w powieściach kobiecych), niż przywołać konteksty, w których pojawia się słowo o konkretnym znaczeniu (np. drzwi). Jeśli częstotliwość słów zostanie określona na podstawie dostępności kontekstów, w których się pojawiają, słowa o znaczeniach abstrakcyjnych zostaną uznane za stosunkowo liczniejsze niż słowa o konkretnych znaczeniach. Stereotyp ten zaobserwowano w niedawnych badaniach (Galbgaith i Undewood, 1973), które wykazały, że „częstotliwość występowania słów o znaczeniu abstrakcyjnym była znacznie wyższa niż częstość występowania słów o znaczeniu konkretnym, natomiast ich częstotliwość obiektywna była równa. Oceniono to tak samo, ponieważ słowa abstrakcyjne pojawiały się w znacznie większej różnorodności kontekstów niż słowa o konkretnych znaczeniach.

Przekonania oparte na zdolnościach wyobraźni

Czasami trzeba oszacować częstotliwość występowania klasy, której elementy nie są przechowywane w pamięci, ale można je utworzyć według określonej reguły. W takich sytuacjach zwykle powstają pewne elementy, a częstotliwość lub prawdopodobieństwo ocenia się na podstawie łatwości, z jaką można skonstruować odpowiednie elementy. Jednak łatwość przypomnienia odpowiednich pozycji nie zawsze odzwierciedla ich rzeczywistą częstotliwość, a ta metoda oceny wprowadza błędy. Aby to zilustrować, rozważmy grupę 10 osób tworzących komitety składające się z k członków, w tym 2< k < 8. Сколько различных комитетов, состоящих из k членов может быть сформировано? Правильный ответ на эту проблему дается биноминальным коэффициентом (k10), который достигает максимума, paвнoгo 252 для k = 5. Ясно, что число комитетов, состоящих из k членов, paвняется числу комитетов, состоящих из (10-k) членов, потому что для любогo комитета, состоящего из k членов, существует единственно возможная грyппа, состоящая из (10-k) человек, не являющихся членами комитета.

Jednym ze sposobów udzielenia odpowiedzi bez obliczeń jest utworzenie w myślach komitetów składających się z k członków i oszacowanie ich liczby na podstawie łatwości, z jaką przychodzą na myśl. Komitety składające się z małej liczby członków, na przykład 2, są bardziej dostępne niż komitety składające się z dużej liczby członków, na przykład 8. Najprostszym schematem tworzenia komitetów jest podzielenie grupy na zbiory rozłączne. Od razu staje się jasne, że łatwiej jest utworzyć pięć niezależnych komisji po 2 członków każda, natomiast niemożliwe jest utworzenie dwóch niezależnych komisji po 8 członków każda. Dlatego też, jeśli częstotliwość ocenia się na podstawie możliwości jej wizualizacji lub dostępności reprodukcji mentalnej, okaże się, że jest więcej małych komitetów niż dużych, co jest sprzeczne z właściwą funkcją paraboliczną. Rzeczywiście, gdy osoby niebędące ekspertami poproszono o oszacowanie liczby różnych komisji o różnej wielkości, ich szacunki były monotonnie malejącą funkcją wielkości komisji (Tvegsky i Kahneman 1973, 11). Przykładowo, średni wynik dla komisji 2-osobowych wyniósł 70, natomiast średni wynik dla komisji 8-osobowych wyniósł 20 (w obu przypadkach prawidłowa odpowiedź to 45).

Zdolność wyobrażania sobie obrazów odgrywa ważną rolę w ocenie prawdopodobieństwa sytuacji z życia codziennego. Na przykład ryzyko związane z niebezpieczną wyprawą ocenia się, odtwarzając w myślach nieprzewidziane okoliczności, na które wyprawa nie ma wystarczającego sprzętu, aby przezwyciężyć. Jeśli wiele z tych trudności zostanie wyraźnie przedstawionych, wyprawa może wydawać się niezwykle niebezpieczna, chociaż łatwość, z jaką wyobraża się sobie katastrofy, niekoniecznie odzwierciedla ich rzeczywiste prawdopodobieństwo. I odwrotnie, jeśli potencjalne zagrożenie jest trudne do wyobrażenia lub po prostu nie przychodzi na myśl, ryzyko związane ze zdarzeniem może być rażąco niedoszacowane.

Iluzoryczny związek

Chapman i Chapman (1969) opisali interesujące odchylenie w szacowaniu częstotliwości występowania dwóch zdarzeń jednocześnie. Dostarczyli laikom informacji na temat kilku hipotetycznych pacjentów z zaburzeniami psychicznymi. Dane dla każdego pacjenta obejmowały diagnozę kliniczną i rysunki pacjenta. Badani oceniali później częstotliwość, z jaką każdej diagnozie (takiej jak paranoja lub urojenia prześladowcze) towarzyszyły różne cechy wzorcowe (specyficzny kształt oczu). Badani wyraźnie przeszacowywali częstotliwość współwystępowania dwóch naturalnych zdarzeń, takich jak urojenia prześladowcze i specyficzny kształt oczu. Zjawisko to nazywa się korelacją iluzoryczną. W swojej błędnej ocenie przedstawionych danych badani „odkryli na nowo” znaczną część już znanej, ale niepotwierdzonej wiedzy klinicznej dotyczącej interpretacji testu rysunkowego. Iluzoryczny efekt korelacji okazał się niezwykle silny w obliczu sprzecznych danych. Utrzymywał się nawet wtedy, gdy związek między cechą a diagnozą był w rzeczywistości negatywny, uniemożliwiając badanym określenie rzeczywistego związku między nimi.

Dostępność jest naturalnym wyjaśnieniem iluzorycznego efektu korelacji. Ocenę tego, jak często dwa zjawiska są ze sobą powiązane i występują jednocześnie, można oprzeć na sile łączącego je związku asocjacyjnego. Kiedy powiązanie jest silne, bardziej prawdopodobne jest stwierdzenie, że zdarzenia często miały miejsce jednocześnie. Dlatego też, jeśli powiązanie między zdarzeniami jest silne, ludzie oceniają, że często będą one miały miejsce jednocześnie. Zgodnie z tym poglądem iluzoryczna korelacja między diagnozą manii prześladowczej a konkretnym kształtem oczu na rysunku powstaje na przykład dlatego, że mania prześladowcza jest częściej kojarzona z oczami niż z jakąkolwiek inną częścią ciała.

Wieloletnie doświadczenie nauczyło nas, że na ogół elementy dużych zajęć zapamiętywane są lepiej i szybciej niż elementy zajęć rzadszych; że zdarzenia bardziej prawdopodobne są łatwiejsze do wyobrażenia niż mało prawdopodobne; oraz że skojarzeniowe powiązania między zdarzeniami wzmacniają się, gdy zdarzenia często występują jednocześnie. W rezultacie osoba dysponuje procedurą (heurystyka dostępności) służącą do szacowania wielkości klasy; prawdopodobieństwo wystąpienia zdarzenia, czyli częstotliwość, z jaką zdarzenia mogą wystąpić jednocześnie, szacuje się na podstawie łatwości, z jaką odpowiadające mu procesy umysłowe można wykonać przywołanie, przywołanie lub skojarzenie. Jednakże, jak pokazały poprzednie przykłady, te procedury szacowania systematycznie prowadzą do błędów.

Regulacja i „kotwiczenie”

W wielu sytuacjach ludzie dokonują szacunków na podstawie wartości początkowej, która jest celowo dobrana w taki sposób, aby uzyskać ostateczną odpowiedź. Wartość początkową lub punkt wyjścia można uzyskać poprzez sformułowanie problemu lub może to być częściowo wynik obliczeń. W każdym razie takie „oszacowanie” zwykle nie wystarcza (Slovic i Lichtenstein, 1971). Oznacza to, że różne punkty początkowe prowadzą do różnych szacunków, które są ukierunkowane na te punkty początkowe. Nazywamy to zjawisko „kotwiczeniem”.

Niewystarczająca „regulacja”

Aby zademonstrować efekt zakotwiczenia, osoby badane poproszono o oszacowanie różnych wielkości wyrażonych w procentach (na przykład odsetek krajów afrykańskich w Organizacji Narodów Zjednoczonych). Każdej wartości przypisano liczbę od 0 do 100 w drodze losowego doboru w obecności osób badanych, przy czym osoby badane proszono najpierw o wskazanie, czy liczba ta jest większa, czy mniejsza od wartości samej wartości, a następnie o oszacowanie wartości tę wartość, przesuwając się w górę lub w dół w stosunku do jej liczby. Różnym grupom zdających przydzielano różne liczby dla każdej wielkości, a te losowe liczby miały znaczący wpływ na wyniki osób zdających. Na przykład średnie szacunki dotyczące odsetka krajów afrykańskich w Organizacji Narodów Zjednoczonych wynosiły 25 i 45 dla grup, które otrzymały odpowiednio 10 i 65 punktów wyjściowych. Nagrody pieniężne za dokładność nie zmniejszyły efektu zakotwiczenia.

„Zakotwiczenie” ma miejsce nie tylko wtedy, gdy badani otrzymują punkt wyjścia, ale także wtedy, gdy badani opierają swoje szacunki na wyniku jakichś niekompletnych obliczeń. Badanie intuicyjnego oszacowania numerycznego ilustruje ten efekt. Dwie grupy uczniów szkół średnich przez 5 sekund szacowały wartość wyrażenia liczbowego zapisanego na tablicy. Jedna grupa oceniła znaczenie tego wyrażenia

8x7x6x5x4x3x2x1,

podczas gdy druga grupa oceniała znaczenie wyrażenia

1x2x3x4x5x6x7x8.

Aby szybko odpowiedzieć na takie pytania, można wykonać kilka kroków obliczeniowych i oszacować znaczenie wyrażenia poprzez ekstrapolację lub „korektę”. Ponieważ „korekta” zwykle nie jest wystarczająca, procedura ta powinna prowadzić do zaniżenia wartości. Co więcej, ponieważ wynik kilku pierwszych kroków mnożenia (wykonywanych od lewej do prawej) jest wyższy w kolejności malejącej niż w rosnącej, pierwsze wymienione wyrażenie należy ocenić częściej niż ostatnie. Obydwa przewidywania potwierdziły się. Średni wynik dla ciągu rosnącego wyniósł 512, natomiast średni wynik dla ciągu malejącego wyniósł 2250. Prawidłowa odpowiedź to 40320 dla obu ciągów.

Błędy w formułowaniu zdarzeń koniunktywnych i rozłącznych

W niedawnym badaniu Bar-Hillela (1973) zdającym dano możliwość obstawienia jednego z dwóch wydarzeń. Zastosowano trzy rodzaje zdarzeń: (i) proste zdarzenie, takie jak wyciągnięcie czerwonej kuli z worka zawierającego 50% czerwonych i 50% białych kul; (ii) zdarzenie powiązane, takie jak wyciągnięcie czerwonej bili siedem razy z rzędu z worka (zwrócenie piłek) zawierającego 90% czerwonych bil i 10% białych oraz (iii) niepowiązane zdarzenie, takie jak wylosowanie czerwonej bili w co najmniej 1 raz w siedmiu kolejnych próbach (ze zwrotem bil) z worka zawierającego 10% bil czerwonych i 90% bil białych. W przypadku tego problemu znacząca większość zdających zdecydowała się obstawić zdarzenie związane (które miało prawdopodobieństwo 0,48), a nie zdarzenie bezczynne (które miało prawdopodobieństwo 0,50). Badani woleli także obstawiać zdarzenie proste niż rozłączne, którego prawdopodobieństwo wynosiło 0,52.

Dlatego większość osób zdających obstawia w obu porównaniach mniej prawdopodobne zdarzenie. Decyzje osób zdających ilustrują ogólny wniosek: Badania decyzji hazardowych i szacunki prawdopodobieństwa wskazują, że ludzie: mają tendencję do przeceniania prawdopodobieństwa zdarzeń łącznych (Cohen, Chesnik i Haran 1972, 24) i mają tendencję do niedoceniania prawdopodobieństwa zdarzeń łączonych. Te stereotypy można całkowicie wyjaśnić efektem zakotwiczenia. Ustalone prawdopodobieństwo zdarzenia elementarnego (sukcesu na dowolnym etapie) stanowi naturalny punkt wyjścia do oszacowania prawdopodobieństw zarówno zdarzeń koniunkcyjnych, jak i rozłącznych. Ponieważ „korekta” od punktu początkowego zwykle nie wystarcza, ostateczne szacunki w obu przypadkach pozostają zbyt blisko prawdopodobieństw zdarzeń elementarnych. Należy zauważyć, że całkowite prawdopodobieństwo zdarzeń łącznych jest mniejsze niż prawdopodobieństwo każdego zdarzenia elementarnego, natomiast całkowite prawdopodobieństwo zdarzenia niepowiązanego jest wyższe niż prawdopodobieństwo każdego zdarzenia elementarnego. Konsekwencją zakotwiczenia jest to, że ogólne prawdopodobieństwo zostanie przeszacowane w przypadku zdarzeń koniunktywnych i niedoszacowane w przypadku zdarzeń rozłącznych.

Błędy w ocenie złożonych zdarzeń są szczególnie istotne w kontekście planowania. Pomyślne zakończenie przedsięwzięcia biznesowego, takiego jak opracowanie nowego produktu, ma zwykle złożony charakter: aby przedsiębiorstwo odniosło sukces, musi nastąpić każde z szeregu zdarzeń. Nawet jeśli każde z tych zdarzeń jest wysoce prawdopodobne, ogólne prawdopodobieństwo sukcesu może być dość niskie, jeśli liczba zdarzeń jest duża.

Ogólna tendencja do przeceniania prawdopodobieństwa zdarzeń oportunistycznych prowadzi do nieuzasadnionego optymizmu w ocenie prawdopodobieństwa powodzenia planu lub terminowej realizacji projektu. Wręcz przeciwnie, podczas oceny ryzyka zwykle spotyka się rozłączne struktury zdarzeń. Złożony system, taki jak reaktor jądrowy lub organizm ludzki, ulegnie uszkodzeniu, jeśli którykolwiek z jego niezbędnych elementów ulegnie awarii. Nawet jeśli prawdopodobieństwo awarii każdego komponentu jest małe, prawdopodobieństwo awarii całego systemu może być wysokie, jeśli zaangażowanych jest wiele komponentów. Ze względu na błąd zakotwiczenia ludzie mają tendencję do niedoceniania prawdopodobieństwa awarii w złożonych systemach. Zatem błąd zakotwiczenia może czasami zależeć od struktury wydarzenia. Struktura zdarzenia lub zjawiska przypominająca łańcuch ogniw prowadzi do przeszacowania prawdopodobieństwa tego zdarzenia, natomiast struktura zdarzenia przypominająca lejek składający się z rozłącznych ogniw prowadzi do niedoszacowania prawdopodobieństwa wystąpienia tego zdarzenia lub zjawiska. wydarzenie.

„Kotwiczenie” przy szacowaniu subiektywnego rozkładu prawdopodobieństwa

W analizie decyzji od ekspertów często wymaga się wyrażenia swojej opinii na temat wartości, takiej jak średnia wartość indeksu Dow Jones Industrial Average w danym dniu, w formie rozkładu prawdopodobieństwa. Taki rozkład zwykle konstruuje się poprzez dobranie wartości wielkości odpowiadającej jej procentowej skali rozkładu prawdopodobieństwa. Na przykład ekspert może zostać poproszony o wybranie liczby X90 w taki sposób, aby subiektywne prawdopodobieństwo, że liczba ta będzie wyższa od średniej liczby Doya Jonesa, wynosiło 0,90. Oznacza to, że musi wybrać wartość X90 tak, aby w 9 przypadkach do 1 średnia wartość wskaźnika Doy-Jonesa nie przekroczyła tej liczby. Subiektywny rozkład prawdopodobieństwa średniej Dow Jones można zbudować na podstawie kilku takich szacunków, wyrażonych za pomocą różnych skal procentowych.

Kumulując takie subiektywne rozkłady prawdopodobieństwa dla różnych wielkości, można zweryfikować dokładność szacunków eksperta. Eksperta uważa się za prawidłowo skalibrowanego (patrz rozdział 22) w danym zestawie problemów, jeśli tylko 2 procent prawidłowych wartości szacowanych wielkości jest poniżej określonych wartości X2. Przykładowo prawidłowe wartości powinny być poniżej X01 dla 1% wartości i powyżej X99 dla 1% wartości. Zatem w 98% problemów prawdziwe wartości muszą ściśle mieścić się w przedziale między X01 a X99.

Kilku badaczy (Alpert i Raiffa, 1969, 21; Stael von Holstein, 1971b; Winkleg, 1967) analizowało nieprawidłowości w estymacji prawdopodobieństwa dla wielu wielkości przez dużą liczbę ekspertów. Rozkłady te wskazywały na rozległe i systematyczne odchylenia od właściwych szacunków. W większości badań rzeczywiste szacunkowe wartości są albo mniejsze niż X01, albo większe niż X99 w przypadku około 30% problemów. Oznacza to, że badani ustalają bardzo wąskie, ścisłe przedziały, które odzwierciedlają bardziej ich pewność niż wiedzę w odniesieniu do szacowanych ilości. To nastawienie jest powszechne zarówno wśród przeszkolonych, jak i nieprzeszkolonych osób przeprowadzających testy, a efektu tego nie można wyeliminować poprzez wprowadzenie zasad punktacji, które stanowią zachętę do oceny zewnętrznej. Efekt ten jest, przynajmniej częściowo, spowodowany zakotwiczeniem.

Aby na przykład wybrać X90 jako wartość średniej Dow Jones, naturalne jest zacząć od zastanowienia się nad najlepszym oszacowaniem średniej przemysłowej Dow Jones i „dostosowaniem” górnych wartości. Jeśli ta „regulacja”, jak większość innych, będzie niewystarczająca, to X90 nie będzie wystarczająco ekstremalny. Podobny efekt fiksacji wystąpi przy wyborze X10, który prawdopodobnie zostanie uzyskany poprzez skorygowanie w dół najlepszego oszacowania innej osoby. W rezultacie wiarygodny przedział między X10 a X90 będzie zbyt wąski, a szacowany rozkład prawdopodobieństwa będzie zbyt sztywny. Na poparcie tej interpretacji można wykazać, że subiektywne prawdopodobieństwa są systematycznie zmieniane w drodze procedury, w której najlepsze oszacowanie nie służy jako „kotwica”.

Subiektywne rozkłady prawdopodobieństwa dla danej wielkości (średniej liczby Dow Jones) można uzyskać na dwa różne sposoby: (i) poprosić osobę badaną o wybranie wartości liczby Dow Jones, która odpowiada rozkładowi prawdopodobieństwa wyrażonemu w skali procentowej oraz ( ii) poproś osobę badaną o oszacowanie prawdopodobieństwa tego, że rzeczywista wartość liczby Doy-Jonesa przekroczy część wskazanych wartości. Te dwie procedury są formalnie równoważne i powinny skutkować identycznymi rozkładami. Oferują jednak różne sposoby regulacji w zależności od różnych „wiązania”. W procedurze (i) naturalnym punktem wyjścia jest oszacowanie najlepszej jakości. Z drugiej strony, w procedurze (ii) zdający może „przywiązać się” do wartości podanej w pytaniu. W przeciwieństwie do tego może trzymać się kursów parzystych, czyli 50-50, które są naturalnym punktem wyjścia do szacowania prawdopodobieństwa. W każdym przypadku procedura (ii) powinna skutkować mniej ekstremalnymi wynikami niż procedura (i).

Dla kontrastu te dwie procedury, grupie osób biorących udział w badaniu podano zestaw 24 pomiarów ilościowych (takich jak odległość w powietrzu z New Delhi do Pekinu), które uzyskały punktację X10 lub X90 za każde zadanie. Inna grupa zdających uzyskała średnie wyniki pierwszej grupy dla każdej z tych 24 wartości. Poproszono ich o oszacowanie szans, że każda podana wielkość przekroczy rzeczywistą wartość odpowiadającej jej wielkości. W przypadku braku stronniczości druga grupa powinna zrekonstruować prawdopodobieństwo określone przez pierwszą grupę, czyli 9:1. Jeżeli jednak za „kotwicę” służą równe szanse lub dana wartość, to prawdopodobieństwo określone przez drugą grupę powinien być mniej ekstremalny, to znaczy bliższy 1: 1. W rzeczywistości średnie prawdopodobieństwo zgłoszone przez tę grupę dla wszystkich problemów wynosiło 3:1. Kiedy przetestowano oceny tych dwóch grup, okazało się, że osoby z pierwszej grupy były zbyt skrajne w swoich ocenach, co jest zgodne z wcześniejszymi badaniami. Zdarzenia, których prawdopodobieństwo określono na 0,10, faktycznie miały miejsce w 24% przypadków. Wręcz przeciwnie, badani z drugiej grupy byli zbyt konserwatywni. Zdarzenia, których prawdopodobieństwo określono na 0,34, faktycznie miały miejsce w 26% przypadków. Wyniki te ilustrują, jak stopień poprawności oszacowania zależy od procedury oceny.

Dyskusja

W tej części książki omówiono stereotypy poznawcze, które powstają w wyniku zaufania do heurystyk oceniania. Te stereotypy nie są charakterystyczne dla efektów motywacyjnych, takich jak myślenie życzeniowe lub uprzedzenia w ocenie wynikające z aprobaty i winy. Rzeczywiście, jak już wcześniej informowaliśmy, wystąpiły pewne poważne błędy w punktacji pomimo faktu, że zdających zachęcano do dokładności i nagradzano za prawidłowe odpowiedzi (Kahneman i Tversky, 1972b, 3; Tversky i Kahneman, 1973, 11).

Zaufanie do heurystyk i powszechność stereotypów nie ograniczają się do zwykłych ludzi. Doświadczeni badacze również są podatni na te same uprzedzenia, gdy myślą intuicyjnie. Na przykład tendencję do przewidywania wyniku, który jest najbardziej reprezentatywny dla danych, bez wystarczającej uwagi na wcześniejsze prawdopodobieństwo wystąpienia tego wyniku, zaobserwowano w intuicyjnych sądach osób posiadających rozległą wiedzę statystyczną (Kahneman i Tversky, 1973). ,4; Tversky i Kahneman, 1971).,2). Chociaż ci, którzy znają się na statystyce i unikają elementarnych błędów, takich jak błędy hazardzistów kasynowych, popełniają podobne błędy w intuicyjnych ocenach w przypadku bardziej skomplikowanych i mniej zrozumiałych problemów.

Nic dziwnego, że nadal stosowane są przydatne typy heurystyk, takie jak reprezentatywność i dostępność, mimo że czasami prowadzą do błędów w przewidywaniach i szacunkach. Możliwa i zaskakująca jest niezdolność ludzi do wnioskowania z długoterminowego doświadczenia życiowego o tak podstawowych zasadach statystycznych, jak regresja do średniej lub efekty wielkości próby podczas analizy zmienności w próbie. Chociaż w ciągu naszego życia wszyscy spotykamy się z wieloma sytuacjami, w których można zastosować te zasady, bardzo niewiele osób samodzielnie odkrywa zasady doboru próby i pepecca na podstawie własnego doświadczenia. Zasad statystycznych nie uczy się z codziennego doświadczenia, ponieważ odpowiednie przykłady nie są zakodowane we właściwy sposób. Na przykład ludzie nie zauważają, że średnia długość słów w kolejnych wierszach tekstu różni się bardziej od długości kolejnych stron, ponieważ po prostu nie zwracają uwagi na średnią długość słów w poszczególnych wierszach lub stronach. Dlatego ludzie nie badają związku między wielkością próby a zmiennością wewnątrz próby, mimo że istnieje wiele dowodów na poparcie takiego wniosku.

Brak odpowiedniego kodowania wyjaśnia również, dlaczego ludzie na ogół nie wykrywają stereotypów w swoich ocenach prawdopodobieństwa. Można było sprawdzić, czy jego szacunki są prawidłowe, licząc liczbę zdarzeń, które faktycznie nastąpiły, spośród tych, które uważa za równie prawdopodobne. Jednak nie jest naturalne, że ludzie grupują zdarzenia na podstawie ich prawdopodobieństwa. W przypadku braku takiego grupowania człowiek nie może odkryć np., że spełniło się tylko 50% przewidywań, których prawdopodobieństwo ocenił na 0,9 lub więcej.

Empiryczna analiza stereotypów poznawczych ma implikacje dla teoretycznej i stosowanej roli oceny prawdopodobieństwa. Współczesna teoria decyzji (de Finetti, 1968; Savage, 1954) postrzega subiektywne prawdopodobieństwo jako ilościową opinię wyidealizowanej jednostki. W szczególności subiektywne prawdopodobieństwo danego zdarzenia jest określane przez zbiór szans związanych z tym zdarzeniem, spośród których dana osoba ma dokonać wyboru. Wewnętrznie spójną lub całościową miarę subiektywnego prawdopodobieństwa można uzyskać, jeśli wybory danej osoby dotyczące oferowanych kursów podlegają pewnym zasadom, to znaczy aksjomatom teorii. Otrzymane prawdopodobieństwo jest subiektywne w tym sensie, że różni ludzie mogą mieć różne szacunki prawdopodobieństwa tego samego zdarzenia. Głównym wkładem tego podejścia jest to, że zapewnia rygorystyczną, subiektywną interpretację prawdopodobieństwa, która ma zastosowanie do unikalnych zdarzeń i stanowi część ogólnej teorii racjonalnego podejmowania decyzji.

Warto zauważyć, że chociaż subiektywne prawdopodobieństwa można czasami wywnioskować na podstawie wyboru kursów, zwykle nie są one kształtowane w ten sposób. Osoba obstawia drużynę A, a nie drużynę B, ponieważ wierzy, że drużyna A ma większe szanse na wygraną; nie formułuje swojej opinii na podstawie preferencji dotyczących określonych kursów.

Zatem w rzeczywistości subiektywne prawdopodobieństwa określają preferencje dotyczące szans, ale nie są z nich wyprowadzane, w przeciwieństwie do aksjomatycznej teorii racjonalnego podejmowania decyzji (Savage, 1954).

Subiektywna natura prawdopodobieństwa doprowadziła wielu naukowców do przekonania, że ​​integralność, czyli wewnętrzna spójność, jest jedynym ważnym kryterium, według którego należy oceniać prawdopodobieństwa. Z punktu widzenia formalnej teorii prawdopodobieństwa subiektywnego każdy zbiór wewnętrznie spójnych szacunków prawdopodobieństwa jest równie dobry jak każdy inny. Kryterium to nie jest w pełni zadowalające, gdyż wewnętrznie spójny zbiór subiektywnych prawdopodobieństw może być także niezgodny z innymi opiniami danej osoby. Rozważmy osobę, której subiektywne prawdopodobieństwo wszystkich możliwych wyników rzutu monetą odzwierciedla błąd gracza w kasynie. Oznacza to, że jego oszacowanie prawdopodobieństwa wystąpienia „reszki” dla każdego konkretnego rzutu wzrasta wraz z liczbą kolejnych „reszek”, które poprzedziły ten rzut. Sądy takiej osoby mogą być wewnętrznie spójne i dlatego akceptowalne jako adekwatne subiektywne prawdopodobieństwa według kryterium teorii formalnej. Prawdopodobieństwa te są jednak niezgodne z ogólnie przyjętym poglądem, że moneta „nie ma pamięci” i dlatego nie jest w stanie wytwarzać zależności sekwencyjnych. Aby oszacowane prawdopodobieństwa można było uznać za adekwatne, czyli racjonalne, nie wystarczy wewnętrzna spójność. Orzeczenia muszą być spójne ze wszystkimi innymi poglądami tej osoby. Niestety, nie może istnieć prosta formalna procedura oceny zgodności zbioru szacunków prawdopodobieństwa z pełnym systemem przekonań podmiotu. Racjonalny ekspert będzie jednak walczył o spójność, mimo że spójność wewnętrzną łatwiej osiągnąć i ocenić. W szczególności będzie się starał, aby jego sądy dotyczące prawdopodobieństwa były spójne ze swoją wiedzą na dany temat, prawami prawdopodobieństwa oraz własnymi heurystykami i błędami oceny.

W tym artykule opisano trzy typy heurystyk stosowanych przy osądach w warunkach niepewności: (i) reprezentatywność, która jest zwykle stosowana, gdy ludzie proszeni są o oszacowanie prawdopodobieństwa, że ​​obiekt lub przypadek A należy do klasy lub procesu B; (ii) dostępność zdarzeń lub scenariuszy, z której często korzysta się, gdy ludzie proszeni są o oszacowanie częstotliwości występowania zajęć lub prawdopodobieństwa wystąpienia określonego przebiegu zdarzeń; oraz (iii) korekta lub „kotwiczenie”, które jest zwykle stosowane w prognozowaniu ilościowym, gdy dostępna jest odpowiednia ilość. Heurystyki te są bardzo oszczędne i zwykle skuteczne, ale prowadzą do systematycznych błędów w prognozach. Lepsze zrozumienie tych heurystyk i uprzedzeń, do których prowadzą, mogłoby przyczynić się do oceny i podejmowania decyzji w warunkach niepewności.

Rozważmy matematyczne podstawy podejmowania decyzji w warunkach niepewności.

Istota i źródła niepewności.

Niepewność jest właściwością obiektu, wyrażającą się w jego niejasności, niejednoznaczności, bezpodstawności, powodującą, że decydent nie ma wystarczających możliwości uświadomienia sobie, zrozumienia i określenia jego obecnego i przyszłego stanu.

Ryzyko to możliwe niebezpieczeństwo, działanie losowe, wymagające z jednej strony odwagi w nadziei na szczęśliwy wynik, a z drugiej uwzględnienia matematycznego uzasadnienia stopnia ryzyka.

Praktykę podejmowania decyzji charakteryzuje zespół warunków i okoliczności (sytuacji), które tworzą określone relacje, warunki i pozycje w systemie decyzyjnym. Biorąc pod uwagę ilościowe i jakościowe cechy informacji, którymi dysponuje decydent, możemy wyróżnić decyzje podejmowane w następujących warunkach:

pewność (niezawodność);

niepewność (niewiarygodność);

ryzyko (pewność probabilistyczna).

W warunkach pewności decydenci dość dokładnie określają możliwe alternatywy decyzyjne. Jednak w praktyce trudno jest ocenić czynniki tworzące warunki podejmowania decyzji, dlatego najczęściej nie ma sytuacji całkowitej pewności.

Źródłami niepewności co do oczekiwanych warunków rozwoju przedsiębiorstwa mogą być zachowania konkurencji, personelu organizacji, procesy techniczne i technologiczne oraz zmiany rynkowe. W tym przypadku warunki można podzielić na społeczno-polityczne, administracyjno-legislacyjne, produkcyjne, handlowe, finansowe. Zatem warunkami tworzącymi niepewność jest wpływ czynników z otoczenia zewnętrznego na wewnętrzne organizacji. Decyzje podejmowane są w warunkach niepewności, gdy nie można oszacować prawdopodobieństwa potencjalnych wyników. Powinno to mieć miejsce w przypadku, gdy czynniki, które należy uwzględnić, są na tyle nowe i złożone, że nie jest możliwe uzyskanie na ich temat wystarczających i istotnych informacji. W rezultacie prawdopodobieństwa określonego wyniku nie można przewidzieć z wystarczającą pewnością. Niepewność jest charakterystyczna dla niektórych decyzji, które muszą być podejmowane w szybko zmieniających się okolicznościach. Środowisko społeczno-kulturowe, polityczne i oparte na wiedzy charakteryzuje się największym potencjałem niepewności. Decyzje Departamentu Obrony dotyczące opracowania niezwykle złożonej nowej broni są często początkowo niepewne. Dzieje się tak dlatego, że nikt nie wie, w jaki sposób broń zostanie użyta i czy w ogóle do tego dojdzie, a także jakiej broni może użyć wróg. Dlatego departament często nie jest w stanie określić, czy nowa broń będzie rzeczywiście skuteczna, zanim dotrze do wojska, co może zająć na przykład pięć lat. Jednak w praktyce bardzo niewiele decyzji zarządczych musi być podejmowanych w warunkach całkowitej niepewności.

W obliczu niepewności menedżer ma dwie główne możliwości. Najpierw spróbuj uzyskać dodatkowe istotne informacje i ponownie przeanalizuj problem. Często zmniejsza to nowość i złożoność problemu. Menedżer łączy te dodatkowe informacje i analizy ze zgromadzonym doświadczeniem, osądem lub intuicją, aby nadać szeregowi wyników subiektywne lub postrzegane prawdopodobieństwo.

Drugą możliwością jest oparcie się wyłącznie na przeszłych doświadczeniach, osądzie lub intuicji i zgadnięcie prawdopodobieństwa zdarzeń. Ograniczenia czasowe i informacyjne mają ogromne znaczenie przy podejmowaniu decyzji zarządczych.

W sytuacji ryzyka można za pomocą teorii prawdopodobieństwa obliczyć prawdopodobieństwo określonej zmiany w otoczeniu, w sytuacji niepewności nie można uzyskać wartości prawdopodobieństwa.

Niepewność przejawia się w braku możliwości określenia prawdopodobieństwa wystąpienia różnych stanów środowiska zewnętrznego ze względu na ich nieograniczoną liczbę i brak metod oceny. Niepewność jest uwzględniana na różne sposoby.

Zasady i kryteria podejmowania decyzji w warunkach niepewności.

Przedstawmy kilka ogólnych kryteriów racjonalnego wyboru opcji rozwiązania spośród wielu możliwych. Kryteria opierają się na analizie macierzy możliwych stanów środowiska i alternatywnych decyzji.

Macierz przedstawiona w tabeli 1 zawiera: Aj – alternatywy, czyli opcje działania, z których należy wybrać jedną; Si - możliwe opcje warunków środowiskowych; aij jest elementem macierzy oznaczającym wartość kosztu kapitału przyjętego przez alternatywę j w stanie środowiska i.

Tabela 1. Macierz decyzyjna

Aby wybrać optymalną strategię w sytuacji niepewności, stosuje się różne zasady i kryteria.

Reguła Maximina (kryterium Waalda).

Zgodnie z tą zasadą, spośród alternatyw aj należy wybrać tę, która w najbardziej niekorzystnym stanie środowiska zewnętrznego posiada największą wartość wskaźnika. W tym celu w każdym wierszu macierzy zapisywane są alternatywy o minimalnej wartości wskaźnika, a spośród zaznaczonych minimalnych wybierane są alternatywy. Priorytet ma alternatywa a* z wartością maksymalną spośród wszystkich minimalnych.

Decydent w tym przypadku jest minimalnie przygotowany na ryzyko, zakładając maksimum negatywnych zmian stanu otoczenia zewnętrznego i biorąc pod uwagę najmniej korzystny rozwój sytuacji dla każdej alternatywy.

Zgodnie z kryterium Waalda decydenci wybierają strategię, która gwarantuje maksymalną wartość wypłaty w najgorszym przypadku (kryterium maximin).

Zasada maximaxu.

Zgodnie z tą zasadą wybierany jest wariant o najwyższej osiągalnej wartości ocenianego wskaźnika. Jednocześnie decydent nie bierze pod uwagę ryzyka wynikającego z niekorzystnych zmian środowiska. Alternatywę można znaleźć ze wzoru:

а* = (аjmaxj maxi Пij)

Korzystając z tej reguły, określa się maksymalną wartość dla każdego wiersza i wybiera się największą.

Dużą wadą reguł maximax i maximin jest użycie tylko jednej opcji rozwoju sytuacji dla każdej alternatywy przy podejmowaniu decyzji.

Reguła minimaksu (kryterium Savage'a).

W odróżnieniu od maximina, minimax nastawiony jest nie tyle na minimalizację strat, co na żal z powodu utraconych zysków. Zasada pozwala na rozsądne ryzyko w celu uzyskania dodatkowego zysku. Kryterium Savage'a oblicza się ze wzoru:

min max P = mini [ maxj (maxi Xij - Xij)]

gdzie mini, maxj - wyszukaj maksimum, przeszukując odpowiednie kolumny i wiersze.

Obliczanie Minimax składa się z czterech etapów:

  • 1) Znajdź najlepszy wynik każdego wykresu z osobna, czyli maksymalny Xij (reakcja rynku).
  • 2) Wyznacza się odchylenie od najlepszego wyniku każdego pojedynczego wykresu, czyli maxi Xij - Xij. Uzyskane wyniki tworzą macierz odchyleń (żalu), gdyż jej elementami są utracone zyski z nieudanych decyzji podjętych w wyniku błędnej oceny możliwości reakcji rynku.
  • 3) Dla każdego punktu żalu znajdujemy wartość maksymalną.
  • 4) Wybieramy rozwiązanie, w którym maksymalny żal będzie mniejszy niż w pozostałych.

Reguła Hurwitza.

Zgodnie z tą zasadą reguły maximax i maximin są łączone poprzez powiązanie maksimum z minimalnymi wartościami alternatyw. Zasada ta nazywana jest również zasadą optymizmu - pesymizmem. Optymalną alternatywę można obliczyć korzystając ze wzoru:

а* = maxi [(1-?) minj Пji+ ? maxj Пji]

gdzie? - współczynnik optymizmu, ? =1…0 o? =1 alternatywa została wybrana zgodnie z zasadą maximax, kiedy? =0 - zgodnie z regułą maximin. Czy warto pytać, biorąc pod uwagę obawę przed ryzykiem? =0,3. Największa wartość wartości docelowej określa wymaganą alternatywę.

Regułę Hurwitza stosuje się, biorąc pod uwagę więcej istotnych informacji niż przy stosowaniu reguł maximin i maximax.

Zatem przy podejmowaniu decyzji zarządczej w ogólnym przypadku konieczne jest:

przewidywać przyszłe warunki, takie jak poziom popytu;

opracować listę możliwych alternatyw

ocenić zwrot wszystkich alternatyw;

określić prawdopodobieństwo każdego warunku;

ocenić alternatywy w oparciu o wybrane kryterium decyzyjne.

W części praktycznej tej pracy rozważono bezpośrednie zastosowanie kryteriów przy podejmowaniu decyzji zarządczych w warunkach niepewności.

decyzja dotycząca zarządzania niepewnością

TEORIA PODEJMOWANIA DECYZJI

Temat 5: Podejmowanie decyzji w warunkach niepewności

Wstęp

1. Pojęcie niepewności i ryzyka

3. Klasyfikacja ryzyk przy opracowywaniu decyzji zarządczych

4. Technologie podejmowania decyzji w warunkach ryzyka stochastycznego

Wniosek

Decyzja zarządcza jest podejmowana w warunkach pewności, jeśli kierownik zna dokładnie wynik wdrożenia każdej alternatywy. Należy zaznaczyć, że decyzje zarządcze podejmowane są w warunkach pewności dość rzadko.

Niepewność jest główną przyczyną ryzyka. Zmniejszanie ich objętości jest głównym zadaniem menedżera.


Menedżerowie często muszą się rozwijać i podejmować decyzje zarządcze w warunkach niepełnej i nierzetelnej informacji, a rezultaty wdrażania decyzji zarządczych nie zawsze pokrywają się z zaplanowanymi wskaźnikami. Warunki te zalicza się do okoliczności niepewności i ryzyka.

Decyzja zarządu podejmowana jest w warunkach niepewności, gdy zarządzający nie ma możliwości oceny prawdopodobieństwa przyszłych wyników. Dzieje się tak, gdy parametry, które należy wziąć pod uwagę, są na tyle nowe i nieustrukturyzowane, że nie można przewidzieć prawdopodobieństwa określonego wyniku z wystarczającą pewnością.

Decyzje zarządcze podejmowane są w warunkach ryzyka, gdy nie są określone skutki ich realizacji, ale znane jest prawdopodobieństwo wystąpienia każdego z nich. Niepewność wyniku w tym przypadku wiąże się z możliwością wystąpienia niekorzystnych sytuacji i konsekwencji dla osiągnięcia zamierzonych celów.

Niepewność w podejmowaniu decyzji przejawia się w parametrach informacji wykorzystywanych na wszystkich etapach jej przetwarzania. Niepewność jest trudna do zmierzenia i częściej oceniana jest w kategoriach jakościowych (wysoka lub niska). Szacuje się ją także procentowo (niepewność informacji na poziomie 30%).

Niepewność wiąże się z opracowaniem decyzji zarządczej, a ryzyko wiąże się z wynikami jej wdrożenia.

Niepewność jest główną przyczyną ryzyka. Zmniejszanie ich objętości jest głównym zadaniem menedżera.

„Niepewność jest postrzegana zarówno jako zjawisko, jak i proces. Jeśli uznamy to za zjawisko, to mamy do czynienia ze zbiorem niejasnych sytuacji, niepełnych i wzajemnie wykluczających się informacji. Do zjawisk zaliczają się także zdarzenia nieprzewidziane, które powstają wbrew woli zarządcy i mogą zmienić przebieg zaplanowanych wydarzeń: np. nagła zmiana pogody spowodowała zmianę programu obchodów dnia miasta.

Niepewność jako proces jest działaniem niekompetentnego menedżera, który podejmuje błędne decyzje. Przykładowo przy ocenie atrakcyjności inwestycyjnej kredytu komunalnego popełniono błędy, w wyniku czego do budżetu miasta nie trafiło dodatkowe 800 tys. rubli. W praktyce niepewność należy rozpatrywać całościowo, gdyż zjawisko jest tworzone przez proces, a proces kształtuje zjawisko.

Niepewność może być obiektywna lub subiektywna.

Cel – nie zależą od decydenta, a ich źródło znajduje się poza systemem, w którym podejmowana jest decyzja.

Subiektywne są efektem błędów zawodowych, niedociągnięć i niekonsekwencji w działaniu, a ich źródło tkwi w systemie, w którym podejmowana jest decyzja.

Istnieją cztery poziomy niepewności:

Niski, który nie wpływa na główne etapy procesu opracowywania i wdrażania decyzji zarządczej;

Medium, które wymaga rewizji niektórych etapów rozwoju i wdrożenia rozwiązania;

Wysoki oznacza opracowanie nowych procedur;

Ultrawysoki, który nie pozwala na ocenę i adekwatną interpretację danych o aktualnej sytuacji.

2. Poziomy niepewności przy ocenie skuteczności decyzji zarządczych

Uwzględnienie poziomów niepewności pozwala na analityczne przedstawienie ich wykorzystania w zależności od charakteru działań zarządczych menedżera.

Na ryc. 1. macierz efektywności decyzji zarządczych prezentowana jest w postaci interakcji pomiędzy poziomami niepewności a charakterem działań zarządczych.

Skuteczne decyzje obejmują te, które są dobrze uzasadnione, dobrze opracowane, wykonalne i zrozumiałe dla wykonawcy. Nieskuteczne - nierozsądne, niedokończone, niepraktyczne i trudne do wdrożenia.

W ramach stabilnej działalności zarządczej przeprowadzane są standardowe, powtarzalne procedury w warunkach słabych zakłócających wpływów otoczenia zewnętrznego i wewnętrznego.

Korygujący charakter działań zarządczych stosowany jest wtedy, gdy występują umiarkowane zakłócenia ze strony otoczenia zewnętrznego i wewnętrznego, gdy kierownik musi dostosować kluczowe procesy systemu zarządzania.

Innowacyjne działania zarządcze charakteryzują się ciągłym poszukiwaniem i wdrażaniem nowych procesów i technologii, aby osiągnąć zamierzone cele.

Połączenie niskiego poziomu niepewności ze stabilnym i korygującym charakterem działalności (obszary A1 i B1) pozwala menadżerowi na podejmowanie świadomych decyzji przy minimalnym ryzyku wdrożenia. Z innowacyjnym charakterem działalności

i niski poziom niepewności (obszar B 1), informacja deterministyczna spowolni proces podejmowania skutecznych decyzji.

Połączenie średniego poziomu niepewności z korygującym i innowacyjnym charakterem działań zarządczych daje obszary skutecznych rozwiązań (B 2 i C 2).

Wysoki poziom niepewności w połączeniu ze stabilnym charakterem działań zarządczych prowadzi do nieskutecznych decyzji (obszar A 3), ale dobrze wpisuje się w innowacyjny charakter działań zarządczych (obszar B 3).


Ryc.1. Matryca efektywności decyzji zarządczych

„Bardzo wysoki poziom niepewności prowadzi do nieskutecznych decyzji, ponieważ źle ustrukturyzowane, trudne do zauważenia i niewiarygodne informacje utrudniają podejmowanie skutecznych decyzji. »

Uwzględnienie poziomów niepewności pozwala na analityczne przedstawienie ich wykorzystania w zależności od charakteru działań zarządczych menedżera. Skuteczne decyzje obejmują te, które są dobrze uzasadnione, dobrze opracowane, wykonalne i zrozumiałe dla wykonawcy. Nieskuteczne - nierozsądne, niedokończone, niepraktyczne i trudne do wdrożenia.

W ramach stabilnej działalności zarządczej przeprowadzane są standardowe, powtarzalne procedury w warunkach słabych zakłócających wpływów otoczenia zewnętrznego i wewnętrznego. Korygujący charakter działań zarządczych stosowany jest wtedy, gdy występują umiarkowane zakłócenia ze strony otoczenia zewnętrznego i wewnętrznego, gdy kierownik musi dostosować kluczowe procesy systemu zarządzania. Innowacyjne działania zarządcze charakteryzują się ciągłym poszukiwaniem i wdrażaniem nowych procesów i technologii, aby osiągnąć zamierzone cele. Połączenie niskiego ze stabilnym i korygującym charakterem działalności pozwala menadżerowi podejmować świadome decyzje przy minimalnym ryzyku realizacji. Biorąc pod uwagę innowacyjny charakter działalności i niski poziom niepewności, informacja deterministyczna spowolni proces podejmowania skutecznych decyzji.

Połączenie średniego poziomu niepewności z korygującym i innowacyjnym charakterem działań zarządczych tworzy obszary skutecznych rozwiązań. Wysoki poziom niepewności w połączeniu ze stabilnym charakterem działalności zarządczej prowadzą do nieskutecznych decyzji, ale dobrze wpisują się w innowacyjny charakter działalności zarządczej. Niezwykle wysoki poziom niepewności prowadzi do nieskutecznych decyzji, gdyż źle ustrukturyzowana, trudna do zauważenia i niewiarygodna informacja utrudnia podejmowanie skutecznych decyzji.

Kahneman D., Slovik P., Tversky A. Podejmowanie decyzji w warunkach niepewności: zasady i uprzedzenia

Długo czekałam na tę książkę... O twórczości noblisty Daniela Kahnemana po raz pierwszy dowiedziałam się z książki Nassima Taleba Oszukani przez losowość. Taleb często i smacznie cytuje Kahnemana, i jak się później dowiedziałem, nie tylko w tej, ale i w innych jego książkach (Czarny łabędź. Pod znakiem nieprzewidywalności, O tajemnicach zrównoważonego rozwoju). Ponadto liczne odniesienia do Kahnemana znalazłem w książkach: Evgeniy Ksenchuk Systems Thinking. Granice modeli myślowych i systemowa wizja świata, Leonard Mlodinow. (Nie) doskonały wypadek. Jak przypadek rządzi naszym życiem. Niestety nie udało mi się znaleźć książki Kahnemana w wersji papierowej, więc „musiałem” kupić e-book i pobrać Kahnemana z Internetu… I wierzcie mi, nie żałowałem ani minuty…

D. Kahneman, P. Slovik, A. Tversky. Podejmowanie decyzji w warunkach niepewności: zasady i uprzedzenia. – Charków: Wydawnictwo Instytut Psychologii Stosowanej „Centrum Humanitarne”, 2005. – 632 s.

Książka, na którą zwrócono uwagę, omawia specyfikę myślenia i zachowania ludzi podczas oceniania i przewidywania niepewnych zdarzeń. Jak przekonująco pokazuje książka, podejmując decyzje w niepewnych warunkach, ludzie zazwyczaj popełniają błędy, czasem dość istotne, nawet jeśli studiowali teorię prawdopodobieństwa i statystykę. Błędy te podlegają pewnym wzorcom psychologicznym, które zostały zidentyfikowane i dobrze potwierdzone eksperymentalnie przez badaczy.

Od czasu wprowadzenia idei Bayesa do badań psychologicznych psychologom po raz pierwszy zaoferowano spójny i jasno wyartykułowany model optymalnego zachowania w warunkach niepewności, z którym można porównać podejmowanie decyzji przez człowieka. Zgodność podejmowania decyzji z modelami normatywnymi stała się jednym z głównych paradygmatów badawczych w zakresie osądów w warunkach niepewności.

CzęśćI. Wstęp

Rozdział 1. Podejmowanie decyzji w warunkach niepewności: zasady i uprzedzenia

Jak ludzie szacują prawdopodobieństwo niepewnego zdarzenia lub wartość niepewnej wielkości? Ludzie opierają się na ograniczonej liczbie zasad heurystycznych, które redukują złożone zadania szacowania prawdopodobieństw i przewidywania wartości ilości do prostszych operacji oceny. Heurystyki są bardzo przydatne, ale czasami prowadzą do poważnych i systematycznych błędów.

Subiektywna ocena prawdopodobieństwa jest podobna do subiektywnej oceny wielkości fizycznych, takich jak odległość czy rozmiar.

Reprezentatywność. Jakie jest prawdopodobieństwo, że proces B doprowadzi do zdarzenia A? Odpowiadając, ludzie zwykle polegają heurystyka reprezentatywności, w którym prawdopodobieństwo zależy od stopnia, w jakim A jest reprezentatywny dla B, to znaczy stopnia, w jakim A jest podobne do B. Rozważmy opis mężczyzny sporządzony przez jego byłego sąsiada: „Steve jest bardzo powściągliwy i nieśmiały, zawsze chce mi pomóc, ale za mało interesuje innych ludzi i rzeczywistość w ogóle. Jest bardzo cichy i schludny, kocha porządek, a także ma zamiłowanie do szczegółów. Jak ludzie oceniają prawdopodobieństwo, że Steve będzie wykonywał zawód (na przykład rolnik, sprzedawca, pilot samolotu, bibliotekarz lub lekarz)?

W heurystyce reprezentatywności prawdopodobieństwo, że Steve jest na przykład bibliotekarzem, zależy od stopnia, w jakim jest on reprezentatywny dla bibliotekarza lub w jakim pasuje do stereotypu bibliotekarza. Takie podejście do szacowania prawdopodobieństwa prowadzi do poważnych błędów, ponieważ na podobieństwo lub reprezentatywność nie mają wpływu indywidualne czynniki, które powinny mieć wpływ na oszacowanie prawdopodobieństwa.

Niewrażliwość na wcześniejsze prawdopodobieństwo wyniku. Jednym z czynników, który nie wpływa na reprezentatywność, ale znacząco wpływa na prawdopodobieństwo, jest poprzednie (wcześniejsze) prawdopodobieństwo lub częstotliwość podstawowych wartości wyników (wyników). Na przykład w przypadku Steve’a fakt, że w populacji jest o wiele więcej rolników niż bibliotekarzy, jest koniecznie brany pod uwagę przy każdej rozsądnej ocenie prawdopodobieństwa tego, że Steve jest raczej bibliotekarzem niż rolnikiem. Uwzględnienie częstotliwości wartości bazowych nie wpływa jednak tak naprawdę na zgodność Steve'a ze stereotypem bibliotekarza i rolnika. Jeśli ludzie szacują prawdopodobieństwo poprzez reprezentatywność, oznacza to, że zaniedbują wcześniejsze prawdopodobieństwa.

Hipotezę tę sprawdzono w eksperymencie, w którym zmieniano wcześniejsze prawdopodobieństwa. Badanym pokazywano krótkie opisy kilku osób wybranych losowo z grupy 100 specjalistów – inżynierów i prawników. Osoby badane poproszono o ocenę, dla każdego opisu, prawdopodobieństwa, że ​​należał on do inżyniera, a nie prawnika. W jednym przypadku eksperymentalnym powiedziano badanym, że grupa, z której wykonano opisy, składała się z 70 inżynierów i 30 prawników. W innym przypadku badanym powiedziano, że grupa składa się z 30 inżynierów i 70 prawników. Prawdopodobieństwo, że dany opis dotyczy raczej inżyniera niż prawnika, powinno być większe w pierwszym przypadku, gdzie większość to inżynierowie, niż w drugim, gdzie większość to prawnicy. Można to wykazać, stosując regułę Bayesa, że ​​proporcja tych szans musi wynosić (0,7/0,3)2, czyli 5,44 dla każdego opisu. Z rażącym naruszeniem reguły Bayesa badani w obu przypadkach wykazali zasadniczo takie same szacunki prawdopodobieństwa. Najwyraźniej uczestnicy oceniali prawdopodobieństwo, że dany opis należy do inżyniera, a nie prawnika, jako stopień, w jakim opis ten był reprezentatywny dla obu stereotypów, przy niewielkim lub w ogóle braniu pod uwagę prawdopodobieństw wcześniejszych tych kategorii.

Niewrażliwy na wielkość próbki. Ludzie powszechnie stosują heurystykę reprezentatywności. Oznacza to, że szacują prawdopodobieństwo wyniku w próbie na podstawie stopnia, w jakim ten wynik jest podobny do odpowiedniego parametru. Podobieństwo statystyki w próbie do typowego parametru w całej populacji nie zależy od wielkości próby. Dlatego też, jeśli prawdopodobieństwo oblicza się na podstawie reprezentatywności, wówczas prawdopodobieństwo statystyczne w próbie będzie zasadniczo niezależne od wielkości próby. Przeciwnie, zgodnie z teorią próbkowania, im większa próbka, tym mniejsze oczekiwane odchylenie od średniej. To podstawowe pojęcie statystyki oczywiście nie leży w ludzkiej intuicji.

Wyobraź sobie kosz wypełniony kulkami, z których 2/3 jest jednego koloru, a 1/3 innego. Jedna osoba bierze z koszyka 5 piłek i odkrywa, że ​​4 z nich są czerwone, a 1 biała. Inna osoba wyjmuje 20 piłek i odkrywa, że ​​12 z nich jest czerwonych, a 8 białych. Która z tych dwóch osób powinna z większą pewnością stwierdzić, że w koszu znajduje się 2/3 czerwonych i 1/3 białych bil, zamiast odwrotnie? W tym przykładzie poprawną odpowiedzią jest oszacowanie kolejnych szans na 8 do 1 dla próbki 5 kulek i 16 do 1 dla próbki 20 kulek (rysunek 1). Jednak większość osób uważa, że ​​pierwsza próbka znacznie mocniej potwierdza hipotezę, że kosz wypełniony jest przede wszystkim kulkami czerwonymi, ponieważ odsetek czerwonych kulek w pierwszej próbie jest większy niż w drugiej. To ponownie pokazuje, że w intuicyjnych szacunkach dominuje proporcja próbki, a nie jej wielkość, co odgrywa decydującą rolę w określaniu rzeczywistych kolejnych szans.

Ryż. 1. Prawdopodobieństwa w zadaniu z kulkami (wzory znajdziesz w pliku Excel w zakładce „Kulki”)

Błędne wyobrażenia o przypadku. Ludzie wierzą, że sekwencja zdarzeń zorganizowanych w sposób losowy stanowi istotną cechę tego procesu, nawet jeśli sekwencja jest krótka. Na przykład w przypadku monety, która wyląduje orłem lub reszką, ludzie uważają, że ciąg O-R-O-R-R-O jest bardziej prawdopodobny niż ciąg O-O-O-R-R-R, który nie wydaje się prawdopodobny.przypadkowy, a także bardziej prawdopodobny niż ciąg O-O-O-O-R-O, który nie odzwierciedla równoważności strony monety. Dlatego ludzie oczekują, że zasadnicze cechy procesu będą reprezentowane nie tylko globalnie, tj. w pełnej kolejności, ale także lokalnie – w każdej jej części. Jednak lokalnie reprezentatywna sekwencja systematycznie odbiega od oczekiwanych szans: ma zbyt wiele zmian i zbyt mało powtórzeń. 2

Inną konsekwencją przekonań o reprezentatywności jest dobrze znany błąd hazardzisty kasynowego. Na przykład, widząc, że czerwone wylądują na kole ruletki zbyt długo, większość ludzi błędnie uważa, że ​​bardziej prawdopodobne jest, że teraz wyrzucą czarne, ponieważ uderzenie czarnego zakończyłoby bardziej reprezentatywną sekwencję niż uderzenie kolejnego czerwonego. Szansa jest ogólnie postrzegana jako proces samoregulujący, w którym odchylenie w jednym kierunku prowadzi do odchylenia w kierunku przeciwnym, aby przywrócić równowagę. W rzeczywistości odchylenia nie są korygowane, ale po prostu „rozpuszczane” w miarę postępu losowego procesu.

Wykazywał silną wiarę w to, co można nazwać prawem małych liczb, zgodnie z którym nawet małe próbki są wysoce reprezentatywne dla populacji, z której zostały wybrane. Wyniki tych badaczy odzwierciedlały oczekiwanie, że hipoteza, która jest ważna w odniesieniu do całej populacji, zostanie wykazana w próbie jako statystycznie istotny wynik, a wielkość próby nie ma znaczenia. W rezultacie eksperci pokładają zbyt dużą wiarę w wynikach uzyskanych z małych próbek i przeceniają powtarzalność tych wyników. Podczas prowadzenia badań takie nastawienie prowadzi do doboru próbek o nieodpowiedniej wielkości i przesadnej interpretacji wyników.

Niewrażliwość na wiarygodność prognoz. Czasami ludzie są zmuszeni do przewidywania numerycznego, np. przyszłej ceny akcji, popytu na produkt lub wyniku meczu piłkarskiego. Takie przewidywania opierają się na reprezentatywności. Załóżmy na przykład, że ktoś otrzymuje opis firmy i zostaje poproszony o przewidzenie jej przyszłych zysków. Jeżeli opis firmy jest bardzo korzystny, wówczas bardzo wysokie zyski będą najbardziej reprezentatywne z tego opisu; jeśli opis będzie mierny, wówczas najbardziej reprezentatywnym rozwojem będzie wydawał się zwykły rozwój wydarzeń. Stopień, w jakim opis jest korzystny, nie zależy od prawdziwości tego opisu ani od stopnia, w jakim pozwala na dokładne przewidywanie. Dlatego też, jeśli ludzie dokonują przewidywań wyłącznie na podstawie pozytywności opisu, ich przewidywania będą niewrażliwe na wiarygodność opisu i oczekiwaną dokładność przewidywania. Taki sposób dokonywania ocen narusza normatywną teorię statystyki, w której skrajność i zakres przewidywań zależą od przewidywalności. Gdy przewidywalność wynosi zero, we wszystkich przypadkach należy dokonać tej samej prognozy.

Iluzja ważności. Ludzie z dużą pewnością potrafią przewidzieć, że dana osoba jest bibliotekarzem, jeśli otrzymają opis osobowości tej osoby, który pasuje do stereotypu bibliotekarza, nawet jeśli jest on skąpy, niewiarygodny lub nieaktualny. Nieuzasadnioną pewność, będącą konsekwencją udanej zbieżności przewidywanego wyniku i danych wejściowych, można nazwać iluzją trafności.

Błędne przekonania na temat regresji. Załóżmy, że duża grupa dzieci została poddana badaniu w ramach dwóch podobnych wersji testu umiejętności. Jeśli spośród tych, które najlepiej wypadły w jednej z tych dwóch wersji, wybierze dziesięcioro dzieci, zazwyczaj będzie zawiedziony ich wynikami w drugiej wersji testu. Obserwacje te ilustrują ogólne zjawisko zwane regresją do średniej, które zostało odkryte przez Galtona ponad 100 lat temu. W codziennym życiu wszyscy spotykamy się z dużą liczbą przypadków regresji do średniej, porównując na przykład wzrost ojców i synów. Jednak ludzie nie mają o tym pojęcia. Po pierwsze, nie spodziewają się regresji w wielu kontekstach, w których się ona spodziewana. Po drugie, gdy rozpoznają wystąpienie regresji, często wymyślają błędne wyjaśnienia przyczyn.

Nierozpoznanie znaczenia regresji może mieć szkodliwe konsekwencje. W dyskusjach na temat lotów szkoleniowych doświadczeni instruktorzy zauważyli, że pochwała za wyjątkowo miękkie lądowanie zwykle wiąże się z gorszym lądowaniem przy następnej próbie, natomiast ostra krytyka po twardym lądowaniu zwykle skutkuje poprawą wyników w kolejnej próbie. Instruktorzy doszli do wniosku, że nagrody słowne są szkodliwe dla nauki, podczas gdy nagany są korzystne, co jest sprzeczne z przyjętą doktryną psychologiczną. Wniosek ten jest nieważny ze względu na obecność regresji do średniej. Zatem niezrozumienie efektu regresji prowadzi do tego, że skuteczność kary jest przeceniana, a skuteczność nagrody niedoceniana.

Dostępność. Ludzie szacują częstotliwość zajęć lub prawdopodobieństwo zdarzeń na podstawie łatwości, z jaką przypominają sobie przypadki lub zdarzenia. Kiedy rozmiar klasy jest szacowany na podstawie dostępności jej elementów, klasa, której elementy można łatwo przywołać, będzie wydawać się większa niż klasa tego samego rozmiaru, której elementy są mniej dostępne i trudniejsze do przywołania.

Badanym czytano listę znanych osób obu płci, a następnie proszono o ocenę, czy na liście znajduje się więcej imion męskich niż żeńskich. Różnym grupom zdających rozdano różne listy. Na niektórych zestawieniach mężczyźni byli bardziej znani niż kobiety, a na innych kobiety były bardziej znane niż mężczyźni. Na każdej z list badani błędnie uważali, że klasa (w tym przypadku płeć), w której znajdują się bardziej znane osoby, jest liczniejsza.

Zdolność wyobrażania sobie obrazów odgrywa ważną rolę w ocenie prawdopodobieństwa sytuacji z życia codziennego. Na przykład ryzyko związane z niebezpieczną wyprawą ocenia się, odtwarzając w myślach nieprzewidziane okoliczności, na które wyprawa nie jest przygotowana. Jeśli wiele z tych trudności zostanie wyraźnie przedstawionych, wyprawa może wydawać się niezwykle niebezpieczna, chociaż łatwość, z jaką wyobraża się sobie katastrofy, niekoniecznie odzwierciedla ich rzeczywiste prawdopodobieństwo. I odwrotnie, jeśli potencjalne zagrożenie jest trudne do wyobrażenia lub po prostu nie przychodzi na myśl, ryzyko związane ze zdarzeniem może być rażąco niedoszacowane.

Iluzoryczny związek. Wieloletnie doświadczenie nauczyło nas, że na ogół elementy dużych zajęć zapamiętywane są lepiej i szybciej niż elementy zajęć rzadszych; że zdarzenia bardziej prawdopodobne są łatwiejsze do wyobrażenia niż mało prawdopodobne; oraz że skojarzeniowe powiązania między zdarzeniami wzmacniają się, gdy zdarzenia często występują jednocześnie. Dzięki temu osoba ma do dyspozycji procedurę ( heurystyka dostępności), aby oszacować wielkość klasy. Prawdopodobieństwo zdarzenia lub częstotliwość, z jaką zdarzenia mogą wystąpić jednocześnie, mierzy się łatwością, z jaką można przeprowadzić odpowiednie mentalne procesy przypominania, przypominania lub kojarzenia. Jednakże te procedury szacowania systematycznie prowadzą do błędów.

Regulacja i „wiązanie” (kotwiczenie). W wielu sytuacjach ludzie dokonują szacunków na podstawie wartości początkowej. Dwie grupy uczniów szkół średnich przez 5 sekund szacowały wartość wyrażenia liczbowego zapisanego na tablicy. Jedna grupa oszacowała wartość wyrażenia 8x7x6x5x4x3x2x1, druga grupa oszacowała wartość wyrażenia 1x2x3x4x5x6x7x8. Średni wynik dla ciągu rosnącego wyniósł 512, natomiast średni wynik dla ciągu malejącego wyniósł 2250. Prawidłowa odpowiedź to 40 320 dla obu ciągów.

Błędy w ocenie złożonych zdarzeń są szczególnie istotne w kontekście planowania. Pomyślne zakończenie przedsięwzięcia biznesowego, takiego jak opracowanie nowego produktu, ma zwykle złożony charakter: aby przedsiębiorstwo odniosło sukces, musi nastąpić każde z szeregu zdarzeń. Nawet jeśli każde z tych zdarzeń jest wysoce prawdopodobne, ogólne prawdopodobieństwo sukcesu może być dość niskie, jeśli liczba zdarzeń jest duża. Ogólna tendencja do przeceniania prawdopodobieństwa wystąpienia zdarzeń towarzyszących prowadzi do nieuzasadnionego optymizmu w ocenie prawdopodobieństwa powodzenia planu lub terminowego ukończenia projektu. Wręcz przeciwnie, w ocenie ryzyka powszechnie spotyka się rozłączne struktury zdarzeń. Złożony system, taki jak reaktor jądrowy lub organizm ludzki, ulegnie uszkodzeniu, jeśli którykolwiek z jego niezbędnych elementów ulegnie awarii. Nawet jeśli prawdopodobieństwo awarii każdego komponentu jest małe, prawdopodobieństwo awarii całego systemu może być wysokie, jeśli zaangażowanych jest wiele komponentów. Ze względu na błąd zakotwiczenia ludzie mają tendencję do niedoceniania prawdopodobieństwa awarii w złożonych systemach. Zatem błąd zakotwiczenia może czasami zależeć od struktury wydarzenia. Struktura zdarzenia lub zjawiska przypominająca łańcuch ogniw prowadzi do przeszacowania prawdopodobieństwa tego zdarzenia, natomiast struktura zdarzenia przypominająca lejek składający się z rozłącznych ogniw prowadzi do niedoszacowania prawdopodobieństwa wystąpienia tego zdarzenia lub zjawiska. wydarzenie.

„Kotwiczenie” w szacowaniu subiektywnego rozkładu prawdopodobieństwa. W analizie decyzji od ekspertów często wymaga się wyrażenia swojej opinii na temat ilości. Na przykład ekspert może zostać poproszony o wybranie liczby X 90 w taki sposób, aby subiektywne prawdopodobieństwo, że liczba ta będzie wyższa od średniej Dow Jones, wynosiło 0,90.

Eksperta uważa się za prawidłowo skalibrowanego w danym zestawie problemów, jeśli tylko 2% prawidłowych wartości szacowanych wielkości jest poniżej określonych wartości. Zatem w 98% problemów prawdziwe wartości powinny ściśle mieścić się w przedziale między X 01 a X 99.

Zaufanie do heurystyk i powszechność stereotypów nie ogranicza się do zwykłych ludzi. Doświadczeni badacze również są podatni na te same uprzedzenia, gdy myślą intuicyjnie. Zaskakujące jest to, że ludzie nie są w stanie wywnioskować z długiego doświadczenia takich podstawowych zasad statystycznych, jak regresja do średniej czy efekt wielkości próby. Chociaż wszyscy spotykamy w życiu wiele sytuacji, w których można zastosować te zasady, bardzo niewielu odkrywa zasady doboru próby i regresji samodzielnie poprzez doświadczenie. Zasad statystycznych nie uczy się z codziennego doświadczenia.

CzęśćIIReprezentatywność

Daniel Kahneman (5 marca 1934, Tel Awiw) to izraelsko-amerykański psycholog, jeden z twórców psychologiczno-ekonomicznej teorii i finansów behawioralnych, które łączą ekonomię i kognitywistykę w celu wyjaśnienia irracjonalności podejścia człowieka do ryzyka podczas podejmowania decyzji i w zarządzaniu swoim zachowaniem.

Znany ze swojej pracy wykonanej wraz z Amosem Tverskym i innymi, nad ustaleniem poznawczych podstaw powszechnych ludzkich uprzedzeń w stosowaniu heurystyki i rozwojem teorii perspektywy; laureat Nagrody Nobla w dziedzinie ekonomii 2002 „za zastosowanie metod psychologicznych w naukach ekonomicznych, w szczególności w badaniu kształtowania się sądów i podejmowania decyzji w warunkach niepewności” (wraz z W. Smithem), mimo że badania prowadził jako psycholog, a nie ekonomista.

Kahneman urodził się w Tel Awiwie, dzieciństwo spędził w Paryżu, a w 1946 r. przeniósł się do Palestyny. Uzyskał tytuł licencjata z matematyki i psychologii na Uniwersytecie Hebrajskim w Jerozolimie w 1954 roku, po czym pracował w Siłach Obronnych Izraela, głównie na wydziale psychologicznym. Jednostka, w której służył, zajmowała się selekcją i testowaniem poborowych. Kahneman opracował wywiad oceniający osobowość.

Po wyjściu z wojska Kahneman wrócił na Uniwersytet Hebrajski, gdzie odbywał kursy z logiki i filozofii nauki. W 1958 przeprowadził się do Stanów Zjednoczonych, a w 1961 uzyskał stopień doktora psychologii na Uniwersytecie Kalifornijskim w Berkeley.

Od 1969 roku współpracował z Amosem Tverskym, który na zaproszenie Kahnemana wykładał na Uniwersytecie Hebrajskim na temat oceny prawdopodobieństwa zdarzeń.

Obecnie pracuje na Uniwersytecie Princeton, a także na Uniwersytecie Hebrajskim. Jest członkiem rady redakcyjnej czasopisma Economics and Philosophy. Kahneman nigdy nie twierdził, że jako jedyny zajmuje się ekonomią psychologiczną; zwracał uwagę, że wszystko, co osiągnął w tej dziedzinie, zostało osiągnięte przez niego i Tversky’ego wraz z ich współautorami Richardem Taylerem i Jackiem Knetschem.

Kahneman jest żonaty z Ann Triesman, znaną badaczką uwagi i pamięci.

Książki (2)

Podejmowanie decyzji w niepewności

Podejmowanie decyzji w warunkach niepewności: zasady i uprzedzenia.

„Podejmowanie decyzji w niepewności: zasady i uprzedzenia” to fundamentalna praca z zakresu psychologii podejmowania decyzji.

Odniesienia do poszczególnych dzieł tych autorów są dość powszechne w literaturze naukowej, ale pełny zbiór tych artykułów został po raz pierwszy opublikowany w języku rosyjskim. Publikacja tej książki jest z pewnością ważnym wydarzeniem dla specjalistów z zakresu zarządzania, planowania strategicznego, podejmowania decyzji, zachowań konsumenckich itp.

Książka jest interesująca dla specjalistów z zakresu zarządzania, ekonomii, psychologii, zarówno w teorii, jak i w praktyce, którzy zajmują się tak złożonym i interesującym obszarem aktywności człowieka, jakim jest podejmowanie decyzji.