Eksamensspørgsmål - Scientic Methods 2021 June 21, 2021 Opgave 1. Diskuter begrebet økonometriske modeller med begrænset identikation. Økonometriske modeller med begrænset identikation kan beskrives som økonometriske modeller, hvor parametrene ikke kan observeres, men derimod kan estimeres. Illustration: Betragt en udbuds- og efterspørgselskurve Pi Pi • Endogene variable Pi og Qi = ac + aq Qi + ax Xi + az Zi + ui udbudsfunktion = bc + bq Qi + bx Xi + bz Zi + ei efterspørgsel og eksogene variable Xi og Zi og 1 (konstant) Ikke identicerede: De to relationer er fuldstændig ens, bortset fra navngivningen af de ukendte parametre Ordensbetingelsen: Kræver, at antallet af eksogene variable Xi , Zi og1(konstant) i modellen er større end eller lig antallet af forklarende variable i hver relation. ∗ Her: antallet af eksogene variable 3. Antallet af forklarende variable er 4 i begge relationer. Pålæg apriori restriktioner ∗ ∗ Udeluk Xi (ax = 0) og Zi (bz = 0) Dermed: Antallet af forklarende variable i begge relationer lig med 3, og de er begge identicerede ig. ordensbetingelsen for identikation. ∗ Identikationen fremkommer som følge af, at · · Ændringer i Ændringer i Xi Zi ytter efterspørgselskurven, men ikke udbudskurven ytter udbudskurven, men ikke efterspørgselskurven. Forinden a priori restrik- tionen ville ændringer i de to eksogene variable ytte begge kurver. 1 • Alternativ a priori restriktion: (Pi − 2Xi ) (Pi − 2Xi ) ax = 2 = ac + aq Qi + az Zi + ui = bc + bq Qi + (bx − 2) Xi + bz Zi + ei Begge relationer identiceret med mindre og udbudsfunktionen af en ændring i • Xi (bx − 2) = 0 udbudsfunktion efterspørgsel > i dette tilfælde er eekten på efterspørgsels- den samme. Pointe: Identikation af en models parametre kan således ske, ved at man pålægger a priori restriktioner. Efter identicering af alle relationer: muligt at estimere parametrene i disse. ∗ Problem med netop identiceret model: ikke muligt at teste disse restriktioner, da modellen ikke ax = 0 (eller 2). Derimod kan man H0 : aq = 0 og under H1 : aq 6= 0. er identiceret, hvis ikke identiceret under både teste om aq = 0, fordi modellen er Det er derfor klart: En model, hvor det er nødvendigt at pålægge relativt mange a priori restriktioner og specielt mange a priori restriktioner med et spinkelt informationsgrundlag for at sikre modellens identikation og estimation af de resterende parametre, må betragtes med en megen stor skepsis. ∗ Test af sådanne modeller bliver i overvejende grad en test af de restriktioner, der er pålagt a priori, og ikke, som man ofte forledes til at tro, af resterende parametre, der estimeres på baggrund af data. • Derefter overgang til Lucas Kritik og udviklingen i makroøkonomisk teori, hvor der er modeller med en meget svag identikation (DSGE). Desværre har udviklingen i makroøkonomisk teori medført, at mange af de makromodeller, der udvikles på universiteter og forskningsinstitutioner, præcis er modeller med en meget svag identikation. ∗ Lucas kritik heraf: Lucas kritikken anfører, at empiriske relationer, der er fundet ud fra historiske data, f.eks. den "Keynesianske"forbrugsfunktion, ikke kan anvendes til politikanbefalinger, fordi sådanne relationer ikke er invariante over for ændringer i den førte politik. · Invariant: en størrelse, der ikke forandres For lineære sammenhænge gælder, at hvis den uafhængige variabel vokser med en fast størrelse vil den afhængige variabel vokse med en invariant størrelse. 2 • Hvilket leder til spørgsmålet om disse modeller er immune over for for Lucas kritik? For ganske vist er modellerne, som anført af Romer (2012), baseret på optimerende agenter, der optræder som mikroteorien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med virkelighedens agenter. Samtidig er "policy" beskrevet ved en reaktionsfunktion for de pengepolitiske myndigheder, der nødvendigvis kun kan give et meget forsimplet billede af sammenhængene til den økonomiske politik. Desuden vises der i meget forskning vedr. de økonomiske agenters adfærd, at de abstraktioner, der anvendes i DSGE-modeller, er meget forsimplede i forhold til virkeligheden og desuden basseret på et meget tyndt datagrundlag. DSGE-modellerne er ligesom de modeller som Lucas kritiserede, nemlig de såkaldte Keynesianske makromodeller, er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde, at fordi de optimerer en kriteriefunktion under bibetingelser, er de stabile over for politikinterventioner. Det skal afgøres ved test for super eksogenitet. I forhold til modeller med begrænset identikation har vi at det er nødvendigt at fremsætte en den a priori restriktioner for således at opfylde ordensbetingelsen og således blive en identiceret model. Men idet vi gør modellen indenticerbar, spænder vi lidt ben for os selv ift. de test af modellen vi gerne vil gennemføre. Vores test bliver således et test af de restriktioner vi har pålagt modellen og ikke et af de resterende parametre der estimeres på baggrund af data. Hvorvidt dette er fyldestgørende, kan diskuteres, idet vi som regel vil teste vores modeller uden a priori restriktioner. Det er muligt, og sandsynligt, at man kan foretage en yderligere udvikling af DSGE-modellerne, så de bliver anvendelige, men det forekommer at være en lang og besværlig vej at gøre dem til mere end smukke, og i en vis forstand teoretisk attraktive, modeller. Ordrebetingelsen: Antallet af eksogene variable og en konstant skal være større end eller lig med antallet af forklarende variable i hver relation. 3 Figure 1: Opgave 2 Opgave 2. I bogen Videnskabelige metoder i økonomi kap 1. ndes gurerne 1.1 og 1.2 I empiriske økonomiske analyser rapporterer man ofte en estimeret model og angiver, hvor mange signikante (forskellig fra nul) de enkelte parameterestimater er. Dette gøres typisk med et antal stjerner, *** for signikant på et 1% niveau, ** for 5% niveau og * for 10% niveau. Hvis der ingen stjerner er, anses parameteren for at være nul. Man kan alternativt angive p-værdien, der angiver sandsynligheden for at få en værdi af teststatistikken, der er ligeså ekstrem eller mere ekstrem end den værdi, der observeres, givet at • er sand. H0 Kort sagt, er den maksimale sandsynlighed for at forkaste H0, hvis denne er sand. Hvis man Det betyder, at desto større p-værdi, desto større signikansniveau kræves der for at forkaste indebærer en stor p-værdi, at vi ikke forkaster • H0 Signikansniveauet αk H0 . forkaster en sand H0 begår man en Type-I-fejl. Hvor en Type-II-fejl er hvis man ikke forkaster en falsk H0. • Størrelsen af et test (size på engelsk) dvs. α, er den faktiske sandsynlighed for at forkaste H0, hvis denne er sand. α ≤ ak . En Type-I-fejl indtræer hvis man forkaster en nulhypotese som er sand, dvs: P (Type-I-fejl) = P (forkastH0 |H0 sand) = α hvor α er vores signikansniveau er altså hvor stor en sandsynlighed vi vil tillægge at forkaste vores H0 er sand. En Type-II-fejl indtræer, hvis man ikke forkaster en falsk H0, dvs. hypotese. Sandsynligheden for en Type II fejl benævnes ofte β, hvis man forkaster en sand alternativ dvs.: P (Type-II-fejl) = P (acceptereH0 |H0 falsk) = β Styrken af et test (power) er den faktiske sandsynlighed for at forkaste H0 hvis den er falsk. Styrken er således 1−β . Vi har derfor for en høj styrke tæt på 1, at sandsynligheden for en Type-II fejl er tæt på nul, hvilket som 4 sagt betyder at testen med stor sandsynlighed forkaster en falsk nulhypotese. Vi kan således øge styrken af et test ved at hæve sandsynligheden for en Type-I-fejl, som således sænker sandsynligheden for en type-II-fejl, hvilket øger styrken af testet. Vi kan også øge styrken ved at øge stikprøvestørrelsen. Bayes sætning også kendt som loven om den inverse sandsynlighed er udtrykt ved: P (Aj |B) = P (B|Aj ) P (Aj ) P (B) Bayes sætning giver således et udtryk for a posteriori sandsynlighederne, dvs. sandsynligheden for A , når det vides, at hændelsen B er indtruet. Dette er særlig relevant når vi vil undersøge vores type-I og II fejl ifm. vores power og size af testene. Grunden til at vi bruger dette er at vi kan få små p-værdier under H0 hvilket er et udtryk for at H1 er mere sandsynlig. Men ved at nde a posteriori sandsynligheden medtager vi styrken af et test og nder således et mere retsvisende billede. Vi har nu (i de to gure) τ = 1, vi, at de betingede sandsynligheder for H0 , hvis vi forkaster τ =0 givet at H0 mens τ = 0, hvis vi ikke forkaster H0 . HA er sand, hhv: Herved har er sand og givet P (τ = 0|H0 ) = 1 − α P (τ = 0|HA ) = β Anvender vi bayes sætning kan vi nu nde hver a posteriori sandsynlighed som vidst i gurerne, for hhv. HA er sand givet tetest ikke forkaster H0 : dvs. (τ = 0) H0 og er: πH0 πτ 0 πH p(HA |τ = 0) = p(τ = 0|HA ) A π τ0 p(H0 |τ = 0) = p(τ = 0|H0 ) Hvor π er a priori sandsynligheden for hhv. at τ = 0 og at H0 og HA er sand. sandsynlighederne er forholdet mellem a priori sandsynlighederne ganget med perisk test ikke kan forkaste Figur 1: Viser H0 . P (H0 |τ = 0) = (1−α)πH0 , som angiver a posteriori sandsynligheden for at (1−α)πH0 +(1−ρ)(1−πH0 ) H0 , dvs. τ = 0 πH0 = 0.25, 0.5, 0.75 sand, givet at testet ikke afviser a priori sandsynligeder Forholdet mellem a posteriori 1−α når man som følge af et emβ er afbildet ovenfor styrken for en size α = 0, 05 H0 er og for 3 forskellige Hvis ens a priori sandsynlighed for at H0 er sand er høj, så er power mindre vigtigt end hvis ens a priori sandsynlighed er lav. omvendt viser det også at hvis styrken er tilstrækkelig høj er a priori sandsynligheden mindre vigtig. Dog skal styrken gerne være over 0:9 og helst over 0:95 for at have en lav a priori. Den viser også, at hvis styrken er = 1 er a priori ligegyldig; vi vil altid forkaste falske H0 og sandsynligheden for at H0 er sand givet at vi ikke har forkastet er altså 1 (vi begår ingen type I eller II fejl) Det betyder at hvis testet har meget høj styrke, og testresultatet indebærer, at man ikke forkaster 5 H0 , vil der være en høj sandsynlighed for, at styrken ρ = 0.5 H0 er sand, hvis man a priori har rimelig tiltro til vil a posteriori sandsynligheden kun være ca 65% for at potese 50% sandsynlighed a priori, dvs. Hvis ρ = α = 0.05, πH0 = 0.5, hvor πH0 = 0.5, H0 H0 , dvs. πH0 ≥ 0.5. Men er er sand, når man tillægger denne hy- dermed har alternativ hypotesen samme a priori sandsynlighed. vil a posteriori sandsynligheden P (H0 |τ = 0) kun være = 0.5, dvs. lig med a priori sandsynligheden, hvilket siger at testen ikke er informativt. Figur 2: Viser P (H0 |τ = 1) = givet at testet afviser H0 , dvs. απH0 som angiver a posteriori sandsynligheden for at απH0 +(1−β)(1−πH0 ) τ =1 er afbildet overfor styrken ρ for en size α = 0.05 H0 er sand, og for 3 forskellige værdier af a priori sandsynligheden. πH0 = πHA = 0.5 vil a posteriori = 0.5, hvis styrken er lig med size (ρ = α = 0.05) → ingen informationsværdi. Hvis vi derimod har en høj styrke ρ = 0.9 vil a posteriori sandsynligheden være meget lav, med en a priori sandsynAf guren fremgår det at i tilfælde af at a priori sandsynlighederne er ens dvs. sandsynligheden P (H0 |τ = 1) være lighed på 0.5 Man kan således fra gur 2, kun have tillid til et testresultat hvis styrken af testen i den konkrete situation er høj. Uden at man kender testens styrke, er der således begrænset information i stjernerne eller, for den sags skyld, i deres fravær. Styrken af et test kan forbedres ved at inddrage ere observationer eller ved at ændre signikansniveauet α (øge signikans / maksimale sandsynlighed for at begå type 1 fejl). Samlet set viser disse to g- urer at jo større teststyrken er jo mere information bidrager det med i forhold til opdateringen af sandsynlighederne. Af gur 1 fremgår det at i tilfældet af at man får en a posteriori sandsynlighed på 0.9 og har benyttet α = 0.05 og ρ = 0.7 har man haft en implicit a priori på 0.75. → Heraf fremgår det at selvom man ikke har valgt en eksplicit a priori vil denne stadig have betydning for den a posteriori sandsynlighed man ender ud med. Afhængig af størrelsen af denne a priori samt testets styrke kan denne implicitte a priori have stor betydning for testens resultater. Man kan også se at hvis styrken er lav, så har a priori sandsynligheden stor betydning for ens resultat eller fortolkning af resultatet Selvom man ikke eksplicit anvender Bayes sætning, vil et valg i forbindelse med et hypotesetest altid have en implicit prior. Hvis denne implicitte prior er meget stor eller meget lille, er testens resultat i høj grad bestemt af ens a priori holdninger. Størrelsen af den implicitte a prior, påvirker testets resultat, som vist ovenover. 6 Opgave 3. Diskuter begreberne encompassing og kongruens og angiv deres brug i den såkaldte London School of Economics model Et af de større grundlæggende brud med den klassiske statistisks opfattelse er, at opfatte et givet forslag til en økonometrisk model, som et led i en progressiv forskningsstrategi, hvor modellen dels skal være i overensstemmelse med data (kongruent), dels skal kunne forklare (encompas) de tidligere kongruente modellers forklaringer. Hermed bliver de sædvanlige angivelser af den foreslåede models opfyldelse af kriterier for fravær af autokorrelation, heteroskedasticitet, ikke normalitet, samt graden af signikante parametre kun et tjek på om modellen er kongruent med data, og diskussionen om modellens anvendelighed bliver et spørgsmål om den kan forklare alternative modellers resultater, dvs. encompassing. Kongruens (overensstemmelse): En empirisk model er kongruent, hvis den er i overensstemmelse med data, der udgører, eller bør udgøre, det empiriske grundlag (statistisk signikans). Encompassing (omsluttende): At en empirisk model er omsluttende (encompassing) i forhold til de rivaliserende modeller indebærer, at den kan forklare disse rivaliserende modellers egenskaber og resultater, hvorved disse modeller bliver overødige (økonomisk signikans). Man inddeler den økonometriske procedure i to faser: Den første fase er den eksplorative fase, der består i at indsamle informationer fra ere, ofte mange, kilder om hvilke teorier der ndes mm. Man opstiller herefter en foreløbig model, hvis parametre estimeres, man foretager misspecikationstest og tester de hypoteser, som tidligere er blevet testet af andre, eller som man selv har opstillet. Hvis misspecikationstestene slår alarm, hvis resultaterne ikke passer med de resultater, der hidtil er opnået, eller hvis de ikke passer med de forestillinger, man selv har, ændrer man modellen, inddrager nye variable OG transformerer dem i en trial and error proces, der fortsætter indtil man enten har nået en model, som man synes ser fornuftig ud, eller må opgive. Det sidste rapporteres sjældent. Den anden fase er Evalueringsfasen, som er evaluering af, hvorvidt den model, man har fundet er i overensstemmelse (kongruent) med de data, man har til rådighed. I visse tilfælde anvender man således den estimerede model på et nyt datasæt. Og endeligt undersøger man, om modellen kan forklare de resultater, som andre alternative modeller har opnået. Dette sidstnævnte benævnes encompassing på engelsk. Den evaluerende fase kan foretages dels af en selv, dels af andre, der tager udgangspunkt i den opstillede model, og evt. udbygger den og herunder evaluerer resultaterne. For at undgå både at man snyder sig selv og andre, er det i virkeligheden nødvendigt, at man opretholde en høj videnskabelig standard, hvor man både bevæger sig fremad efter en forholdsvis velbeskrevet og transparent model, og hvor man også gør det muligt for andre at foretage yderligere analyser af de samme forhold og ved anvendelse af de samme data, hvis dette overhovedet er muligt. Historisk set har økonomer benyttet én af to metoder til at bygge økonomiske modeller; en teoretisk drevet og en data drevet 1. Teoridrevne fremgangsmåde: En model opstilles med n forklarende variable, som korresponderer med den eksisterende økonomiske teori. - Denne model vil ofte være ukomplet grundet manglende eller overødige variable eller forkert specikation af funktionen eller ændringer i sammenhængen over perioden. 7 Figure 2: 2. Datadrevne fremgangsmåde: Efter indsamling af xt der bedst forklarer yt n observationer udvælges den kombination af variable samt en funktionsform, der er optimal i denne forbindelse. Ved udvælgelsen står man overfor to fejlmuligheder: Inkludere irrelevante variable og undlade relevante variable. Når der er et stort antal variable at vælge imellem, er der en vis sandsynlighed for fejltagelser. London School of Economics (LSE), I stedet for at bruge én af de to ovenstående metoder foreslår Hendry og Johansen (2015) at kombinere de to metoder i hvad der ultimativt også kan kaldes LSE metoden der er en 6 trins procedure der består af en overordnet process for opbygningen af en model. Vi kan derfor anse de økonometriske modeller som en reduktion fra en ukendt data genererings process (DGP). Her vil en kompleks DGP model normalt være udgangspunktet, hvorfra vi ved en procedure går til en mere specik model. Det er det vi refererer som generalto-specic modelling. → Man kan sikre sig, at teori modellen opretholdes og at de problemer, der er i forbindelse med den datadrevne fremgangsmåde, isoleres til at omhandle udvælgelsen af de relevante variable. Med store datamængder computerkraft er en væsentlig del af arbejdet med at opstille økonometriske modeller vil blive automatiseret i de kommende år. Her vil to kriterier til denne automatisering med fordel kunne være kongruens og encompassing jf. LSE metoden. Når man har opstillet modellen, kaldet Generalized Unrestricted Model (GUM), hvor de endogene variable er funktioner af alle de potentielle eksogene variable, støder man på det problem, at der sjældent er et tilstrækkeligt antal observationer til, at man kan estimere hele modellen og derefter "teste ned", dvs. fjerne in- signikante forklarende variable. I stedet bliver man nødt til også at "teste op", dvs. tilføje variable, der synes at være signikante. En sådan proces kan selvfølgelig automatiseres idag og overlades til en computer, men dette kræver, at computeren bliver programmeret således, at denne proces kvalitetssikres. Her foreslår Hendry og Doornik en 6 trins procedure. Fra GUM til den specikke model: vi skal nu undersøge, om vi kan reducere GUM til en mere håndterlig (parsimonious) model med langt færre forklarende variable i hver relation og med langt færre parametre, der skal estimeres. En sådan specik model skal selvfølgelig opfylde betingelserne om kongruens og encompassing samtidig 8 med, at man skal kunne opnå et estimat på parametrene af interesse i θ. Det her er LSE-modellen: 1. Trin er en omhyggelig formulering af GUM ud fra formålet med analysen. Dette vil normalt kræve, at man står på skuldrene af såvel tidligere empiriske undersøgelser og relevante teorier. 2. Trin er valg af mål for kongruens, dvs. hvilke misspecikationstest vil man anvende og hvilket signikansniveau. Et valg af et lille signikansniveau kan formindske denne risiko, men det koster teststyrke. (Autokorrelation mm.) 3. Trin er valg af selektionskriterier. Ved udvælgelsen af eksempelvis regressorer står man overfor to fejlmu- ligheder. Man kan inkludere irrelevante variable (Gauge), og man kan undlade at medtage relevante variable. (Potency) 4. Trin er en estimation af GUM. I visse situationer kan det være hensigtsmæssigt og parameterbesparende at formulere modellen som en simultan model, hvilket svarer til at estimere den restringerede reducerede form 5. Trin er specikation af den eller de specikke modeller, der på passende vis omfatter (encompass) GUM. Man vil således undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner, og om nogle af de variable skal transformeres. Er afhængig af den sti man har anvendt og alle stier skal undersøges heraf. 6. Trin er Parsimonious encompassing af GUM. Resulterer denne søgning i ere specikke modeller, der alle omfatter GUM, vælges den, der er mest parsimone, dvs. den, der kræver estimation af færrest parametre. Den empiriske modellering af økonomiske indeholder nogle forskellige sammenhænge: 1. en række antagelser og forudsætninger, som meget ofte er implicitte, og måske ikke engang bevidste. 2. en række antagelser og forudsætninger, som i princippet kan testes som forskelige former for eksogenitet, andre specikationer, osv. 3. en eksplorativ fase, som kan og bør automatiseres i en vis udstrækning, hvilket indebærer, at processen skal formuleres og beskrives 4. en evaluerende fase, hvor modellens encompassing egenskaber undersøges. På trods af at såvel de økonometriske teknikker, computerkraften og datamængderne er forbedret, udnyttes dette ikke endnu i fuldt omfang i de empiriske undersøgelser i økonomi. Man kunne således overlade en større del af den eksplorative fase til computeren. 9 Opgave 4. Diskuter artiklen af Ronald Christensen, 2005, Testing Fisher, Neyman, Pearson, and Bayes The American Statistician , May, 2005, Vol. 59, No. 2, p. 121-126 Kort præsentation af artiklen: Som skrevet i introduktionen til artiklen, One of the famous controversies in statistics is the dispute between Fisher and Neyman-Pearson about the proper way to conduct a test.. Artiklen er skrevet af Ronald Christensen, og er udgivet i det videnskabelige tidsskrift The American Statistician i 2005. Artiklen forsøger gennem et simpelt eksempel, at klarlægge nogle af de problemstillinger som kontroversen mellem Fisher and Neyman-Pearson har resulteret i, og oven i dette illustrerer artiklen nogle af de fundamentale ideer fra alle tre perspektiver - Fisheriansk, NP samt Bayesiansk. Fisher test. • Den første test kaldet Fisher test efter R.A. Fisher, opstiller en nulhypotese, men ikke nogen alternativ hypotese. Det undersøges herefter hvorvidt data er underlige (weird) i forhold til hypotesens påstand. Dette sker ved at beregne en såkaldt p-værdi, der angiver, sandsynligheden for at se noget endnu mere mærkværdigt end det man ser i data, set ud fra nulhypotesens påstand. Hvis du således opstiller en hypotese H0 : µ ≥ 20 og får et skøn (et aritmetisk gennemsnit) på μ, 10, beregner du p-værdien, som er sandsynligheden for at få et skøn lig 10 eller mindre forudsat dvs. • P z≤ 10−20 σ √ n z ∼ N (0, 1) der er μ≥20 . Forudsætningen for Fisher testen er således, at der (i) er forudsat en sandsynlighedsmodel for data (ii) At der eksisterer en teststatistik som har en kendt fordeling under (i) (iii) at der eksisterer et niveau ikke forkaster H0 α, for hvilken man, hvis p-værdien er mindre en er selvfølgelig ikke et bevis for, at H0 α, forkaster H0 . At man er sand, og man afslører ikke nødvendigvis at hypotesen er weird, idet såvel fordelingsantagelsen, normalitet, som den anvendte standard afvigelse σ kan være skyldige i beslutningen. • Fisher betragter p-værdier som angivende induktive vidnesbyrd mod en H0 hypotese, dvs. vidnesbyrd fra det specielle til det generelle. Neyman-Pearson test • Den anden strategi benævnes Neyman-Pearson testet efter J. Neyman og Egon Pearson I Neyman-Peason testet opstilles derfor såvel en H0 hypotese, som en alternativ HA−hypotese . I et Neyman-Pearson test kan man således begå to fejl. Man kan forkaste en sand H0 hypotese og dermed begå en Type I fejl, eller man kan undlade at forkaste en falsk H0 hypotese og derved begå en Type II fejl. Styrken af testen er deneret som en minus sandsynligheden for at begå en Type II fejl, således at styrken af testen er sandsynligheden for at ikke at forkaste en falsk 10 H0 hypotese. Den største acceptable sandsynlighed for at begå en Type I fejl, kaldet testens signikansniveau, α, der skal fastsættes a priori ud fra omkostningerne ved at begå en fejl af Type I henholdsvis en Type II fejl, idet et lavt signikansniveau ville trække styrkefunktionen nedad og dermed medføre en højere Type II fejls sandsynlighed, hvorved der er et trade-o mellem omkostningerne ved de to fejl. Problemet med at beregne styrkefunktionen er imidlertid i mange tilfælde, hvor den alternative hypotese er formuleret som et interval, eksempelvis > eller <, at en sådan beregning kræver kendskab til den ukendte parameter, der testes, teststatistikkens fordeling og dennes øvrige parametre. For at klare dette problem har man udviklet et begreb kaldet en UMP, hvor UMP står for Uniformly Most Powerful Test. Hvis man i en test for et givet signikansniveau α, har kritisk område, der ikke ændrer sig som følge af en ændring af den pågældende parameter, der testes, er testet UMP. I praksis ser man ofte, et signikansniveau på α = 0.05 anvendt, uden megen tanke for de faktiske omkostninger, der er forbundet med at begå Type I og Type 2 fejl. Dette har medført en at man i mange situationer ender i en situation, hvor man ikke kan forkaste H0 , selvom man burde også set i relation til testens styrke. Dette har medført, at en række medlemmer af American Statistical Association har opfordret til, at man i det mindste anvendte et signikansniveau på α = 0.005 som standard. • Et andet problem skyldes sammenblandingen af anvendelse af p-værdien og signikans-niveauet α. Det er korrekt, at man ved en beregnet p-værdi, der er mindre end det på forhånd valgte signikansniveau α, forkaster H0 , men dette indebærer ikke at p-værdien kan fortolkes som en frekvensbaseret Type I fejls sandsynlighed eller som et mål for evidensen mod nul-hypotesen. Den korrekte fortolkning af α er den frekvensbaserede fortolkning, at man ved gentagne forsøg, som den der betragtes fejlagtig vil falde i det kritiske område i 100 α % α af tilfældene, selvom det er en stokastisk variabel beregnet under H0 H0 er sand. Den korrekte fortolkning af p-værdien er, at og under forudsætning af en beregning af en teststatistik og dennes fordeling. Bayesian test • De Baysianske test har ligesom Neuman-Pearson testene både en H0 hypotese og en alternativ hypotese. Men mens Neuman-Pearson testen behandler de to hypoteser forskelligt er dette ikke tilfældet i Bayesianske test. • Bayesianske tests kræver først og fremmest, at vi har priori-sandsynlighederne for de forskellige værdier af θ , som vi ønsker at teste for. Disse priori-sandsynligheder kan man så anvende sammen med Bayes' teorem og den information man får givet fra dataen til at nde posterior-sandsynlighederne, for en givet observeret værdi af r får man så en likelihood- funktion f(r|θ ). De Baysianske test har ligesom NeumanPearson testene både en H0 hypotese og en alternativ hypotese. Men mens Neuman-Pearson testen behandler de to hypoteser forskelligt er dette ikke tilfældet i Bayesianske test. p(θ | r) = hvor p(θ ) er priori-sandsynlighederne for erne for • θ f (r | θ)p(θ) , f (r | 0)p(0) + f (r | 2)p(2) θ, θ = 0, 2 f(r|θ ) er likelihood-funktion og p(θ |r) er posterior- sandsynlighed- givet en bestemt observeret værdi for r. Den eneste indvending mod at bruge den Bayesianske metode er ifølge artiklen fraværet af en kilde for a priori-sandsynlighederne. Dette er normalt ikke et problem i tilfældet, hvor vi har tilstrækkelige data, da vi i dette tilfælde har at posterior sandsynligheder vil være invariante over for den valgte priori sandsynlighed. 11 Vi vil dog ifølge Lindleys paradoks i nogle tilfælde, hvor vi har normalfordelte data, muligvis ende ud i at vores nulhypotese aldrig vil blive afvist, uanset hvor mærkelige data bliver i forhold til vores nulhypotese. Vi har derfor at brugen af den Bayesianske testmetode afhænger af i hvilken grad vi har mulighed for at vælge nogle passende priori sandsynligheder, hvilket igen kom an på en subjektiv vurdering fra forskerens side. Konklusion fra Svend. • Christensens artikel bærer stærkt præg af at han er Bayesianer. Hans valg af eksempler er således lidt tendentiøse ved at vælge punkthypoteser, som er lettere at behandle Bayesiansk, men som stort set aldrig forekommer i økonomi. Og hans forglemmelse af at nævne vanskelighederne ved at beregne p(y) = R p{y | θ}p(θ)dθ, der ganske vist i praksis er blevet mindre på grund af den større regnekapacitet, er ligeledes symptomatisk. • Når det er sagt er der mange fornuftige aspekter i den Bayesianske metode, men en fornuftig anvendelse af NP-metoden med valget af test og signikansniveau med skyldig hensyntagen til stikprøvestørrelse, styrke likelihood ratio forhold og omkostningsforholdene ved fejl af Type I og Type II vil opnå lignende fornuftige resultater. • Det afgørende er dog, at testene anvendes for at nde en KONGRUENT repræsentation af data og at man efterfølgende anvender en encompassing strategi. 12 Opgave 5. Diskuter Lucaskritikken og eksogenitet. Vi betragter modeller med begrænset identikation, som man skal betragte med stor skepsis, da vi er nødsaget til at pålægge mange a priori restriktioner, hvoraf mange af disse er på et spinkelt informationsgrundlag. Vi har her at mange makro modeller falder ind under denne kategori. Dette tilskrives i høj grad den såkaldte Lucas kritik, men hvad går den ud på? Lucas er ikke glad for Keniyanske modeller fordi de ikke har dybe parametre og bliver påvirket af policy-tiltag, og de økonomiske agenter kender konsekvensen af politiktiltagene, og ved implementering vil det derfor ikke have den ønskede eekt. Lucas er mere positivt stemt over for DSGE modeller, som bygger på at hver enkelt agent er rationel og optimerer sin egen nytte, og denne repræsentative agent aggregeres til at præsentere hele økonomien (opfører Svend er kritisk over for DSGE-modeller, da han ikke føler de kan undgå Lucaskritikken, fordi disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med virkelighedens agenter. Svend siger at DSGE-modeller overhovedet ikke har dybe parametre. sig som det optimerende homo oeconomicus). Lucas mener at DSGE-modeller har dybe parametre. Hovedpointen af Lucaskritikken er at: Det er naivt at lave forudsigelser af eekter af politikanbefalinger på baggrund af empiriske relationer fra historisk data. Empiriske relationer, der er fundet ud fra historiske data ikke kan anvendes til politikanbefalinger, fordi sådanne relationer ikke er invariante over for ændringer i den førte politik. Relationerne tager ikke hensyn til, at de økonomiske agenter har opnået kendskab til disse modeller, og derfor har tilpasset deres forventninger og dermed deres reaktioner til disse modellers forudsigelser. Anvendes modellerne alligevel, vil de fremkomme med forkerte prognoser for økonomiens reaktioner på konkrete politikinterventioner. Kun hvis modellens parametre er invariante over for de pågældende politikinterventioner kan modellen anvendes, jf. diskussionen af super eksogenitet nedenunder. Ig. Lucas kræver det, at modellens parametre er såkaldt "dybe parametre", der stammer fra agenternes kriteriefunktioner. Lucas argumenterer dermed for brugen af mikrobaseret teori om rationelle agenter fordi dette i. Lucas vil medføre dybe invariante parametre. Lucas' kritik går derfor på hvorvidt modellerne er invariante over for politiske tiltag, da hvis de ikke er det, ikke må anvendes til politiske analyser. Eksogenitet Uanset hvordan vi opstiller en model, så har vi lavet forudsætninger, hvori vi ikke betragter hele verdenen. Vi forudsætter her at de andre ting i verden ikke har væsentlig betydning for vores resultater. Det er lige præcis her at eksogenitet kommer ind i billedet. I sammenhæng med tidsserie-analyse betyder eksogenitet , at den ene variabel ikke tilføres tilbage til den anden. Kausalitet er tæt knyttet til begrebet eksogenitet. I forbindelse med stokastiske modeller er der tre begreber om eksogenitet: Svag, Stærk og Super. Interesserer man sig alene for estimation af parametre i en opstillet model, er svag eksogenitet det relevante begreb; vil man forudsige eller simulere, stærk eksogenitet nødvendig, og vil man endelig beregne virkningen af en ændret økonomisk politik, har man brug for super eksogenitet. Svag: Svag eksogenitet kan vi benytte estimation og inferens, men ikke prognose/forecasting og policy eects (man kan klare sig med den betingede fordeling) Stærk: Kræver svag eksogenitet også skal der være Granger non causality mellem den eksogene variable og de resterende forklarende variable. Hvis man altså ønsker at anvende den betingede fordeling til prognoser, skal man også anvende den marginale fordeling 13 Super: Lucaskritikken siger at for at den betingede fordeling må benyttes til at analysere policy eects, så må policy interventionerne ikke påvirke den betingede model (de interventioner vi er interesserede i). Supereksogeniteten skal ses i sammenhæng med Lucas-kritikken. Dette betyder, at økonomiske personer tilpasser deres adfærd (f.eks. Målt ved værdierne for regressionsparametre ) til det økonomiske miljø . Parametrene er betinget af et miljø, der er beskrevet af egenskaberne ved visse variabler. Hvis de begivenheder, som de økonomiske agenter tilpasser deres adfærd, er eksogent bestemte variabler (politikvariabler), skal denne afhængighed af parametrene modelleres eksplicit . Superexogenitet betyder nu, at Lucas-kritikken ikke gælder for en variabel. Lucas kritikken siger, at parametrene i de daværende empiriske modeller var ustabile, eller udtrykt anderledes, at de eksogene variable ikke var super eksogene. Hans kritik medførte: At man begyndte at opstille makromodeller baseret på teori om repræsentative agenter, som argerer efter den rationalle nytteteori udfra mikroteoretisk præferencestruktur. Dette skyldes påstanden om at agenternes handlinger derved var baseret på en model med dybe, stabile parametre som dermed vil medføre at makromodellens eksogene variable var super eksogene. Makroteoriens basering af mikroteorien: Kritik af Lucas kritikken: • På baggrund af Lucas kritikken er udviklingen af modeller indenfor den makroøkonomiske teori blevet til modeller med meget svag identikation: Test af sådanne modeller i overvejende grad bliver af de restriktioner, der er pålagt a priori og ikke af resterende parametre, der estimeres på baggrund af data. Hvis det er nødvendigt at pålægge relativt mange a priori restriktioner og specielt mange a priori restriktioner med et spinkelt informationsgrundlag for at sikre modellens identikation og estimation af de resterende parametre, må betragtes med en megen stor skepsis. Men spørgsmålet er om DSGE modellerne er immune over for for Lucas kritik? For ganske vist er modellerne, som anført af Romer (2012), baseret på optimerende agenter, der optræder som mikroteorien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med virkelighedens agenter. Der vises i megen forskning vedr. de økonomiske agenters adfærd, at de abstraktioner, der anvendes i DSGE-modeller, er meget forsimplede i forhold til virkeligheden. DSGE-modellerne er ligesom de modeller som Lucas kritiserede, nemlig de såkaldte Keynesianske makromodeller, er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde, at fordi de optimerer en kriteriefunktion under bibetingelser, er de stabile over for politikinterventioner. Det må afgøres empirisk ved test for super eksogenitet. Det vises, at de antagelser, der i mikroøkonomien pålægges den enkelte agent, ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er umuligt at påstå, at denne f.eks. maksimerer en kriteriefunktion, der afspejler kriteriefunktionen hos de agenter, som skal repræsenteres. Det kan vises at de kompenserende efterspørgselskurve på mikroøkonomi niveau ikke er gældende for den repræsentative agent, hvoraf kritikken af Lucas kommer. Hermed er der heller ikke nogen grund til at tro, at parametrene i modeller med repræsentative agenter er dybe i den forstand, at de er særligt stabile over for eksogene stød til økonomien, som f.eks. politiske tiltag. Med andre ord er RBC-modeller og DSGE-modeller også sårbare over for Lucas kritikken. 14 Opgave 6. Diskuter om stigende oentlig gæld er uden problemer med baggrund i John Cochrane, 2020, Debt still matters When the government borrows, someoneeventuallywill have to pay it back https://review.chicagobooth.edu/economics/2020/article/debt-still-matters John Cochranes baggrund: • Han er senior medlem fra Hoover Institution ved Standford University. Han har specialiseret sig i nansiel økonomi og makroøkonomi. Med det i baghovedet må han have et fornuftigt udgangspunkt til at kommentere på disse økonomiske problemstillinger. • Dog omtaler han sig også som the grumpy economist, og derfor bør man overveje, om hans indstilling påvirker hans vurderinger subjektivt fremfor at have en mere objektiv analyse/vurdering af de økonomiske problemstillinger. • Han er en decideret kendt konservativ økonom, der også er en glimrende og skarp debattør. • I artiklen som denne omhandler kommenterer han på USA's gældsætning, og hvordan den kan udvikle sig i relation til covid 19. USA gældstigning - Tilgange: • I 2021 er USA's gældssætning steget til over 100% af BNP. Hvilket er en stor milepæl for landet. John H. Cochrane diskuterer i sin artikel, om det har en betydning eller om bekymringen er passé. • MMT (Modern Monetary Theory) er en alternativ økonomisk teori, der understreger, at en stat eller regering, der har sin egen valuta og dermed mulighed for at skabe penge, ikke kan løbe tør for penge og derfor kan nansiere oentlige udgifter monetært. • Fortalere for MMT anbefaler, at staten bruger nanspolitik til at opnå fuld beskæftigelse og nansierer udgifterne hertil ved at trykke ere penge. • Den vigtigste risiko herved er at skabe ination, hvilket kan imødegås ved at sætte skatten op og udstede statsobligationer for igen at reducere mængden af penge i systemet. • Den anden tilgang påpeger, at renten af gælden vokser langsommere end vækstraten af økonomien. Det medfører altså, at USA altid er i stand til som minimum at betale renterne på gælden, så gælden ikke vokser. Det betyder også at Debt-GDP ratioen ikke stiger, og gælder kommer dermed ikke til at fylde mere i landets økonomi. • Tredje tilgang er en super-Keynesian tilgang. Idéen her er at det gældsnansierede forbrug har så stor multiplier eekt i samfundet, at den i sig selv betaler for gælden. John H. Cochranes kritik: • John H. Cochrane sætter spørgsmålstegn ved om disse muligheder er korrekte eller realistiske. • Under forudsætning af at rentesatsen er lavere end vækstraten, ser man at debt-to-GDP-ratioen langsomt vil falde over tid. Men hvor længe vil det være en realitet, at rentesatsen er så lav? Vil den forblive lav, hvis man øger gælden markant? - Det er nok meget usandsynligt. 15 • De nævnte argumenter tilhører sustainability af en stor, men stabil debt-to-GDP-ratio. Det svarer altså ikke på, hvad der sker, hvis USA øger debt-to-GDP-ratio år for år. Cochrane (og de este andre økonomer) argumenterer for at der er en debt-to-GDP-grænse, men ingen ved hvor den helt konkret er. - Når man grænsen kan det ende i en slem gældskrise. • Cochrane kritikserer tilgangen om at gælden skulle nansiere sig selv. Han argumenterer for at gælden kun kan nansiere sig selv i en begrænset periode med lav vækst. Spørgsmålet er så om vi er i sådan en periode, eller om COVID-19 krisen skal ses som en supply-side krise. • Han mener at politikkerne forholder sig mindre kritisk til problemet ift. gældssætning end økonomerne gør. • Gæld skal betales før eller senere af nogen. Typisk betales det gennem skatter. Det vil sige, at politikkerne både bestemmer gældsoptagelsen, men også skattesatsen, som skal bruges til at tilbagebetale gælden. Politikkerne vil låne billige penge, så længe markedet er villig til at udbyde det - (og er det ikke fair nok, de tænker jo på næste valg). Så kan vi egentligt bebrejde dem for at øge gælden? De, der kommer til at betale gælden af, er børn eller børnebørn af den nuværende generation, og de er på nuværende tidspunkt nok ikke i stand til at forstå konsekvenserne af den nuværende situation, da de sidder i kælderen og spiller spil i stedet for at protestere imod samfundets retning, som politikkerne har fastsat. • Politikkerne har fundet ud af at gæld er ligegyldig, på en måde som økonomerne endnu ikke har indset. Hvis dette er gældende, hvorfor så ikke bruge penge uden yderligere overvejelse af konsekvenserne heraf ? Hvorfor skal befolkningen tilbagebetale gæld, hvis staten/landet ikke skal? Med disse argumenter kan man tage det helt ud til ekstremerne. • Det at nansiel gæld ikke har nogen nansiel omkostning er den logiske konklusion af ovenstående for politikkerne. Det betyder også at politikkerne bliver mere tilbøjelige til at bruge penge udnødvendigt. Så sålænge politikkerne har forståelse af at debt dont matters, så vil de bruge pengene uforsvarligt. (helikopterpenge har de brug for dem). Det medfører et problem, for hvis regeringen bliver ved med at optage gæld uden at betale tilbage på den, hvorfor skal almindelige mennesker så betale deres lån, det kan blive en ond spiral. • Historisk set havde USA en større debt-to-GDP-ratio efter 2. Verdenskrig end de har i dag. • USA kom ud af gælden ved ikke at optage yderligere gæld med årtier med nansiel ansvarlighed og med stærk vækst på udbudssiden i en dereguleret økonomi. USA har ingen af disse forsikringer fremadrettet. • Den egentlige fare er at ende i en gældskrise, så dette skal grundigt overvejes. Man kan ikke helt undgå kriser, og man vil formentligt ramme en krise inden for det næste årti. Man skal have fokus på, hvordan økonomien ser ud, når krisen rammer, hvis man fortsat påtager sig større og større gæld. Hvis en større gæld påtages, kan det ende med at investorer trækker sig, som det skete for Grækenland. Hvis alle lande påtager sig gæld, er der ikke nogen til at hjælpe, når landet går konkurs, som da EU hjalp Grækenland. Det er også derfor, EU har grænser for gældsstørrelsen. Disse er dog blevet udvidet i forbindelse med covid19. • Ingen ved, hvornår krisen rammer, men man bør undgå at bære brænde til bålet, således at de økonomiske konsekvenser af krisen ikke bliver større end højst nødvendigt. John H. Cochrane påpeger spend only as if someone has to pay it back. Because someone will have to pay it back, som en af sine centrale pointer til håndteringen af situationen. 16 • Centralt problem: Renten signlarerer ikke nødvendigvis problemer. De græske renter var lave indtil de steg voldsomt, da ingen forventer en gældskrise, da den ellers allerede ville være der. - Derfor skal man være påpasselig, selvom det pt kan se fornuftigt ud at optage gæld. • Ud fra artiklen skrevet af John H. Cochrane om den store gældsratio i USA, ser vi to tilgange til forståelsen af denne økonomiske situation - den politiske og økonomiske. John H. Cochrane er økonom og påpeger alvoren i den øgede gældsratio, og påpeger ligeledes problemstillingen i at politikkerne ikke har samme opfattelse. Situationen i forhold til Danmark: • Siden Coronakrisens start har mange lande, ført en meget ekspansiv nanspolitik, for at dæmpe aktivitetsvirkningerne af en hel eller delvis nedlukning af samfundet. I Danmark har man gennemført en lang række støtteordninger til erhvervslivet, som lønkompensation osv. Man har også nedlukket et minkerhvervet og betaler nu en uden tvivl meget rundhåndet ekspropriationserstatning til et erhverv som formentlig under alle omstændigheder vil være blevet decimeret i de kommende år. • En sådan nanspolitik er efter de estes økonomers mening yderst velbegrundet, men I debatten er der også blevet anført det synspunkt, at oentlig gæld, ikke er nogen særlig byrde, specielt i en situation med meget lave rente, og for USA's vedkommende, dollarens status som reservevaluta, der gør at andre lande er villige til holde US $ i nærmest ubegrænsede mængder. Endelig kan det også være en fordel, at den oentlige gæld stort set holdes af indenlandske investorer, som pensionskasser. • I Danmark har den danske statsminister gjort sig bemærket ved at udtrykke, at en sådan frygt for gældsætning er udtryk for en gammeldags borgerlig holdning, og ere økonomer er da også også hoppet med på vognen. • Lad os som John Cochrane betragte forholdet mellem den oentlige gæld og GDP. Når pandemien er ovre og gældsætningen stoppet vil gælden uden tilbagebetaling årligt stige med rentebetalingen på gælden, mens GDP vil stige med væksten i samfundet. Hvis væksten er større end renten vil forholdet mellem gæld og GDP falde. Men er væksten mindre end renten vil forholdet mellem gæld og indkomst stige, og meget får tror, at en sådan udvikling er sustainable. • Hvilken situation er så sandsynlig. Her er der mange, der har den opfattelse, at når coronaen er væk vil man starte hvor man sluttede og især den danske vækst vil hurtigt komme op igen. Men er det sandsynligt, at pandemien kun har været en parentes? Det er jo dog ikke en krig, der har ødelagt produktionsapparatet! Men især hvis nedlukningen varer ved et stykke tid endnu, er det svært at forestille, at ikke mange små selvstændige går fallit og en rimelig stor del af arbejdsstyrken bliver arbejdsløse. Og dette gælder over hele verden. Kan man bare lige få disse ressourcer tilbage i funktion igen? Bliver der ingen askehalse osv. Så vil låntagerne blive ved med at udlåne penge til lav rente? Det er ganske vist rigtigt at centralbankerne har printet penge og derfor står for en del af gælden, men påvirker dette ikke inationsforventningerne på sigt? Formentlig. At inationen og inationsforventningerne vil stige i forhold til hvad de har været på det seneste er en frygt man set ud fra de historiske forhold må påregne. 17 Opgave 7. Diskuter signikanstest på baggrund af artiklen Jae H. Kim and Philip Inyeob Ji, 2015, Signicance testing in empirical nance: A critical review and assessment, Journal of Empirical Finance, 34. p 1-14. Indledning om signikanstest: • Signikanstest er meget udbredt og brugt i bl.a. nansverdenen. Det bliver brugt til at teste hvorledes teorier og hypoteser holder stik med den fundne empiri. I denne artikel af Kim og Ji fra 2015 tages udgangspunkt i en undersøgelse omkring brugen af signikansniveau i moderne forskning indenfor nansiering. Hvorefter det diskuteres hvad man skal være opmærksom på, for at opnå de mest retvisende resultater. Kim and Ji (2015) undersøgelse: • Kim and Ji (2015) har undersøgt hvordan signikanstest bruges i forskning indenfor Finance- området. De har lavet en undersøgelse af papers der blev publiceret i anerkendte journals i 2012, for at undersøge hvordan praksis er for signikanstest indenfor det nansielle felt. • Undersøgelsen nder følgende hovedpunkter: Brug af meget store stikprøvestørrelser er udbredt (sample mean = 161.200) Konventionelle signikansniveauer (1%, 5%, og 10%) er udelukkende brugt, uden at tage særligt meget højde for stikprøvestørrelse, styrken af testen eller det forventede tab fra forkerte beslutninger (konsekvens af type 1 og type 2 fejl). Tydeligt bevis for publikationsbias i favør af statistik signikans, da andelen af studier med statistisk signikans er unaturligt høj Konventionelle niveauer vs. Bayesian metoden: • Indenfor det nansielle felt, hvor det er typisk at arbejde med store stikprøver har Connolly (1989, 1991) foreslået at anvende the Bayesian method grundet eekten af store stikprøver på signikanstest. Connolly har fundet ud af at tidligere empiriske beviser for f.eks weekend eekten for aktieafkast (lavere afkast om mandagen end frendagen) er omvendt hvis Bayesian metoden bruges. Han tilskriver dette samspillet mellem større stikprøver og faste signikansniveauer i de tidligere studier. • Lindley (1957) fandt at the Bayesian method og klassisk hypotesetest kan give modstridende resultater, når stikprøvestørrelsen er stor. Grunden til forskellen på resultatet af de to metoder skyldes, at den klassiske hypotesetest anvendes med et fast signikansniveau, mens the Bayesian method nder de kritiske værdier som en stigende funktion af stikprøvestørrelsen. • Undersøgelsen i artiklen af Kim and Ji (2015) nder at brugen af the Bayesian method er blevet fuldstændig ignoreret og at forskere i stedet for anvender den klassiske hypotesetestning, selvom de ovenstående artikler taler for anvendelsen af the Bayesian method i store stikprøvestørrelser. Kim and Ji (2015) nder samtidig at de este resultater bliver modsatte, hvis man anvender the Bayesian method. To måder at vælge signikansniveau på: 18 Figure 3: • Ifølge Leamer (1978) så er der to måder at vælge signikansniveauet i relation til the line of enlightened judgement. Dette bruges i forhold til at vælge det optimale niveau af signikans. Første metode er at minimere det forventede tab fra hypotesetest og det andet er at minimere det maksimale tab associeret ved type I og type II fejl. Der skal også være et fokus på om hvilken type fejl man helst vil lave. Her skelnes der mellem om man helst vil lave en type I og type II fejl. Det kan ses at jo større sample size vi har jo mindre chance har man for at lave en type I eller II fejl. Dette eksempel bruges til at illustrere hvordan signikansniveauet kan blive valgt optimalt i praksis, hvilket er baseret på stikprøvestørrelsen og eekten af testen. Det indikerer tydeligt at når stikprøven er stor, så vil signikansniveauet blive sat ved et lavere niveau end det konventionelle. • • Minimere forventede tab: Hvor alpha er sandsynligheden for type I fejl, beta er for type II fejl. Den 45 grader lineære linje indikerer punkterne for det minimale af alpha + beta for hver af de tre niveauer af stikprøve størrelsen. Den horisontale linje er sat ind ved alpha = 0.05 hvilket korresponderer værdierne for alpha og beta når de er sat til det konventionelle niveau på 0.05. Det som kan ses ud fra dette er at alpha skal vælges, så man minimere alpha+beta, da det giver et lavere forventet tab, end hvis alpha er sat lig 0.05. 19 Figure 4: Man skal vælge alpha = 0.05 hvis 500 < n < 2000, da man får et lavere forventet tab ved denne alpha der. • Minimere det maksimale tab: I den anden gur, der illustrerer Leamers andet forslag om minimerer maksimum viser de to kurver med negativ hældning forholdet α + β =konstant for n=100 (den yderste røde) og n=500 (den inderste), mens de to linjer med positive hældninger viser forholdet mellem det forventede tab ved at begå en Type II, henholdsvis Type I fejl. Hvis de forventede omkostninger ved at begå en Type I fejl er meget store i forhold til de forventede omkostninger ved at begå en Type II fejl er man på linjen fra (0,0) med den laveste hældning, og en forøgelse af stikprøven fra n=100 til n=500 bør medføre et begrænset fald i fra A til B. • Omvendt er de forventede omkostninger ved at begå en Type II fejl store i forhold til at begå en Type I fejl bør man bevæge sig fra C til D hvis stikprøvestørrelsen stiger fra n=100 til n=500, og således drastisk nedsætte Det er klart, at en anvendelse af et fast signikansniveau således ikke kan forsvares, men det er ikke desto mindre den praksis, som anvendes i mange sammenhænge. At det er således skyldes utvivlsomt, at det kan være svært, at fastsætte forholdet mellem de forventede omkostninger ved at begå Type I og Type II fejl. Publikationsbias: • Af artiklen fremgår det at hvis man kigger på alle de undersøgelser de har undersøgt så er der en hel klar publikationsbias, hvor man ser at der kun er 2 undersøgelser, som rapporterer insignikante resultater (på 10% signikansniveau). Dette viser en klar bias for hvilke undersøgelser der bliver publiceret, hvor det (næsten) kun er de undersøgelser som kan bekræfte/forkaste noget der bliver publiceret, hvilket gør at forskere der har 20 lavet en undersøgelse som ikke kan konkludere noget, ikke bliver publiceret. Det har den betydning at man kan tro at der er stor evidens for at tro H0 er falsk når den i virkeligheden er sand, hvis der er nogen som har kunne fremvise det en gang, men der i virkeligheden er lavet mange ere der ikke har kunnet sige noget om Det er altså et kæmpe problem! - Da forskningen kan blive kraftigt biased, hvis man har problemer med at få publiceret insignikante resultater, på baggrund af den eksisterende litteratur viser signikante resultater. H0, men ikke er blevet publiceret pga. manglende forkastning. (De Long and Lang, 1992). Diskussion: • I det tredje afsnit af gennemgår Kim og Ji herefter en undersøgelse af re ledende tidsskrifter i nance. Her konstaterer man at på trods for, at stikprøvestørrelserne ofte er meget store med en medianstørrelse på n=4719 anvendes der udelukkende signikansniveauer på mellem 0,01 til 0.10, hvilket uden tvivl har medført, at nulhypotesen ikke er forkastet i for stor andel af tilfældene. • Diskussionen om økonomisk signikans kan dreje sig om to ting. For det første kan en given parameter f.eks. en koecient i en regression være ubetydelig, således at der ikke er nogen særlig eekt på y af den tilhørende x. Dette bør man selvfølgelig være opmærksom på selvom om det statistiske test er stærkt signikant og evt. undlade eekten. Husk dog stadigvæk, at den numeriske værdi af et koecientestimat afhænger af måleenheden på såvel y som x. • Men diskussionen kan også dreje sig hvorvidt koecientestimatet har en meningsfyldt økonomisk fortolkning og passer med økonomiens priors. Her bør man være mere varsom. Hvis et statistisk resultat ikke har en fornuftig økonomisk fortolkning bør man være på vagt, men hvis man statistisk kan afvise en økonomisk prior bør man også være på vagt og ikke blot afvise det statistiske resultat. Og så bør man stadig huske at statistikken anvendes for at vise kongruens mellem model og data, og økonomisk analyse og encompassing skal der til for at komme videre. • Kim og Ji eksempler fra Finance Journal er skrækkelige. Konklusion: • Artiklen konkluderer at signikans test har været bredt kritiseret i mange år, og da disse i moderne undersøgelser bliver ignoreret, kan man stille spørgsmål ved, hvorvidt de mange undersøgelser er troværdige. • Ved hjælp af en survey undersøgelse af nyere artikler bliver der fundet tydelige beviser på rigtig store sample size, et xed signikansniveau og at der er beviser for publication bias i form af statistisk signikans. • Ved at benytte den bayesianske metode bliver der ved hjælp af survey undersøgelsen vist, at der stilles spørgsmålstegn ved den statistiske signikans i artiklerne. Det anbefales dermed, at man fremover i sine undersøgelser, bevæger sig væk fra de traditionelle metoder med konventionelle niveauer af signikans, og derimod vælger det niveau, som tager hensyn til nøglefaktorer som sample size, power og de forventede tab ved forkerte beslutninger. 21 Opgave 8. Diskuter specikationsøgning, datamining samt general to specic, og specic to general. • Specikationssøgning I takt med at man bygger sin model skal man være sikker på at den er korrekt speciceret Man vil undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner og om nogle af variablene skal transformeres for at vi undgår autokorrelation, heteroskedasticitet og andre misspecikationer. ∗ ∗ ∗ Omitted variables Overtting (including irrelevant variables) Inappropriate functional form Alt dette kan testes for bl.a. ved Ramsey RESET test, Durbin-Watson statistic test, Breusch-Godfrey test, White test osv. Som det fremgår af metoderne nævnt nedenunder, vil resultaterne af en sådan søgning være afhængige af den sti (path) man har anvendt, og det vil derfor være nødvendigt at undersøge alle relevante stier, hvilket i praksis givetvis må overlades til computeren. En empirisk model kan bygges ved en fremgangsmåde. teoridrevet (en model opstilles) og en datadrevet (data indsamles) Hendry og Johansen (2015) foreslår at kombinere de to metoder (den mest almindelige frem- gangsmåde i økonometri). I den eksplorative fase søger man efter relevante sammenhænge. Eftersom computere endnu ikke udnyttes fuldt ud kunne man med fordel overlade en større del af den eksplorative fase til computeren (uddybes senere). I evalueringsfasen undersøger man eks. om en empirisk model på passende vis beskriver noget som påstås at være en væsentlig afgrænsning i al empirisk videnskab. Datamining (machine learning) betegner processen i at lede efter mønstre i store datasæt. Dette bliver mere og mere aktuelt eftersom datasæt bliver større og større hvilket begrænser mulighederne for at lave komplette statistiske analyser. Derfor vil en stor del af arbejdet med at opstille økonometriske modeller nok blive automatiseret i de kommende år. Dette vil kræve at der opstilles nogle kriterier for dels hvordan man lader computere nde en rimelig model og dels hvordan man evaluere resultatet. Hvis en empirisk model er i overensstemmelse med data, så er den kongruent. Hvis en empirisk model forklarer rivaliserende modellers egenskaber og resultater er den encompassing (gør rivaliserende modeller overødige). Af speciel interesse er såkaldt parsimonious encompassing - man vælger den mest parameterbesparende model, der er encompassing (Kan den forklare de resultater andre alternative modeller har opnået). Hendry og Doornik (2014) betragter en lokal datagenererende proces (LDGP). Det er en proces som beskriver måden hvorpå de analyserede variable er frembragt, inkl. hvordan de er målt - processen har en form og indhold, som vi principielt kan få hånd om. En LDGP må være kongruent med sit eget informationssæt og den må omslutte (encompass) alle andre ikke misspecicerede modeller af dette informationssæt. LDGP kan indeholde meget lange lags og parametre der varierer over tid. Det indebærer i praksis at man ikke kan bruge den fordi antallet af observationer er begrænset. For at nå frem til noget operationelt må man forudsætte at: 1. At alle laggene kan trunkeres uden problemer 2. At parametrene er konstante over tid 22 3. At fordelingen er f.eks normal Er de tre stærke forudsætninger opfyldt (det er de sjældent i rimelig grad) kan man betragte modellen som GUM (Generalized Unrestricted Model). Hvis man vil reducere GUM til en mere håndterlig model med færre forklarende variable og parametre der skal estimeres, skal denne specikke model opfylde betingelserne for kongruens og encompassing samtidig med at man skal kunne opnå et estimat på parameterne af interesse. Hendry og Doornik (2014) foreslår at denne del af processen i høj grad automatiseres. I en sådan computerbaseret eksplorativ fase kan man anvende følgende procedurer: Enten Specic to general: Man starter med en simpel model og tilføjer variable udvalgt ift. et kriterie, eks. R2 eller BIC, der straer for antallet af estimerede parametre. Styrken ved denne stepvise regression er at man starter med en simpel og overskuelig model. Svagheden er at man skal være i stand til korrekt at gætte, hvad der er galt, når man f.eks. nder autokorrelation i en model. Man kan ikke være sikker på, at man når samme sted hen grundet forskellige valg - man ved ikke om man skal ændre på dynamikken, tilføje nye variable eller ændre på den funktionelle form. • En yderligere ulempe er at denne metode også kan fremstå greedy, hvilket skal forstås på den måde at man muligvis kan komme til at tilføje en variabel der senere kan vise sig at have været dårligere end andre veje at gå >. Man udforsker ikke alle veje og retninger. Eller General to specic: Man starter med en meget generel model og fjerner så variablene efter, hvor lidt signikante de tilhørende parametre er. Styrken er at testene laves inden for en model som indeholder modellen i næste skridt - derfor er de almindelige statistiske misspecikationstests valide. Svagheden er at den generelle model kan være stor og uhåndterbar. • En yderligere ulempe er at denne metode kan fremstå greedy, hvilket skal forstås på den måde at man muligvis kan komme til at fjerne en variable der senere kan vise sig at have været mere signikant og rent faktisk havde ledt til en bedre ultimativ model -> Man udforsker ikke alle veje og retninger. • Ydermere kan der være så mange variable i en general to specic startmodel at der simpelthen ikke er nok observationer til at estimere variablene pålideligt. En sådan proces kan selvfølgelig automatiseres idag og overlades til en computer, men dette kræver, at computeren bliver programmeret således, at denne proces kvalitetssikres. Her foreslår Hendry og Doornik en 6 trins procedure. 1. En omhyggelig formulering af GUM ud fra formålet med analysen. Dette kræver ofte at man læner sig op af tidligere empiriske undersøgelser og relevante teorier - pas på med at medtage for mange variable (større ssh. for irrelevante variable - Gauge) eller for få variable (større ssh. for at mangle relevante variable - Potency). 2. Valg af mål for kongruens, dvs. hvilke misspecikationstest vil man anvende (autokorrelation, heteroskedasticitet osv.) og hvilket signikansniveau? Valget afhænger af hvilke datatyper man anvender samt hvilket formål modelleringen har. 3. Trin er valg af selektionskriterier. Ved udvælgelsen af eksempelvis regressorer står man overfor to fejlmu- ligheder. Man kan inkludere irrelevante variable (Gauge), og man kan undlade at medtage relevante variable (Potency). 4. Trin er en estimation af GUM. I visse situationer kan det være hensigtsmæssigt og parameterbesparende at formulere modellen som en simultan model, hvilket svarer til at estimere den restringerede reducerede form. 23 5. Trin er specikation af den eller de specikke modeller, der på passende vis omfatter (encompass) GUM. Man vil således undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner, og om nogle af de variable skal transformeres. Er afhængig af den sti man har anvendt og alle stier skal undersøges heraf. 6. Trin er Parsimonious encompassing af GUM. Resulterer denne søgning i ere specikke modeller, der alle omfatter GUM, vælges den, der er mest parsimone, dvs. den, der kræver estimation af færrest parametre. Et af de væsentligste problemer i denne proces skyldes, at slutresultatet ofte er meget afhængigt af den sti, man har bevæget sig på, dvs. hvilke variable medtages først osv. Vi skal altså undersøge hvorvidt vi kan reducere en GUM til en mere håndterlig (parsimonious) model med langt færre forklarende variable i hver relation og med langt færre parametre, der skal estimeres. En sådan specik model skal selvfølgelig opfylde betingelserne om kongruens og encompassing samtidig med, at man skal kunne opnå et estimat på parametrene af interesse i . Hendry og Doornik (2014) foreslår, at denne del af processen i høj grad automatiseres og overlades til computeren. 24 Opgave 9. Diskuter Lawrence H. Summers, 1991, The Scientic Illusion in Empirical Macroeconomics Kort præsentation af artiklen Summers argumenterer i denne artikel for, at den økonomiske videnskabs fremskridt sker ved at brede økonomisk teoretiske overvejelser understøttes af brede nærmest samfundsbeskrivende empiriske undersøgelse, mens opstillinger af teoretiske modeller og efterfølgende økonometriske test af sådanne modeller sjældent eller aldrig har ført til landvindinger. Et af de afgørende problemer for denne sidste fremgangsmåde er ig. Summers, at man aldrig kan foretage egentlige test uden, at man samtidig må opstille andre ofte urealistiske antagelser, som f.eks. fravær af strukturelle skift, antagelser om agenters adfærd osv. Hvilket imidlertid gælder de este, hvis ikke alle videnskaber. Man kan f.eks ikke lave selv laboratorieeksperimenter uden at løbe en risiko for at der er ukendt faktorer der påvirker resultatet. Summers hovedinteresse er policy og det præger ligeledes hans synspunkter og i øvrigt hans karriere. I introduktionen starter han med at argumentere for at artikler, som forsøger at inddrage økonometri ikke har haft nogen indydelse på teorien. De mest succesfulde artikler er dem, hvor verbal argumentation og styrke af associationer er i fokus, fremfor matematiske modeller. Dertil bruges 'naturlige' eksperimenter fremfor sostikerede statistiske metoder. Diskussion af sammenligningen med det naturfaglige Summers er yderst kritisk over for den metode økonomisk analyse og litteratur udføres på. Her tager Summers udgangspunkt i en sammenligning med den naturvidenskabelige metode tilgang, hvor han i sin konklusion nævner at fysikere ikke konkurrerer om at nde den mest uddybende måde at forklare et æbles fysik på, men i stedet koncentrere sig om at skabe fremgang og nde ny viden. Summers glemmer her at økonomi ikke er naturvidenskab men samfundsvidenskab. Økonomi er et resultat er individers adfærd, og påvirkes/ændres dermed over tid. Grunden til at et æble falder ned af et træ er stadig den samme om 100 år, men individers forbrugsadfærd er sandsynligvis ændret utallige gange i samme periode. Dermed giver denne sammenhæng altså ikke 100 procent mening at lave, da den er baseret på forskellige grundlag. Diskussionen af replikerbarhed værdighed. Naturligvis skal resultaterne kunne replikeres med henblik på at sikre tro- Dog varierer økonomi i højere grad end naturvidenskab mellem geogra, kulturer, etc. Hvormed replikering er svær at gennemføre hvis man ikke eksakt tager udgangspunkt i de samme omstændigheder. Her skal de nævnes at naturvidenskab i langt nemmere grad kan opstille kontrollerede eksperimenter (Ceteris Paribus), hvor man holder alle andre faktorer faste, og dermed kontrollerer eekterne af en enkelt parameterændring. Økonomi er en samfundsvidenskab, og man kan ikke bare lave sådanne kontrollerede eksperimenter. Dog kan man spørge sig selv om hvad økonomisk viden er værd, hvis den ikke kan replikeres. Dette er naturligvis et godt spørgsmål, og relevansen af økonomiske resultater vil i høj grad afhænge af om de kan benyttes til at sige noget om fremtiden. I forbindelse med sin kritik af Hansen og Singleton's artikel nævner Summers ligeledes Lukas kritikken hvor argumentet netop er manglen på lyst til at prediktere fremtiden ud fra økonomisk empiri. Dette er naturligvis relevant at overveje, da økonomi som videnskab ellers mister en stor del af sit formål. Diskusion af ny viden indenfor økonomi Summers argumenterer for at den økonomiske forskning ikke bidrager til ny viden og forståelse, men derimod blot undersøger mere tekniske måder at forklare det samme på. Endvidere skriver Summers at man bør fokusere på at skabe fremgang i den makroøkonomiske forskning. Og rigtigt nok bliver der skrevet ufatteligt mange artikler inden for samme økonomiske felt, men det er som om at Summer lidt glemmer 25 at forskning inden for de samme emner kan lede til nytænkning samt forbedringer af den eksisterende teori. Selvom det ikke bidrager med noget banebrydende nyt. Diskusion af begrænset indydelse af økonomisk forskning Summer argumenterer for at økonomisk arbejde udføres godt, men at indydelsen af den forskning det kaster af sig er begrænset. Dette underbygges med at tilgangen til forskningen er forkert. At økonomisk forskning har begrænset indydelse virker som et argument uden belæg, hvis man overvejer økonomers indydelse på de problemstillinger samfundet står over for i dag. Eksempelvis modtog Romer og Nordhaus i 2018 nobelprisen i økonomi for deres arbejde med klimaforandringerne og en løsning herpå. Økonomisk forskning i hvordan man kan pålægge afgifter på klimabelastende forbrugsvarer (eksempelvis) er både aktuel og indydelsesrig i debatten omkring klimapolitik, hvilket ikke er uden grund, idet afgifter kan være adfærdsregulerende og dermed bevirkende til at klimabelastende på forbrugsgoder falder. Konklusion Summers konkluderer, at hans artikel har fuldgjort argumentet for, hvorfor pragmatisk arbejde har bidraget så særdeles meget til udviklingen af økonomi, som man siger, at eksperimentelt og observerbart arbejde har gjort for naturvidenskaben. Derudover har han i artiklen argumenteret for, at formel økonometrisk arbejde med en elaborativ teknik rigtig tit fejler. Derfor mener han, at man bør, under evaluering af empirisk arbejde, begynde at stille andre spørgsmål end dem, man så ofte stiller. Vi bør stille spørgsmålet om udbyttet er interessant i den sammenhæng, at det har en indydelse på vores syn på, hvordan økonomien opererer. Han skriver også, at god empirisk evidens fortæller historien uanset måden hvorpå det er analyseret. Det er simpliciteten, der gør evidensen overbevisende. Når man har observeret et faldende æble (Isaac Newton), så går man ikke efter at uddybe måden hvorpå vi gør det. Men i stedet bruger man empiri til at udvikle yderligere teori. Dette argumenterer Summers for, at makroøkonomer også bør gøre. Men han siger, at makroøkonomer kræver robusthed, før de går i krig med evidensen. 26 Opgave 10. Diskuter Robert E. Lucas, Jr. 1976, ECONOMETRIC POLICY EVALUATION: A CRITIQUE Robert E. Lucas, Jr. (1976) - Baggrund: • Denne artikel er skrevet af Robert E. Lucas, Jr. Han er en amerikansk økonom, der opfattes som en af de førende nyklassiske økonomer, som var skeptiske over for Keynes' teorier om, hvad der skaber konjunkturbevægelser. • Pointen med dette essay er, at den økonometriske tradition (theory of economic policy) bør grundigt genovervejes. Mere præcist argumenterer Lucas for, at egenskaber, der leder til succes ved kortsigtet forecasting, ikke er relateret til kvantitativ politisk evaluering, som de store økonometriske modeller er designet til at løse. • Dermed vil simulationer ud fra disse modeller ikke give brugbar information til de faktiske konsekvenser af alternative økonomiske politikker Det skyldes at økonomiens struktur ændres, når politikken ændres. Der er altså en diskrepans mellem strukturen før policy-ændringen og strukturen efter, hvilket betyder at eekten af policy-ændringer ikke kan evalueres reelt med de makro-økonometriske modeller. • Yderligere påpeger han også at denne type modeller typisk er for store, for rodet og for simple Teorien for økonomisk teori: • The theory of economic policy er kvantitative politiske diskussioner omtalt inden for teoretiske rammer. De teorestiske rammer er muligvis alment kendte, men for at have det basale på plads, vælger han at gennemgå sin fortolkning af den teoretiske ramme, som ligger til grund for den økonomiske model. • Økonomien beskrives i perioder ved hjælp af vektorer bestående af state variables og exogene variable over tid. Økonomiens udvikling er så givet ved dierens ligningen: yt+1 = f (yt , xt , t ). Funktion f antages at være konstant, men ukendt. Målet er derfor at estimere funktionen. • En politik er en specikation af nutidige og fremtidige værdier for en eller ere komponenter i xt . Når de andre komponenter er specicerede, kan man analysere funktionssekvensen teoretisk eller ved numeriske simuleringer og forsøge at blive klogere på eekten af politikken. • Eftersom man i praksis ikke kan behandle den estimerede parameter som kendt, vil det faktiske problem af policy evaluation være mere kompliceret end som så. Hertil kommenterer han på to særlige egenskaber af dette teoretiske framework. Den første egenskab beskriver det usikre forhold mellem teorien af økonomisk politik og traditionel økonomisk teori. Den anden egenskab påpeger linket mellem kortsigtet forecasting og langsigtede simuleringer inden for dette framework. Jo mere præcis forecastet er på kort sigt, jo mere troværdig er den langsigtede policy evaluation. Adaptiv forecasting: 27 • Inden for teorien om økonomisk politik påpeges det i dette afsnit, at ere observationer altid forbedrer parameterestimater og forecasts. Men selvom vi har tilgængelige tidsseriedata fra 1929-1946 er det sjældent anvendt. Her refererer vi til forskelligheden i de konkrete tidsaldre (mellemkrigstiden, krigstiden, velfærdsstaten, vidensalderen). Hvis de grundlæggende parameterantagelser varierer betydeligt mellem tidsaldrene, er det ikke givet, at anvendelse af tidsseriedata på tværs af tidsaldrene øger kvaliteten af parameterestimaterne. • På trods af, at man ikke bruger data før 1947, opdaterer man hele tiden sit datasæt som tiden går. mere data tilgængeligt, jo mere præcise estimater opnås der via den teoretiske model. Jo Dette ses dog ikke nødvendigvis i praksis. • Han påpeger, at ovenstående ikke er ment som en kritik, da det selvfølgelig giver mest mening at opdatere sine tilgængelige data, hvis observationerne giver mere præcise sammenhænge. Pointen er, at de økonometriske lærebøger ikke modstrider, at nuværende forecasting ikke gennemføres inden for rammerne af teorien om økonomisk politik, og den uudfordrede succes af forecastene skal ikke opfattes som bevis for pålideligheden af den struktur, der er foreslået i denne teori. Teoretiske overvejelser - generelt: • Indtil nu har han argumenteret for, at der er et mismatch mellem økonomisk teori samt kvantitativ policy evaluation og vigtige karakteristika af økonometrisk praksis. En alternativ struktur, der indebærer stokastisk parameter drift matcher disse karakteristika bedre. Dette argument er tilstrækkeligt til at etablere, at langsigtede implikationer af nuværende forecasting modeller er uden indhold, og at den kortsigtede forecastings evne af disse modeller ikke har bevis for at være præcise. Disse pointer kalder han vigtige, men deres implikationer for fremtiden er dog fortsat uvisse. • Alt vi ved om dynamisk økonomisk teori indikerer, at den centrale antagelse af teorien af økonomisk politik når først parametrene er kendte vil de forblive stabile under arbitrære ændringer i sekvensen af eksogene variable er ubegrundet. Eksempler på teoretiske overvejelser: • Hvis de generelle teoretiske observationer er korrekte, så burde det være muligt at bekræfte dem ved at undersøge specikke problemer i modellen. Han antager, at alle variable på højresiden er eksogene. Eksempel på consumption: • Lucas bruger Friedman's permanente indkomsthypotese og siger dermed, at permanent consumption er proportional med permanent income. På trods af, at Friedman mener, at dette holder, så argumenterer Lucas for, at der er mangel på indhold i modellen. • Derfor inddrager han Muth's teori om rationelle forventninger. Muth ser permanent income som en eksponentielt, vægtet sum af nuværende og laggede observationer på actual income. Han siger, at denne actual income er konsistent med optimal forecasting på baggrund af aktørerne. • Ved Friedman-Muth tilgangen mener Lucas, at en økonometriker, som observerer en forbruger over ere perioder, vil have succes med at beskrive aktøren. Men om økonometrikeren kommer frem til resultatet ved brug af denne metode eller ved brug af trial-and-error kan være det samme. For nogle politiske ændringer kan vi med en vis sikkerhed gætte på de rekalkuleringer, som forbrugerne vil gennemgå, og dermed håbe på at kunne forudsige deres forbrugsreaktioner med en vis præcision. For andre typer af politikker, er det ikke åbenlyst, hvordan modellen anvendes og dermed nærmest umuligt at forecaste. 28 God pointe: • Lucas-kritikken er således, at økonomiens reaktioner på policyændringer ikke kan forudsiges af en model som (FR) medmindre agenternes adfærd er uafhængig af policyændringerne dvs. at forbrugerne bestandigt lader sig narre. (de tilpasser sig ikke) • Dette er også tilfældet selvom agenterne ikke har rationelle forventninger og dermed ikke fuldt ud kan gennemskue økonomiens relationer. For at en model således kan bruges til policysimulationer må modellens parametre være invariante over sådanne policyændringer, og det kræver såkaldte dybe parametre dvs. parametre, der bestemmer den bestemmer den menneskelige adfærd og her skal man ig. Lucas og Sargent have fat i den neoklassiske mikroteori. Men også dette viser sig at være en blindgyde. • Spørgsmålet er således om Lucas argumenter har et empirisk belæg. Lucaskritikken havde som bekendt, den eekt at en del af makroteorien blev baseret på den neoklassiske mikroteori og den repræsentative agent, hvilket har medført makromodeller, der stort set ikke er andet et legetøj for universitetsøkonomer og deres elever i centralbankernes forskningsafdelinger, men stort set ellers er ubrugelige. Politiske overvejelser: • Lucas argumenterer i sit essay for at yt+1 = F (yt , xt , θ, t ) ikke kan bruges til forecasting og policy-evaluation inden for den faktiske økonomi. • Han mener at håbet om, at politiske ændringer vil kunne ses langsomt, og at forecasts dermed kan være forholdsvis præcise i nogle perioder er forkerte og misvisende. For det første fordi nogle politiske ændringer skaber et direkte spring i parameteren af interesse For det andet bør langsomme ændringer i θ indregnes i den kortsigtede 'objective function'. Dette ses dog sjældent. • Han inddrager følgende formel: yt+1 = F (yt , xt , θ (λ) , t ) I en model som denne ses en politik som ændringen i parameteren λ eller den funktion, som genererer værdierne af de politiske variable på et bestemt tidspunkt. Hvis den politiske ændring sker som en række af beslutninger, der ikke følger et på forhånd annonceret mønster, vil bevægelsen til en ny θ(λ) være usystematisk og økonomisk umulig at forudsige. Hvis ændringen derimod er fuldt ud diskuteret og reglerne for ændringen er forståede, kan der være håb for, at den resulterende strukturelle ændring kan være et forecast på baggrund af tidligere data. Afsluttende bemærkninger: • Lucas afslutter med at påpege, at essayet er afsat til en redegørelse og udarbejdelse af en enkelt syllogisme: givet at strukturen i en økonometrisk model består af optimale beslutningsregler for økonomiske agenter, og at optimale beslutningsregler varierer systematisk med ændringer i strukturen i serier, der er relevante for beslutningstageren, følger det, at enhver ændring i politikken systematisk vil ændre strukturen i økonometriske modeller. • For spørgsmål, der involverer politisk evaluering, indebærer det sammenligninger af virkningerne af alternative politiske regler ved hjælp af aktuelle makroøkonometriske modeller, men disse modeller er ugyldige uanset præstationen af modellerne i løbet af stikprøveperioden eller i forecasts på kort sigt. 29 • Argumenterne der bruges i essayet, nævner han, er dels destruktive. De modsiger altså til dels hinanden. Så hvis beslutningstagere ønsker at forecaste, skal de tage nogle ting til overvejelse. Dette stemmer overens med en præference for demokratisk beslutningstagning. 30 Opgave 11. Makromodeller af Dynamic Stochastic General Equilibrium typen er meget populære. Diskuter disse modellers egenskaber og anvendelighed. Beskrivelse: • DSGE-modellers egenskaber er at de er en metode i makroøkonomi der forsøger at forklare økonomiske fænomener, såsom økonomisk vækst og business cycles altså konjekturer og eekten af en økonomisk politik, gennem økonometriske modeller baseret på generel equilibrium teori og mikroøkonomiske principper. • DSGE: Som navnet indikerer, så er DSGE modeller dynamiske (de undersøger hvordan økonomien udvikler sig over tid), stokastisk (de tager højde for faktummet at økonomien er påvirket af random shocks), general (hvilket refererer til den generelle økonomi), og af equilibrium (hvilket henvender sig til at udbud og efterspørgsel er i equilibrium) • Modellerne er et forsøg på at svare på Lukas kritikken ved at basere en makroøkonomisk model på et mikroøkonomisk fundament. En metode, hvorpå Lucas-kritikken kan forsøges imødekommet; jf. Lucas (1976), er ved at udforme en model, hvor modellens relationer ikke varierer ved en ændring i den førte økonomiske politik eller ved introduktion af forskellige choks i økonomien; jf. Pedersen (2012). En type modeller, der opfylder dette krav, er netop DSGE-modellerne. Selvom Romer gør opmærksom på, at målet ikke er nået endnu, så anser han den nuværende udformning af DSGE- modellerne for et vigtigt skridt på vejen. • De makroøkonomiske sammenhænge er beskrevet ud fra Økonomiske agenter, der maksimerer en given kriteriefunktion på baggrund af såkaldt rationelle forventning baseret på et fuldt informationssæt. ∗ • Optræder som arbejdstagere, arbejdsgivere, forbrugere og producenter. Udviklingen i DSGE-modellerne har været meget imponerende, idet det teknisk set er uhyre vanskeligt, og meget computerintensivt, at løse disse modeller og få beregnet, hvilke eekter de stokastiske stød, herunder politikændringer, har. Kritik • Lever ikke op til Lucaskritikken Spørgsmålet er, om disse modeller er immune over for for Lucas kritik. For ganske vist er modellerne, som anført af Romer (2012) p. 360, baseret på optimerende agenter, der optræder som mikrote- orien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med virkelighedens agenter. Samtidig er "policy" beskrevet ved en reaktionsfunktion for de pengepolitiske myndigheder, der nødvendigvis kun kan give et meget forsimplet billede af sammenhængene til den økonomiske politik. ∗ Dette indebærer, at DSGE-modellerne, ligesom de modeller som Lucas kritiserede, nemlig de såkaldte Keynesianske makromodeller, er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde, at fordi de optimerer en kriteriefunktion under bibetingelser, er de stabile over for politikinterventioner. 31 ∗ • Det må afgøres empirisk ved test for super eksogenitet. Kalibrerer vigtige parametre I andre studier inden for denne litteratur går man endnu mere radikalt til værks og estimerer/kalibrerer parametrene ved at sammenligne de momenter, dvs. typisk middelværdi, varians og autokorrelationskoecient, der kan genereres ud fra den estimerede model, med de momenter, der kan estimeres direkte fra data. ∗ To fordele frem for økonometrisk estimation. 1. Mikroøkonomisk information kan bedre anvendes (a) At mikroøkonomisk evidens i form af økonomisk teoretiske overvejelser, der ikke lader sig udtrykke på matematisk form, bedre kan indgå er vel sandsynligt 2. Man undgår at en statistisk forkastelse af en sammenhæng skyldes nogle økonomisk ligegyldige forhold. (a) Data kan til tider kan være besværlige at bakse på plads i forhold til ens forudindfattede meninger ∗ • Opgiver man den sidste rest af videnskabelig adfærd? Svagt identiceret Mens de Keynesianske makromodeller, der anvendes i praktisk økonomisk politik, er estimeret på baggrund af et meget omfattende datasæt, er DSGE-modellernes datagrundlag meget tyndt, og delvis baseret på "hvad litteraturen plejer at antage" eller på særskilte studier af visse sammenhænge i økonomien. Har svært ved at teste for de forskellige parametre. • Svend: Efter den såkaldte nanskrise i 2008, men også før, har DSGE-modellerne været udsat for hård kritik. En kritik, der allerede kom før krisen, er Mankiw (2006), der hævder, at ingen politikskabende institution anvender DSGE-modeller. I stedet anvendes de Keynesianske makromodeller. Denne kritik er dog delvis tilbagevist af fortalerne for DSGE modellerne • Den alvorligste kritik af DSGE-modellerne som et hjælpemiddel til formulering af økonomisk politik er imidlertid, at DSGE-modellerne bygger på forudsætninger af en sådan karakter, at de simpelthen ikke kan anvendes til at føre økonomisk politik. Buiter (2009) anfører, at DSGE-modellerne forudsætter, at markederne er komplette, dvs. at alle agenter til alle tider kan handle med alle varer, og hvor intertemporale budgetbetingelser altid er opfyldt. Derfor kan ingen gå fallit. Solow (2010) anfører, at DSGE- modellens sammenklapning til en agent medfører, at økonomien forfølger et sæt af mål, hvilket næppe er en god beskrivelse af en national økonomi, ligesom modellen ikke har plads til ufrivillig arbejdsløshed. Arbejdsløshed kan kun opstå i modellen fordi agenten vælger det. Hvad så? • Teoretisk meget bekvemmelige modeller (Altså DSGE er en teoretisk bekvemmelig model) De forklarer mange komplekse sammenhænge teoretisk og baseret på én repræsentativ agent. 32 • Det er muligt, og sandsynligt, at man kan foretage en yderligere udvikling af DSGE-modellerne, så de bliver anvendelige, men det forekommer at være en lang og besværlig vej at gøre dem til mere end smukke, og i en vis forstand teoretisk attraktive, modeller. Sammenfatning • Makroøkonomi er således ikke en beskrivelse af de enkelte agenter og deres adfærd, der er emnet for mikroøkonomien. DSGE-modellernes relevans i makroøkonomien kan således ikke bedømmes på, om de beskriver en enkelt agents adfærd, men skal i stedet bedømmes på, om de kan beskrive helheden. Hvis således DSGE modeller ikke kan adressere nogle af de ovenævnte vigtige spørgsmål, er deres makroøkonomiske relevans begrænset. Medmindre man kan acceptere dem som empiriske modeller, der giver en forsimplet beskrivelse af en kompliceret økonomi, der i en eller anden udstrækning er stabil. Men så er vi tilbage ved Lucas kritikken. • Svend mener ikke DSGE løser lukaskritikken. Han kritiserer hovedsageligt 2 ting: 1. Selvom en gruppe af rationelle optimerende agenter med en nedadgående kompenserende efterspørgselskurve er populationen for modellen betyder det IKKE at gruppens kompenserende efterspørgselsfunktion er nedadgående (a) Dette er det såkaldte aggregationsproblem 2. Han siger at man sætter en masse parametre a priori uden at estimere disse. Dette medvirker til at det bliver nemt at snyde og selvfølgelig skal alle parametre i en model estimeres. (a) Ydermere betyder dette at hvis man skal publicere eks 2 artikler om året er det nemt at anvende en DSGE model; man sætter bare parametrene så modellen passer og nemt får udgivet dette. Stikordsform af kritikken: • Vurdering Kritikpunkter 1. DSGE-modellerne bygger på forudsætninger af en sådan karakter, at de simpelthen ikke kan anvendes til at føre økonomisk politik 2. DSGE-modellerne forudsætter, at markederne er komplette, dvs. at alle agenter til alle tider kan handle med alle varer, og hvor intertemporale budgetbetingelser altid er opfyldt. Derfor kan ingen gå fallit. (Buiter) 3. DSGE-modellens sammenklapning til en agent medfører, at økonomien forfølger et sæt af mål, hvilket næppe er en god beskrivelse af en national økonomi, ligesom modellen ikke har plads til ufrivillig arbejdsløshed. Arbejdsløshed kan kun opstå i modellen fordi agenten vælger det (Solow). 4. DSGE-modellernes relevans i makroøkonomien kan ikke bedømmes på, om de beskriver en enkelt agents adfærd > Det handler om helheden ∗ Hvis DSGE-modeller ikke kan adressere makro spørgsmål er deres makroøkonomiske relevans begrænset. · Medmindre man kan acceptere dem som empiriske modeller, der giver en forsimplet beskrivelse af en kompliceret økonomi, der i en eller anden udstrækning er stabil. > tilbage ved Lucas kritikken. Livsfarlig cocktail: Selvbedrag baseret på fortolkninger af resultater, der i overensstemmelse med videnskabsmandens a priori opfattelse bliver en holdning, hvor man ser bort fra informationer, der ikke passer til den opstillede model 33 Makroteoriens basering på mikroteorien ∗ Fra undervisningen: Det vises, at de antagelser, der i mikroøkonomien pålægges den enkelte agent, ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er umuligt at påstå, at denne f.eks. maksimerer en kriteriefunktion, der afspejler kriteriefunktionen hos de agenter, som skal repræsenteres. ∗ Hermed er der heller ikke nogen grund til at tro, at parametrene i modeller med repræsentative agenter er dybe i den forstand, at de er særligt stabile over for eksogene stød til økonomien, som f.eks. politiske tiltag. ∗ VIGTIGT VIGTIGT: RBC-modeller og DSGE-modeller også sårbare over for Lucas kritikken. Intet hindrer, at man opstiller og anvender modeller, hvor der er nogle få optimerende ktive agenter, som illustrerer beslutningstagningen i modellen. ∗ Anvendelighed afgøres på sædvanlig vis > Forklarer de data og kan de anvendes til det, en makroøkonomisk model skal kunne anvendes til? 34 Opgave 12. Diskuter begrebet "den repræsentative agent", herunder om makromodeller baseret på et mikroøkonomisk fundament med optimerende agenter, med rette kan anses for at være uden for Lucaskritikkens domæne. Den repræsentative agent: Økonomer bruger begrebet Den repræsentative agent til at referer til en typisk beslutningstager af en bestemt type (fx. forbrugere eller virksomheder). En økonomisk model har repræsentative agenter hvis alle agenterne af samme type er identisk. Vi kan også have at agenterne er forskellige, men her pålægger vi en begrænsning således at deres sum af valg er matematisk lig beslutningen af et individ eller mange individer. Vi sammenlægger således mikroøkonomiske agenter og antager at de alle er identiske således at vi kan repræsentere dem ved én agent. Denne ene agent skal således forestille sig at indeholde alle de egenskaber der ndes for de mikroøkonomiske agenter, i en makroøkonomisk model Problemet: • Man kan ikke basere modeller på makroteori uden at inddrage hvordan individuelle agenter handler Derfor siger metodologisk individualisme at man bør forklare makroøkonomiske fænomener, baseret på hvordan enkelte individer handler. Dette ligger sig tæt op ad Lucas kritikken, der siger at man bør basere sin model på dybe invariante/ konstante parametre, hvilket i praksis gøres ved at basere modellerne på et mikroøkonomisk fundament. Løsning: • Et forsøg på at imødekomme dette er at basere sine modeller på én repræsentativ agent (der antages at være Homo Oeconomicus, altså en rationel tænkende agent) Dette er imidlertidigt en dårlig løsning, da denne aggregerede agent på ingen måde kan tage højde for heterogeniteten i befolkningens adfærd (Er den repræsentative agent gennemsnitlig? Og kan han så korrekt modellere de forskelle er der på rig vs. fattig i en makromodel?) ∗ Tag for eksempel aggregeringen af efterspørgselskurver: · Selvom hvert enkelt individ (utænkeligt) skulle have en lineær nedadgående efterspørgselskurve, vil den aggregerede på ingen måde have denne simple udformning. Der er ikke engang en garanti for at den vil være nedadgående. ∗ Indebærer, at DSGE-modellerne (ligesom de Keynesianske makromodeller som Lucas kritiserede), er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde er stabile over for politikinterventioner, blot fordi de optimerer en kriteriefunktion under bibetingelser. · Kun test af modellerne empirisk ved super eksogenitet kan afgøre om modellerne er immune overfor Lukas' kritik. · Denne test er dog svær at lave fordi disse modeller ofte er svagt identiceret. Ved at have en økonomi med kun én agent følger økonomien kun ét sæt af mål, hvilket må siges at være en dårlig beskrivelse af nationaløkonomien. Skulle man kunne opnå disse eftertragtede dybe parametre er der heller ikke noget der indikerer at disse skulle være invariante overfor strukturelle skift i økonomien. ∗ Desuden kan denne repræsentative agent ikke håndtere at rige og fattige reagerer forskelligt på eksogene chok og strukturelle knæk i økonomien 35 Derfor kan man ikke med sikkerhed sige, at makromodeller baseret på et mikroøkonomisk fundament undviger Lucaskritikken. • De er stadig ikke baseret på dybe invariante parametre, da: Det vises, at de antagelser, der i mikroøkonomien pålægges den enkelte agent, ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er umuligt at påstå, at denne f.eks. maksimerer en kriteriefunktion, der afspejler kritieriefunktionen hos de agenter, som skal repræsenteres. • Den repræsentative agent kan således ikke siges korrekt at repræsentere de agenter der bender sig i den mikrofunderede økonomi. Det betyder dog ikke, at man ikke kan benytte disse modeller til at forklare makroøkonomiske relationer. MEN man bliver nødt til at vise deres værd at teste dem empirisk. Der er dog intet der umiddelbart indikerer at de skulle være bedre til at analysere policy ændringer jf. at de ikke lever op til Lucaskritikken. Vi kan altså konkludere at makroteori baseret på et mikroøkonomisk fundament ikke er uden for Lucas kritikkens domæne, da de opstillede modeller, med udnyttelse af den repræsentative agent, ikke er dybe nok, og invariante overfor politiske tiltag, da der stadig skal opstilles a priori antagelser for modellens parametre. • Fra Svend: Der er selvfølgelig ikke noget, der forhindrer, at man opstiller og anvender makromodeller, hvor der er nogle få optimerende ktive agenter, som illustrerer beslutningstagningen i modellen. Om sådanne modeller er anvendelige må imidlertid afgøres på sædvanlig vis ved, at de forklarer udviklingen i de relevante makrodata, ud over at de selvfølgelig skal kunne anvendes til det, en makroøkonomisk model skal. Indtil videre er dette i hvert fald tilfældet. Det kan være at der i fremtiden bliver videreudviklet på disse idéer, men problemet er at modellerne bliver så komplekse at idéen om simpliceringer forsvinder og modellerne bliver om muligt endnu svagere identiceret. • Svend mener ikke DSGE løser Lukaskritikken. Han kritiserer hovedsagligt 2 ting: 1. Selvom en gruppe af rationelle optimerende agenter med en nedadgående kompenserende efterspørgselskurve er populationen for modellen, betyder det IKKE at gruppens kompenserede efterspørgselsfunktion er nedadgående (a) Dette er det der kaldes aggregationsproblemet 2. Yderligere siger han, at man sætter en masse parametre a priori uden at estimere disse. Dette medvirker til at det bliver nemt at snyde og selvfølgelig skal parametre i en model estimeres. (a) Ydermere betyder dette at hvis man skal publicere eks. 2 artikler om året er det nemt at anvende en DSGE model; man sætter bare parametrene så modellen passer og så kan man nemt få udgivet sine to artikler. Diskusion Lucas' kritik har været utroligt indydelsesrig, da den generelt ses som udgangspunkt for det paradigmeskift, hvor makroøkonomisk teori blev mikro-baseret. Den mikro-baserede tilgang kommer ud fra antagelsen om at ændringer i den makroøkonomiske policy ikke påvirker de mikro-økonomiske dybe parametre. Brugen af den repræsentative agent er også udsprunget fra kritikken, som en løsning på det aggregeringsproblem, der opstår som følge af mikro-fundamentet. Der er, som Lucas har udtalt ved mange lejligheder, ikke længere behov for at skelne mellem mikro- og makroøkonomi. I stedet er det mere relevant at diskutere økonomi som et mere generelt begreb. En sikker sten at betræde i diskussionen af Lucas-kritikken er at den om ikke andet har slået fast, at økonomisk analyse af politiske interventioner er behæftet med stor usikkerhed, så længe vi ikke kan lave modeller, der er stabile overfor netop disse interventioner. 36 • Elster (1982) kritik af Marx: I Elsters (1982) kritik af Marx' funktionelle forklaringer anvendes metodologisk individualisme. En af Marx påstande var, at kapitalisterne holder en reservearmé af arbejdsløse med det formål at holde lønnen nede. ∗ Indebærer, at den enkelte arbejdsgiver ikke, som vi normalt antager, ansætter arbejdskraft indtil det punkt, hvor grænseomsætningen er lig med grænseomkostningerne. ∗ For at opretholde en reservearmé af arbejdsløse, må den enkelte arbejdsgiver ansætte færre, og til et punkt hvor grænseomsætningen er større end græseomkostningen. ∗ Herved mister arbejdsgiveren prot. Den enkelte arbejdsgiver har således et stærkt incitament til at free ride for at maksimere sin prot. Dvs. han vil betale en højere løn og ansætte ere, indtil grænseomsætning er lig grænseomkostningerne. ∗ MEN det gælder jo alle arbejdsgivere, men herved forsvinder reservearméen, medmindre man er i stand til at opretholde en kartellignende situation, så arbejdsgiverne overholder kartellets bestemmelser om ikke at ansætte op til det optimale. Og det er ikke sandsynligt i det lange løb. 37 Opgave 13. Diskuter Paul Romer, What Went Wrong in Macro 1) Oversigt: Romers artikel behandler den strid som af nogle kaldes striden mellem saltvandsøkonomerne på østkysten (Harvard, MIT, Yale, Princeton) og vestkysten Berkeley, UCLA, Stanford og ferskvandsøkonomerne i Chicago og Minnesota. • Indlægget af Paul Romer fra 2016 redegør for hvad der gik galt i makroøkonomien samt en diskussion om, hvordan tingene kom så langt ud, og hvad vi kan lære heraf. Romer påstår, at problemerne ikke kun kan tilskrives Robert Lucas og hans tilhængeres vedholdenhed, som mente, at de eksisterende Keynesianske modeller var alvorligt mangelfulde. Romer mener ikke, at den forkerte drejning i makroøkonomien hverken skyldes Lucas eller hans modstandere, dog mener han, at de bør holdes ansvarlige for at miste deres forpligtelse til Feynman integritet , som er en af videnskabens grundsten. (Det at man opgiver alle oplysninger, også negative om sine teorier osv) Den generelle konklusion, som Romer drager, er, at alle økonomer ville have det bedre, hvis de stoler på videnskaben. Ifølge Romer, har Solow og Lucas overbevist sig selv om, at for at gøre fremskridt på den vej som de fulgte, måtte de tage en genvej, der afveg fra videnskabens normer. Men i begge tilfælde gav genvejen bagslag; 1. Solows afvisende kritik endte med at give den værste type af ny klassisk makroøkonomi, som forstyrrede en god politik, og 2. Lucas og Co.' isolering underminerede den forpligtelse til videnskab, der var central for Lucas' arbejde, da han startede. Derfor mener Romer, at det er bedre at forpligte sig til videnskabens normer. 2) Historiske detaljer: Efter Romers opfattelse (han k sin ph.d. fra Chicago efter studier også ved MIT) stammer denne konikt fra Solows (MIT), afvisning af Lucas og Sargents teorier i 1970'erne om at agenternes optimerende adfærd og deres rationelle forventninger ville medfører at de økonometriske makromodeller, der var baseret på empiriske estimerede relationer ikke ville kunne anvendes til policysimulationer, dels at økonomisk konjunkturudjævnende politik som sådan ville være vanskeliggjort. At det skulle være Solows afvisning af lucasteorien, der skulle have fået Lucas m. til at reagere som de gjorde og isolere sig, er Svend meget skeptisk overfor. Lucas og mange andre har fået mindst ligeså hård og arrogant kritik i Chicago, hvor Friedmann og Stigler var kendte hårde debattører. Baggrunden for opsplitningen er snarere en mere grundlæggende divergens i opfattelsen af samfundet, som også var der før Lucas. Lucas og Sargent var ig. Romer godt på vej ind i den Samuelsonske lejr (generel ligevægtsteori), men ig. Romer betød Solows britisk lignende arrogante kritik, en kritik som ig. Romere mere skyldes Solows frygt for at konjunkturpolitikken ville få dødsstødet end for videnskabelige hensyn, at Lucas blev fornærmet og trak sig tilbage til Chicago, hvor han blev fanget ind af Stigler. Romer kritiserer således såvel Lucas som Solow (og selvfølgelig Stigler) for ikke følge Feynmans anbefalinger for god videnskabelig adfærd. Men hovedkritikken retter sig dog mod Lucas, idet tilbagetrækningen betød, at Chicago og Minnesota (RBC) udviklede sig til et sted hvor videnskabeligheden har ringe kår i et miljø, der nægter at diskutere med andre end sig selv. 3) Solows valg: Adskillige økonomer har kommenteret på, hvordan makroøkonomi udviklede sig i de sene 70'ere. Lucas og Sargent havde ret i, at der var noget galt med de store makrosimulationsmodeller, men tog derimod fejl, da de hævdede, at den nye type model, som de tilbød som et alternativ, allerede til-bød rådgivning til beslutningstagere. 38 Ved at springe for tidligt til politisk rådgivning, underminerede de deres videnskabelige dagsorden. Solow valgte at reagere med sarkastisk benægtelse. Hans hårde og defensive reaktion bunder sandsynligvis i, at han var bekymret for muligheden for, at folk, der havde en indvirkning på politik, ville acceptere det politiske råd, som Lucas og Sargent tilbød. Solows reaktion til Lucas og Sargents tidlige spring til politik, gjorde to typer af skader. For det første satte det videnskabens dynamik tilbage, og for det andet underminerede det kvaliteten af den politiske rådgivning, som Solow var bekymret for. Han gik glip af muligheden for at omfavne SAGE-modeller som et værktøj til at skabe indsigt om udsving. Han kunne nemlig have benyttet en SAGE-model til at skabe det intellektuelle fundament for den type politik, som han støttede. Det vil sige, at Solow begik samme fejl som Lucas og hans tilhængere, nemlig at springe for tidligt ind i politikområdet, og derved ikke give videnskabsdynamikken tid til at udføre sit arbejde. Ifølge Romer, bør Solow have anerkendt, at der var problemer med de eksisterende modeller i stedet for, således at økonomer ville være bedre stillet Holde sig til videnskab: Afslutningsvis konkluderer Romer, at de este udkast til SAGE-modeller, som økonomer udforsker, viser sig at være forkerte. Viden akkumuleres gennem en proces med at være fjollet nok til at være præcis og derefter udslette de fjollede modeller, der ikke passer godt til fakta. Processen er rodet og tager sin tid, men den fungerer. Ifølge Romer, kræver det et par sund fornuft- principper for at kunne holde sig til den sociale vi-denskabsproces. Disse inkluderer blandt andet vericering og at fakta trumfer modeller. Disse er gode pointer, da de sikrer at man ikke bruger upræcise modeller til politiske beslutninger, men derimod at modellerne skal passe til den anvendte data og dermed give et korrekt billede. Diskussion: • Romer har nogle gode pointer om, at det er problematisk at Lucas opgav videnskabens principper om Feyman integritet Videnskaben har brug for at man forholder sig kritisk overfor egne og andres teorier Samt at det er vigtigt at forholde sig til fakta, så modellerne rent faktisk kan forklare data • Argumenter om at den hårde kritik skulle få Lucas til at isolere sig er svagt. Man modtager kritik alle steder i videnskaben • En bedre forklaring på opslitningen indenfor makroøkonomi ligger nok nærmere i den mere gundlæggende divergens i opfattelsen af samfundet. (Hvilket også fandtes før Lucas). 39 Opgave 14. Diskuter publikationsbiases. Der er stor forskel på den forskning som bliver droppet og den forskning der ender med at blive publiceret. Denne forskel ses blandt andet på: • Hypoteser som bliver afvist er typisk ikke så interessante som det modsatte, hvorfor de ofte bliver kasseret. • Forskningsresultater som ikke stemmer overens med den herskende opfattelse bliver ofte kasseret. Men hvad er det her publikationsbias sådan helt konkret? • Konkret går publikationsbias ud på at ønsket fra forskerens side om at publisere sin forskning, afhænger af de resultater man opnår i sin forskning. Typisk vil man se, at forskning med signikante resultater, har en meget større sandsynlighed for at blive publiceret, end forskning der viser insignikante resultater. Det handler i stor grad om at chancen for at blive publiseret i tidsskrifter, er større når ens resultater viser sig at være signikante, og eventuelt bidrager med helt nye resultater til den akademisk verden. Når man snakker om publikationsbiases, kan man tage udgangspunkt i en udtalelse af Harvard professoren Robert Rosenthal, der siger: For any given research area, one cannot tell how mant studies have been conducted but never reported. The extreme view of the 'le drawer problem' is that journals are lled with the 5% of the studies that show Type I errors (forkaste en sand nul hypotese), while the le drawers are lled with the 95% of the studies that show non-signicant results. Dette synspunkt fra Robert Rosenthal kan godt virke ekstremt, men der er næppe nogen tvivl om, at der er en ikke ringe sandsynlighed for, at resultaterne, der publiceres i tidsskrifter, er forskellige fra de resultater, der ikke er publiceret, og som nu ndes i arbejdspapirer, som tidligere samlede støv i skuer og skabe og nu optager lagerplads på computere. ∗ Problemet er at mange muligvis informative resultater aldrig ser dagens lys, da de ikke er interessante nok til at blive publiceret. Dette er et problem fordi publiceret forskning dermed ikke er repræsentativt for alt forskning på området. Den publicerede forskning er ikke udelukkende et udtryk for niveauet (kvaliteten) af undersøgelsen, men også blot et udtryk for et uhensigtmæssigt bias. ∗ Dette ekstra pres på at få publiceret artikler gør, at der er incitamenter til at justere /manipulere sine resultater til at vise bestemte resultater i retning af det, man som forsker subjektivt ønsker. ∗ Desuden gør dette pres også at man kun udgiver noget, der har en reel chance for at blive publiceret, hvilket kræver at man kommer med interessante resultater. • Incitamentsstrukturen for forskere og tidsskriftsredaktører der bl.a. er baseret på citationsresultater gør at resultater der blot bekræfter eller svagt afviser eksisterende resultater ofte havner i skuen. Og derfor kræver det revolutionerende resultater for at det kan blive publiceret i de rigtige tidsskrifter som folk læser. 40 Derfor må man forvente at publiceret forskning ikke blot er kvalitetsmæssigt bedre, men også er et opgør med eksisterende forskning. • Hvis man tager de kritiske briller på og ser det fra et kritisk synspunkt så kan man sige, at det er forståeligt nok at forskere ikke ønsker at publicere åbenlyse og måske endda kedelige resultater (når hovedhypotesen bliver afvist). Et nyskabende resultat er alt andet lige mere interessant, hvis det modsiger tidligere statistiske signikante resultater. Det er naturligt nok at forskere skal prøve sig frem, når de tester hypoteser, og derfor giver det måske god mening, at alle resultater ikke bliver publiceret, og slet ikke de, der ikke er nævneværdige. Alligevel mener jeg også at der måske kan være noget galt med den eksisterende incitamentsstruktur der er blandt forskere, da selvom man måske får et kedeligt resultat som ikke understøtter noget af det andet, så er disse resultateter med til at underbygge den eksisterende forskning, samt at nogle af resultaterne der ikke publiceres kan være informative resultater, som andre forskere ville kunne bruge, hvilket vil styrke det faglige miljø. Men med den stigende digitalisering og bedre computer er der en god mulighed for, at den, der søger, kan nde frem til mange resultater, der ikke er publiceret i de kendte tidsskrifter. Problemet er dog her, at tidsskriftspubliceringen optræder som et kvalitetsstempel på resultaterne, og dermed reelt kan afholde søgningen i at nde alt relevant. Kim and Ji (2015) om publikationsbias: • Af artiklen fremgår det at hvis man kigger på alle de artikler, de har undersøgt, så er der tydeligt bevis for publikationsbias, hvor man ser at der kun er 2 undersøgelser (ud af mange), som rapporterer insignikante resultater (på 10% signikansniveau). • Dette viser en klar bias for hvilke undersøgelser der bliver publiceret, hvor det (næsten) kun er de undersøgelser som kan bekræfte/forkaste noget der bliver publiceret, hvilket gør at forskere der har lavet en undersøgelse som ikke kan konkludere noget, ikke bliver publiceret. • Det har den betydning at man kan tro at der er stor evidens for at tro H0 er falsk når den i virkeligheden er sand, hvis der er nogen som har kunne fremvise det en gang, men der i virkeligheden er lavet mange ere undersøgelser, der ikke har kunnet sige noget om H0, men ikke er blevet publiceret pga. manglende Det er altså et kæmpe problem! - Da forskningen kan blive kraftigt biased, hvis man har problemer med at få publiceret insignikante resultater, på baggrund af den eksisterende litteratur viser signikante resultater. forkastning. (De Long and Lang, 1992). 41 Opgave 15. Diskuter Homo Oconomicus modellen. • Homo Oeconomicus er kort sagt en rationel agent. Dette er et begreb der er vidt deneret. I McDowell et. al. (2012) deneres en rationel person som en person, der forsøger at opfylde sine veldenerede mål på bedste måde. Denne denition kan formaliseres ved: Først ved beslutningsproblemet, der er karakteriseret ved tre forhold: ∗ Handlinger > alle alternative, som agenten kan vælge at udføre, herunder køb af en vare A (chokolade) og købe af en anden vare B (chips). ∗ Udfald > alle mulige konsekvenser af disse handlinger, som spisning af x chokolader og spisning er y chips. ∗ Præferencer > beskriver agentens rangordning af alle mulige udfald. Dernæst ved en præference relation, som er givet ved: ∗ ∗ Præferencerelation: x er mindst lige så god som y, der skrives Præferencerelationen er komplet: hvis vi for to udfaldt x og lige så god som y eller x y, for mængden af alle alternativer. y har, at x y , det vil sige x er mindst y x, det vil sige y er mindst lige så god som x eller begge, hvilket indebærer, at vi har en præference relation over alle mulige alternativer i denne verden. ∗ Præferenceraltionen er transitiv: hvis x er mindst lige så god som y, midst lige så god som z, • y z, x y, i det x z. tilfælde hvor y er og så vil x være mindst lige så god som z, Rationel præferencerelation: er en præferencerelation der både er komplet og transitiv. Given en sådan relation kan vi opstille en pay-o funktion eller en nyttefunktion. Denne angiver nytten af alle de udfald, som agenten har valgt. En pay-o funtion u(.) repræsenterer således en præference relation, hvis og kun hvis den tildeler højere værdier til højere rangerede udfald i præference relationen. Diskussion af Homo Oeconomicus • Derfor er Homo Oeconomicus således en agent, der har rationelle præferencer og er rationel, givet at vedkommende forstår alle aspekter af beslutningsproblemet. • Agenten vælger den handling, der giver det største payo af mængden af mulige handlinger. Dog er det tydeligt, at mange af ovenstående antagelser er temmelig strenge og kan skabe problematikker. 1. At præference relationen er komplet, (Agenten har præferencer over alle mulige udfald) er givetvis ikke tilfældet > Alle mulige udfald er sjældent kendt. 2. Transitivitets antagelse er der ligeledes blevet sat spørgsmåltegn ved. Bl.a. ved en række eksperimenter omfattende økonomiske agenter. 3. Antagelsen om at agenterne fuldt ud forstår alle relevante aspekter af beslutningsproblemet er også problematisk. • Det postuleres typisk at Homo Oeconomicus er egoistisk. Dette kan der også sættes spørgsmålstegn ved. 42 Som beskrevet har Homo Oeconomicus en pay-o funktion, som ofte betegnes ved en nyttefunktion. Denne kan dog indeholde argumenter vedrørende andre personers forbrug mv. Dvs. at påstanden kun er korrekt, hvis man postulerer, at jeg er egoistisk, selvom min nyttefunktion afhænger af forhold, som vedrører andre, eg. mine venner, kærester, forældre etc. > Dette vil i så fald være en pudsig denition af egoisme. • En anden kritik: Agenternes valg er afhængigt af den kontekst, hvori valget skal tages. Beslutningen er afhængig af den sociale kontekst, hvilket kan udtrykkes ved agentens humør osv. Dette kan give begrænsninger for anvendeligheden af pay-o funktionen, hvis disse kontekst-afhængige forhold skal medtages. Fx handler jeg når jeg er sulten, eller når jeg er mæt? Det er altså problematisk, hvis folks beslutninger afhænger af den sociale kontekst og de derved ændrer præferencer afhængigt af situationen Det er vigtigt at påpege at Alle modeller, også økonomiske modeller, er simplikationer af virkeligheden, og når den rationelle valgmodel, som ovenfor beskrevet, bygger på en række antagelser som synes at være nærmest ubegribeligt omfattende og strenge, og dermed også forekommer helt urealistiske, er spørgsmålet, om man ikke kan løsne disse antagelser uden at det i praksis får den store konsekvens for de resultater, som teorien giver • Spørgsmålet er således, om forudsætningen om at præference relationen er komplet, kan erstattes af en forudsætning om, at præference relationen er komplet for en gruppe af agenter, der agerer på et givet marked, og i forhold til det informationssæt, som markedets agenter har? • For så vidt angår betingelsen om, at præference relationen er transitiv, er spørgsmålet også, om den f.eks. er transitiv og rimelig stabil over tiden for en gruppe af væsentlige valg. Væsentlige i den forstand, at valgene har stor betydning for den relevante mængde af agenter. • Sådanne spørgsmål kan i realiteten kun besvares af empiriske studier af relevante og realistiske situationer. (Laboratorieeksperimenter kan også benyttes, dog med forbehold). As if argumenter for ubegrænset rationalitet • Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange argumenter Agenterne handler ikke ubegrænset rationelt, da agerer bare som om. Dette argument er et betinget argument, der kan undersøge empirisk og her er der varierende resultater jvf. tidligere. ∗ Bare en model der skal forklare deres handlinger. Man agerer som om man har lavet matematiske ligninger (billiard) Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden. Også dette argument kan afprøves empirisk, og også her er der varierende resultater. Agenter der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument gælder formentlig i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men bemærkningerne ovenfor gælder også her. ∗ Måden man lærer på i virkeligheden er 'trial and error' > Derfor giver det ikke mening at sige folk går konkurs i det lange løb > Man kan godt agerer rationelt med den information der er tilgelig > Men er den information begrænset kan man godt agere rationelt og stadig gå konkurt > Argumentet beskriver ikke virkeligheden. 43 Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accpeterer, at økonomi er en succes, er spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller med f.eks. en mere begrænset rationalitet. Herudover kan det anfægtes, at det er den optimerende adfærdsantagelse, der er skyld i successen. Og her har de undersøgelser, der er foretaget i overvejende grad testet mod et alternativ, der var urealistisk, som f.eks. at der ingen eekt er i retning af optimering. En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Hvis agenten ikke følger denne model, går man glip af indtægt. Ja, men det kan også være at man undgår nogle omkostninger, som man f.eks. pådrager sig ved at skabe et grundlaf for, at beslutningen kan være rationel. Hernæst beskriver Thaler sone 6 prognoser om Homo Oeconomicus(HO): 1. HO vil tabe IQ i modsætning til udviklingen de sidste 50 år (set fra år 2000). Thaler påstår at HO er blevet mere intelligente fordi HO i stigende grad har fået evne til at se ind i fremtiden (rational expectations), i stigende grad er blevet mere optimerende (Lucas kritik), maksimerer deres forventede nytte. I fremtiden vil økonomiske modeller have agenter, der tænker bredere og både mere eller mindre sostikeret end tidligere. > Relevant at inkludere i modeller. Individer er klart blevet mere komplekse. 2. HO vil blive langsommere til at lære. Når modellerne bliver mere komplicerede med agenter, der ikke nødvendigvis er ens, må man forvente at det tager længere tid og kræver en sostikeret læringsprocesser for de økonomiske agenter. > Overvejende rigtigt. Hænger sammen med 1 givet den øget kompleksitet. 3. Agenterne bliver mere heterogene > Overvejende rigtigt. Generel trend i de ny udviklende modeller. 4. Økonomer vil begynde at studere menneskelig læring og erkendelse. Det er givet, at hvis man skal forbedre den økonomiske teori ved at anvende mere komplicerede og forhåbentlig mere realistiske modeller for den økonomiske adfærd, bliver man nødt til at studere den menneskelige adfærd og få opstillet nogle modeller, der i langt højere grad er formaliserbare end det, der gælder for mange af de psykologiske modeller. Psykologer, hvis hovedopgave er at hjælpe enkeltpersoner har ikke nødvendigvis brug for en model til den typiske person > men det har økonomer. Enig. Trial and error = læring? > adaptive markeder. Evolution generelt. Erkendelse? 5. Økonomer vil begynde at skelne mellem normative og deskriptive teorier. Thaler påstår her, at da økonomer bliver mere som psykologer, vil de også være nødt til at foretage denne skelnen. I økonomi foretager man den også, men her smelter modellerne mere sammen, i hvert fald på nogle områder. Dette skyldes, at modellerne er baseret på optimerende agenter. Virkelighed/empiri vs. teori. Bygges teori på empiri eller omvendt? Optimerede agenter > bliver til begrænset optimere > adaptive markeder. Lærende mekanisme. 6. HO vil blive mere følelsesladet. Homo Oeconomicus vil blive mere følelsesladet i den forstand, at økonomer vil begynde at studere følelser som bestemmende for adfærd. > Given mening i forhold til basal behavioral economics teorier. Min nyttefunktion afhænger også af `Simones forbrug' da jeg `care' for hende. Risk-aversion (tab betyder mere end en gevinst.) 44 Opgave 16. Diskuter rationelle valg under risiko I den økonomiske litteratur anvender man to begreber: Risiko og usikkerhed. Begreberne blev introduceret af Frank Knight (1921) I beslutningstagninger under risiko står man overfor en situation hvor udfaldsmulighederne er kendte og man kender eller man kan estimere sandsynligheden for hver af de mulige udfald. I beslutningstagninger under usikkerhed kender vi ikke (alle) udfald, og vi kender ikke deres sandsynlighed. I en del af litteraturen skelner man ikke mellem risiko og usikkerhed, og de modeller der diskuteres, er som ofte beslutningsmodeller under risiko, også selv om de benævnes beslutningsmodeller under usikkerhed. Her fokuserer vi på valg under risiko St. Petersburg paradokset. En umiddelbar løsning kunne være, at man erstattede det sikre udfald med den forventede værdi af udfaldet. Men som det fremgår af det såkaldte St. Petersburg Paradox vist i Bernoulli i 1738 givet dette problemer. Antag at vi kaster en mønt og som i Nicholson et al. (2012) udbetaler 2i kr., hvis krone først viser sig i det i0 te kast. Det betyder at den forventede værdi af spillet bliver uendelig, men det beløb kan og vil ingen betale for at deltage! von Neumann-Morgenstern indekset John von Neumann og Osker Morgenstern (1944) foreslog i stedet for en løsning til problemet ved at konstruere et nytteindeks, der senere er blevet kaldt von Neumann-Morgenstern indekset (vNM indekset). • Dette vNM indeks konstrueres ved at sætte forbrugeren i en spilsituation, hvor spilleren skal vælge mellem et sikkert udfald og et spil, hvor man får den største gevinst med sandsynlighed sandsynlighed 1 − π. Det valg foretages for en række værdier af Når vores forsøgsperson vælger π, f.eks. π∗ , og den mindste gevinst med ved at erklære sig indierent mellem det sikre udfald og spillet, tildeles det sikre udfald et vNM indeks med værdien • π π. π∗ . Dette medfører at valget nu ikke bliver et valg mellem eksempelvis vare- og tjenestekombinationer, men bliver et valg mellem spil ofte kaldet lotterier, idet man vil vælge det lotteri, der giver den største vNM indeks. Aksiomer i den forventede nytteteori. • A. Præferencerelationen % • B. Præferencerelationen % deneret over mængden af lotterier er komplet og transitiv. deneret over mængden af lotterier er kontinuert, hvilket indebærer, at en lille ændring i sandsynlighederne ikke ændrer rangordningen mellem to lotterier. • % deneret over mængden af lotterier er uafhængig dvs. at det for alle lotterier gælder, L2 blandes med et tredje lotteri L3 vil blandingen θL1 + (1 − θ)L3 % L1 % L2 og 0 ≤ θ ≤ 1. Man kan således blande hver af to lotterier med ethvert andet C. Præferencerelationen at når et lotteri L1 θL2 + (1 − θ)L3 , og et andet lotteri hvis lotteri i mængden af lotterier, og opretholde rangordningen mellem de to lotterier i de blandede lotterier, hvis præferencerelationen er uafhængig. Det forventede nytteteorem. Hvis Axiom A, B og C Gælder, kan præferencerelationen % 45 repræsenteres af • En payo-funktion (nyttefunktion) af formen • hvor • og πj,i er sandsynligheden for udfald i Pn i=1 i lotteri πj,i ui (xi ), j, j = 1, 2 ui (xi ), i = 1, 2, ..., n er et sæt af tilknyttede tal, kaldet nytten, således at hvis og kun hvis L1 (π1,1 , π1,2 , ...., π1,n ) % L2 (π2,1 , π2,2 , ...., π2,n ). Bemærk at Pn i=1 π1,i ui (xi ) ≥ Pn i=1 π2,i ui (xi ), ui = ui (xi ) Fortolkning: • Det er således vist at man i tilfælde af beslutningstagning under risiko, hvor man kender udfaldsmuligederne og deres sandsynligheder, har komplette og transitive præferencer over lotterierne, hvor en lille ændring i sandsynligheder ikke ændrer præferencerelationen (kontinuitet), og hvor man kan blande to lotterier med et tredje lotteri uden at ændre rangordningen (uafhængighed) • kan konstuere et von Neumann-Morgenstern nytteindeks, som den forventede værdi af nytterne af udfaldene, dvs. • Pn i=1 πi ui (xi ) Dette resultat er et meget stærkt resultat, men ser vi på de opstillede betingelser, er det også givet, at den kritik, der blev rejst mod teorien om rationelle valg under usikkerhed, også kan rejses her. At præferencerne er komplette og transitive, og at agenter helt kan forstå alle valg og alle muligheder er selvfølgelig stærk kost Indierenskort • Eksempel: Et tilfælde med tre udfald Da Pn i=1 πi = 1 bliver x1 < x2 < x3 π2 = 1 − π1 − π3 . π1 større end π3 x1 . π3 for x3 x1 dvs. π1 afsat ud af er afsat ud af orinataksen (y-aksen). π3 , sker dette på bekostning af en lavere π2 = 1 − π1 − π3 , hvilket x2 . konstant og forøger er at foretrække idet Holder man π1 , π2 , π3 I gur 3 med sandsynligheden for abscisseaksen (x-aksen), mens sandsynligheden Hvis man holder med sandsynligheder x3 er større end konstant og formindsker π1 , hvorved 46 π2 forøges, er dette også at foretrække, idet x2 er • Vi ser således at bevægelser mod nordvest, hvorved π3 forøges og π1 formindskes, indebærer en forøgelse af udbyttet og bevægelsen indebærer således en nytte-forbedring målt ved vNM indekset. Allais paradoks Allais-paradokset er et valgproblem designet af Maurice Allais for at vise en inkonsekvens af faktiske observerede valg med forudsigelserne af den forventede brugsteori. Betragt følgende 4 lotterier L1 = (0, 1, 0)mod L2 = (0.01, 0.89, 0.1) L3 = (0.9, 0, 0.1)mod L4 = (0.89, 0.11, 0) • Under teoremet om forventet nytte, hvor der er uafhængighed vil man vælge 47 L1 fremfor L2 og L4 fremfor L3 , hvis hældningen på indierenskurverne er som hældningen på mellem • og Man vil vælge IB , på • L1 L2 L2 og mellem frem for L4 L1 og og IA , idet IA er stejlere end linjestykkerne L3 . L3 frem for L4 , hvis hældningen på indierenskurverne er som hældningen hvis hældningen ikke er så stejl som linjestukkerne mellem L1 og L2 og mellem L4 og Allais opnår imidlertid resultater i eksperimenter, der synes at vise, at man ofte foretrækker for L4 , L3 . L1 for L2 og L3 hvilket er i modstrid med de resultater, der kommer fra vNM indekset vNM holder ikke > kan kritisere forventet nytteteori As if argumenter for ubegrænset rationalitet • Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange argumenter 48 Agenterne handler ikke ubegrænset rationelt, da agerer bare som om. Dette argument er et betinget argument, der kan undersøge empirisk og her er der varierende resultater jvf. tidligere. ∗ Bare en model der skal forklare deres handlinger. Man agerer som om man har lavet matematiske ligninger (billiard) Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden. Også dette argument kan afprøves empirisk, og også her er der varierende resultater. Agenter der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument gælder formentlig i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men bemærkningerne ovenfor gælder også her. ∗ Måden man lærer på i virkeligheden er 'trial and error' > Derfor giver det ikke mening at sige folk går konkurs i det lange løb > Man kan godt agerer rationelt med den information der er tilgelig > Men er den information begrænset kan man godt agere rationelt og stadig gå konkurt > Argumentet beskriver ikke virkeligheden. Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accpeterer, at økonomi er en succes, er spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller med f.eks. en mere begrænset rationalitet. Herudover kan det anfægtes, at det er den optimerende adfærdsantagelse, der er skyld i successen. Og her har de undersøgelser, der er foretaget i overvejende grad testet mod et alternativ, der var urealistisk, som f.eks. at der ingen eekt er i retning af optimering. En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Hvis agenten ikke følger denne model, går man glip af indtægt. Ja, men det kan også være at man undgår nogle omkostninger, som man f.eks. pådrager sig ved at skabe et grundlaf for, at beslutningen kan være rationel. 49 Opgave 17. Diskuter forudsætningerne for den rationelle præferencerelation. Kort introduktion • Rationelle præferencer indebærer: 1. Præference relationen: Vi kan skrive at x er mindst lige så god som y, for mængden af alle alternativer. 2. Præference relationen er komplet, hvis vi for to udfald x og y, har at x er mindst ligeså god y eller y er mindst lige så god som x eller begge, hvilket indebærer, at vi har en præference relation over alle mulige alternativer i denne verden. 3. Præference relationen er transitiv, hvis A>B og B > C, så må det gælde at A>C 4. Kontinuitet: hvis A over B er en lille ændring i A stadig foretrukket over B Hvis præferencerelationen er komplet og transitiv → Kaldes det en rationel præferencerelation. Vi har således at forudsætninger for den rationelle præferencerelationel er at agenterne har en præference over alle valgmuligheder i denne verden og at agentens interne valg er konsistente. Dette kan ses som strenge forudsætninger i det det ikke nødvendigvis er tilfældet at agenterne har en præference over alle alternativer i verden, men samtidig kan det også være at agentens præferencer ændres over tid, hvilket påvirker transivitets antagelsen. Dette bringer os videre til pay-o funktioner (nyttefunktioner): • En pay-o funktion eller en nyttefunktion, der angiver nytten af alle de udfald, som agenten har valgt, præsenterer præferencerelation ≥, hvis det for ethvert udfaldspar x, y gælder at u(x) ≥ u(y), hvis og kun hvis x ≥ y. • Payo funktionen repræsenterer præferencerelationen ≥, hvis og kun hvis den tildeler højere værdier til højere Bemærk, den siger intet om hvilke værdier funktionen tildeler, blot at foretrækker man æbler over pærer, så har nyttefunktionen en større værdi for æbler rangerede udfald i præferencerelationen. • Tadelis (2013) viser at hvis mængden af udfald er endelig, kan enhver rationel præference relation repræsen- teres af en pay-o funktion. • I forlængelse af dette opstiller han herefter paradigmet om rationelle valg. Vi antager, at agenterne fuldt ud forstår beslutningsproblemet, givet at agenten har: 1. Kendskab til alle mulige udfald og 2. Kendskab til alle mulige handlinger 3. Ved nøjagtigt, hvilke handlinger der fører til hvilke udfald og samtidig med, at 4. Agenterne har rationelle præferencer (payos) over udfaldene og dermed og handlingerne. • En agent, der står over for et beslutningsproblem med payo-funktionen u(.), deneret over handlingerne, er rationel, hvis vedkommende vælger en handling, der maksimerer payo (nytten). 50 Diskutionen af forudsætningerne: Er det rimelige antagelser i håb om at opnå rationelle præference relationer, set i relation til den virkelige verden? • Kognitiv begrænsning; Vi kan ikke kende eller overveje alle valg. (Dermed bliver aksiom om komplet ikke opfyldt, så ikke rationel præference relation) Modargument: Alle modeller er simplikationer af virkeligheden, denne antagelse simpliciferer modelleringen. Modargument: Måske man i mange valg godt kan overveje alle de muligheder man FORESTILLER sig at have. Altså de beliefs. • Transivitetsbetingelsen holder muligvis heller ikke, valgene er ikke nødvendigvis konsistente Regretteori, valg der afhænger af ens humør fx • Vores forudsætninger er derfor ikke nødvendigvis anvendelige i en virkelig verden, men yderst anvendelige i vores økonomiske modeller med en del apriori antagelser om agenters væremåde. • Hvornår udvikler mennesker sin rationalitet? Et barn på 7 år er ikke rationelt - er en ung mand på 18 det? Er en voksen mand på 50 det? Hvornår i livet sker det? • Rationalitet er en vigtig ting at have i modeller, for ellers er det ikke til at sige, hvad agenterne ønsker. Hvis forbrugerne ikke (egoistisk) maksimerer deres nytte, hvordan skal vi så modellere deres beslutningstagen? Hvis rmaer ikke maksimerer deres prot, hvordan ved vi så hvor mange enheder de producerer? Selvom nogle af antagelserne bagved rationalitet er svære at opretholde kan de betragtes som nødvendige, for at kunne få nogle resultaterer fra modellen. OG, mon ikke disse resultater leder i den rigtige retning? Altså, selvom de har kognitiv begrænsninger eller er i et skidt humør, vil en agent så ikke oftest tænke Hvad vil jeg få mest glæde ud af nu?, og hvis de gør det vil de i mine øjne oftest træe det rigtige valg. Revealed preferences • Modsvar til præference relationer: `Revealed Preference' teorien, formuleret af Samuelson(1938). Formål: at undgå, at man skal anvende `noget så luftigt' som præferencer, dvs. opstilling af en nyttefunktion med tilhørende indierenskurver. Han skriver at sådanne præference relationer er noget, der ndes i hovedet på folk og ikke noget, der kan/skal observeres. Men det, man kan observere, er de valg, der foretages. Man åbenbarer sine præferencer. Mas-Colell (1995) digger det her. • Sen (1973) og Hausman (2012) kommer dog begge med et stærkt angreb på den opfattelse af betydningen af revealed preferences. Hausman (2012) har især to pointer. 1. Hvis præferencer er deneret ved valg, kan man ikke have præferencer for noget, man ikke kan vælge. Man kan således ikke have præferencer for en alderdom uden sygdom, for det kan man ikke (selv) vælge. Det eneste økonomi kan sige noget om i så fald er, at man blandt de mulige valg vælger den, man foretrækker, hvilket blot siger, at man handler konsistent. 2. Det andet punkt kan illustreres ved Shakespeares historie om Romeo og Julie. Svend skriver således: Her nder Romeo en øjensynlig død Julie, og han begår derefter selvmord, fordi han ikke ønsker at leve uden Julie. Men Julie er ikke død og han kunne have løbet bort med hende, og giftet sig med hende > Romeos valg mellem at begå selvmord eller at løbe bort med Julie afhænger af hans overbevisning (belief ) om, at hun er død. Havde han haft en anden overbevisning, f.eks. at hun blot var bevidstløs, var valget blevet et andet. (Kan også beskrives ved vandrensningsanlægget i Kenya). 51 • Således kan præferencer ikke blive deneret ved hjælp af valg, fordi disse afhænger af agents `belief '. Man kan ikke identicere hverken præferencer eller overbevisning ud fra valg, men valg er en konsekvens af præferencer og overbevisning. `As if ' argumenter for ubegrænset rationalitet Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange argumenter. Svend skriver nedenstående (Semi vagt) 1. Agenterne handler ikke ubegrænset rationelt, de agerer bare som om. Dette argument er et betinget argument, der kan undersøges empirisk, og her er der varierende resultater jvf. tidligere. 2. Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden. Også dette argument kan afprøves empirisk, og også her er der varierende resultater. 3. Agenter, der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument gælder formentlig i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men bemærkningerne ovenfor gælder også her. 4. Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accepterer, at økonomi er en succes, er spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller med f.eks. en mere begrænset rationalitet. Herudover kan det anfægtes, at det er den optimerende adfærdsantagelse, der er skyld i successen. Og her har de undersøgelser, der er foretaget, i overvejende grad testet mod et alternativ, der var urealistisk, som f.eks. at der ingen eekt er i retning af optimering. 5. En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Og hvis agenten ikke følger denne model, går man glip af "indtægt". Ja, men det kan også være, at man undgår nogle omkostninger, som man f.eks. pådrager sig ved at skabe et grundlag for, at beslutning kan være rationel. 52 Opgave 18. Diskuter Simons teori om menneskelig adfærd. Modeller baseret på begrænset rationalitet er da også i stigende grad blevet en fast bestanddel af den økonomiske teori, og man kan måske, som Richard Thaler (2000) påstå, at økonomisk teori er på vej fra Homo Economicus (economic man) til Homo Sapiens (human). Udviklingen startede 1950'erne med Herbert A. Simon (1955), og vi vil indlede gennemgangen med hans teori om "Satiscing". Herbert Simon og satiscing: • Simons opgør med Homo Oeconomicus ved introduktion af begrænset rationalitet. • Simon (1955) skriver i sin indledning Bredt sagt, opgaven er at udskifte den globale rationalitet af den økonomiske agent med en type af rationel adfærd, der er kompatible med adgangen til information og den beregningsmæssige kapacitet der faktisk er tilgængelig for agenten, i det miljø som agenten eksisterer i Individers beslutningstagning må baseres på den information, de har til rådighed (begrænset i forhold til den information, Homo Oeconomicus forudsættes at besidde) Menneskets evne til at beregne den optimale løsning er begrænset i forhold til den kognitive kapacitet agenterne faktisk besidder. - Modsat Homo Oeconomicus der kan gennemskue alle muligheder og agerer optimalt ud fra det. • Simon stiller spørgsmål ved hvor langt man skal gå, og hvilke omkostninger man skal pådrage sig, for at indsamle endnu mere information og foretage endnu ere beregninger. Det er et trade-o imellem at agenten opnår mere information og foretager ere beregninger, og hvor godt et grundlagt agenten skal kunne træe sine beslutninger på. (Nogle tilfælde har man måske ikke brug for yderligere beslutningsgrundlag, selvom man ikke har ALLE informationer) • Simons agent optimerer således ikke til det globale optimum, men forsøger at nærme sig så tæt som det kan betale sig til det optimum, agentens informationssæt og evner rækker til. Det vil sige at forskellige agenter vil ende forskellige steder, da de har forskellige informationer og forskellige kognitive evner. (Det giver jo meget god mening i den virkelige verden også) Dette kaldes satiscer (satisfy og suce) • Simons argumenter mod fuld rationalitet og den klassiske optimerende rationelle model: Kritiserer Friedman for at hævde at økonomiske agenter maximerer den forventede nytte eller prot, dvs. opfører sig som den klassiske teori kræver, mens de økonomiske teoretikere, herunder Friedman, (De økonomiske teoretikere satiscer altså også, de forsøger at nærme sig optimum, så længe det kan betale sig ud fra ens informationer og evner) kun satiscer, når det gælder deres teori. Simon nævner en lang række forhold, der gennem tiden er blevet anvendt som argument for den klassiske optimerende teori som er forkerte eller ligesåvel kan bruges til satiscer modellen: ∗ At efterspørgselskurverne generelt har negativ hældning kan være en eekt af såvel optimerende adfærd som andre adfærdsteorier herunder satiscing. 53 · Becker (1962) skriver at modeller uden fuld rationalitet også vil have nedadgående efterspørgselskurver, på grund af eekten af ændringer i priser på forbrugermuligheder. ∗ De klassiske antagelser er tilstrækkelige betingelser for at produktionsfunktionerne er homogene af første grad eller ofte synes at være det, men betingelserne er ikke nødvendige, og produktionsfunktioner med sådanne egenskaber kan være resultatet af andre adfærdsmæssige antagelser end de klassiske. ∗ At langtids omkostningskurven er U formet, hvis ligevægten skal være stabil under fuldkommen konkurrence er et krav, der gælder under de klassiske antagelser, men ikke under begrænset rationalitet. Heldigvis -mener Simon for langtids omkostningskurven synes ikke generelt at være U formet. Man kan opfatte Simons "satiscing model" som en model, der opfatter agenterne som værende optimerende, men på grund af deres begrænsede kognitive evner og begrænsede muligheder for at kende deres valgmuligheder og disses sandsynligheder i en verden med usikkerhed er deres valg i en vis udstrækning formentlig forskellig fra de optimerende agenter i den klassiske model. ∗ I nogle tilfælde, hvor de kognitive og informationsmæssige begrænsninger er delvis uskyldige (små) vil agenternes handlinger blive som i den klassiske model, men i tilfælde med mere komplicerede dynamiske sammenhænge vil den klassiske model med rationelle agenter, der besidder fuld information kunne give helt skæve analyser og prædiktioner. • Diskussion Simons antagelse om at individers beslutningstagning må baseres på den information, de har til rådighed. Og den information er normalt begrænset i forhold til den information, Homo Oeconomicus forudsættes at besidde, kan være mere virkelighedsnær end den i homo oeconomicus modellen. Vi ser i den virkelige verden og i mikro teorien at det at skulle indhente information har en omkostning og det er således et tradeo mellem at ville indhente mere information i beslutningstagningen mod en højere omkostning end ellers. Simons agenter optimerer således heller ikke til det globale optimum, grundet begrænset kognitiv kapacitet, men forsøger at nærme sig så tæt på det, som det kan betale sig, til det optimum agentens informationssæt og evner rækker til. Det er ifølge Second Best Teoremet det bedste valg under be- grænset information. Det antydes klart at Simon ikke er fan af den klassiske optimerende teori og prøver således med sin satiscing model, at opstille en model, der opfatter agenterne som værende optimerende, men på grund af deres begrænsede kognitive evner og begrænsede muligheder for kende deres valgmuligheder og disses sandsynligheder i en verden med usikkerhed er deres valg i en vis udstrækning formentlig forskellig fra de optimerende agenter i den klassiske model. Det kan langt hen af vejen forsvares at den klassiske optimerende teori skal reformuleres idet den ikke stemmer overens med empiriske resultater til dags dato og her kan Simon's teori være et skrift i den rigtige retning. • Opsummering: Simons satiscer teori kan opfattes som det indledende opgør mod den rationelle agent. Dette opgør er efterfulgt af mange og for at kunne besvare det må der foretages test på baggrund af empiri eller laboratorieeksperimenter. 54 I princippet er formål at modellere virkeligheden eller at forsøge at forudsige og forklare den. Om dette gøres bedst med Simons satiscer, den rationelle agent eller en helt tredje metode er op til empirien. Gigerenzer: • Arbejder videre på Simons idéer • Under usikkerhed, hvor man ikke har mulighed for at kende alle mulige udfald og deres sandsynligheder, skal man alligevel træe beslutninger. Dette sker ifølge Gigerenzer bedst på baggrund af en heuristics beslut- ningsmodel, der allerede blev introduceret af Simon. Modellen siger: En heuristic er en strategi der ignorer dele af informationen, med det formål at lave beslutninger mere hurtigt, mere simpelt og/ eller mere præcist end mere komplicerede metoder • Heuristics: En heuristik eller heuristisk metode er en metode, som hjælper en til eller tillader en at udforske og lære ting på egen hånd, eller at løse et problem ved at evaluere de erfaringer, man har gjort sig, og derved prøve sig frem, til man har en løsning. • Ligesom Simon siger: Beslutninger om konkrete handlinger sker ofte ud fra overvejelser vedrørende få elementer blandt de mange mulige forklarende faktorer og udfald. Dette sker, fordi man ikke har mere information til rådighed her og nu, og det koster at indsamle mere information samtidig med, at man har begrænset intellektuel kapacitet, og endvidere måske har nogle erfaringer, som fortæller, at det plejer at gå godt, hvis man anvender den information man får fra disse få elementer. • Gigerenzer og Gasmaier (2011) starter med kritik af den forventede nytteteori og postulerer, at heuristics, der er en form for tommelngerregler, både giver hurtigere og bedre beslutninger. De fremkommer derefter med 4 resultater: 1. Den bedste beslutning under risiko er ikke (nødvendigvis) den bedste beslutning under usikkerhed. 2. Heuristics er nødvendige for gode beslutninger. De er ikke et resultat af et mangelfuldt tankesystem. 3. Komplekse problemer behøver ikke (nødvendigvis) komplekse løsninger. 4. Mere information, mere tid og ere beregninger er ikke altid bedre. 55 Opgave 19. Diskuter Gigerenzers teori om menneskelig adfærd, herunder diskussion om beslutningstagning under usikkerhed og risiko • Arbejder videre på Simons idéer Herbert Simon og satiscing: Simons opgør med Homo Oeconomicus ved introduktion af begrænset rationalitet. Simon (1955) skriver i sin indledning Bredt sagt, opgaven er at udskifte den globale rationalitet af den økonomiske agent med en type af rationel adfærd, der er kompatible med adgangen til information og den beregningsmæssige kapacitet der faktisk er tilgængelig for agenten, i det miljø som agenten eksisterer i ∗ Individers beslutningstagning må baseres på den information, de har til rådighed (begrænset i forhold til den information, Homo Oeconomicus forudsættes at besidde) ∗ Menneskets evne til at beregne den optimale løsning er begrænset i forhold til den kognitive kapacitet agenterne faktisk besidder. - Modsat Homo Oeconomicus der kan gennemskue alle muligheder og agerer optimalt ud fra det. Simon stiller spørgsmål ved hvor langt man skal gå, og hvilke omkostninger man skal pådrage sig, for at indsamle endnu mere information og foretage endnu ere beregninger. ∗ Det er et trade-o imellem at agenten opnår mere information og foretager ere beregninger, og hvor godt et grundlagt agenten skal kunne træe sine beslutninger på. (Nogle tilfælde har man måske ikke brug for yderligere beslutningsgrundlag, selvom man ikke har ALLE informationer) Simons agent optimerer således ikke til det globale optimum, men forsøger at nærme sig så tæt som det kan betale sig til det optimum, agentens informationssæt og evner rækker til. ∗ Det vil sige at forskellige agenter vil ende forskellige steder, da de har forskellige informationer og forskellige kognitive evner. (Det giver jo meget god mening i den virkelige verden også) ∗ Dette kaldes satiscer (satisfy og suce) Gigerenzers teori tager sit udgangspunkt i Simon og udfra en opfattelse af at beslutninger i økonomi er beslutninger under usikkerhed og ikke under risiko, videreudvikler beslutningstagning ved hjælp af heuristics eller tommelngerregler, som det kan oversættes ved. Gigerenzer, der med en vis ret betragter sig som en arvtager til Simon, skelner som også Knight (1921) skarpt mellem begreberne risiko og usikkerhed. • Under risiko: hvor man har kendskab til de mulige udfald og deres sandsynligheder, har agenterne en mulighed for at forstå beslutningssituationen, beregne alternativer og træe en beslutning baseret på rationelle overvejelser. • Under usikkerhed: hvor man ikke har mulighed for at kende alle mulige udfald og deres sandsynligheder, skal man alligevel træe beslutninger. Dette sker ifølge Gigerenzer bedst på baggrund af en heuristics beslutningsmodel. Modellen siger: En heuristic er en strategi der ignorer dele af informationen, med det formål at lave beslutninger mere hurtigt, mere simpelt og/ eller mere præcist end mere komplicerede metoder. 56 • Heuristics: En heuristik eller heuristisk metode er en metode, som hjælper en til eller tillader en at udforske og lære ting på egen hånd, eller at løse et problem ved at evaluere de erfaringer, man har gjort sig, og derved prøve sig frem, til man har en løsning. • Ligesom Simon siger: Beslutninger om konkrete handlinger sker ofte ud fra overvejelser vedrørende få elementer blandt de mange mulige forklarende faktorer og udfald. Dette sker, fordi man ikke har mere information til rådighed her og nu, og det koster at indsamle mere information samtidig med, at man har begrænset intellektuel kapacitet, og endvidere måske har nogle erfaringer, som fortæller, at det plejer at gå godt, hvis man anvender den information man får fra disse få elementer. • Gigerenzer og Gasmaier (2011) starter med kritik af den forventede nytteteori og postulerer, at heuristics, der er en form for tommelngerregler, både giver hurtigere og bedre beslutninger. De fremkommer derefter med 4 resultater: 1. Den bedste beslutning under risiko er ikke (nødvendigvis) den bedste beslutning under usikkerhed. 2. Heuristics er nødvendige for gode beslutninger. De er ikke et resultat af et mangelfuldt tankesystem. 3. Komplekse problemer behøver ikke (nødvendigvis) komplekse løsninger. 4. Mere information, mere tid og ere beregninger er ikke altid bedre. Eksempler: ∗ Basketball eksemplet: Meget tillæring (de siger at heuristik også kan læres) og øvelse før man kan; børn kan ikke gribe bolden ∗ Hudson River (ylanding) · Gigerenzers påstand om at piloterne brugte Heuristics kan diskuteres. De er trænede, og noget af træningen er baseret på meget komplicerede beregninger. · Der blev dog nævnt at piloten brugte en slags tommelngerregel om, højde forskelle fra yet og de nærliggende byninger, og derfor vidste han at han ikke kunne nå tilbage til lufthavnen. ∗ Ofte i økonomi forsøger man at transformere beslutningstagning under usikkerhed til en tilpasset model for beslutningstagning under risiko, dvs. man overvejer, hvilke udfald der er de mest sandsynlige, og hvilke sandsynligheder disse udfald har. Så kan det godt være, at man ikke får alle udfald med. Hvis man forlanger, at summen af sandsynlighederne skal summe til 1, kan man have et residualudfald, der medfører, at dette krav er opfyldt. Sandsynligheden for residualudfaldet bør selvfølgelig være relativ lille. · Om denne model er bedre end Gigerenzers er et empirisk spørgsmål, dvs. det bør testes videnskabeligt. Gigrenzers generelle idé er The science of Heuristics der indeholder: ∗ The adaptive toolbox. Hvilke heuristics anvendes? Hvad består disse heuristics af og hvilken kapacitet har de? ∗ ∗ Ecological Rationality. Hvilke heuristics virker i hvilke omgivelser? Intuitive Design. Beslutningsmodeller, som brugerne umiddelbart forstår. Her sammenligner Gigerenzer en beslutningsmodel for en hjerteafdeling, der er baseret på en række statistiske undersøgelser og logistiske regressioner, og som i Gigerenzers version giver en forholdsvis 57 kompliceret beslutningsmodel, med et intuitivt design baseret på Gigerenzers teorier. At forestille sig, at man ikke kan præsentere den konkurrerende model, som Gigerenzer kritiserer, i en simpel udgave som selv hjertelæger kan forstå, er svært at tro, så mon ikke Gigerenzer er lidt biased. • Diskussion Han kan således have ret i at mange beslutningsprocesser kan tages ved hjælp af heuristics, men spørgsmålet er om det bliver for simpel en beslutningsmodel således at den kan forklare alle alternative valg. Her argumenterer gigenrenzer at man ikke behøver at løse et komplekst dierentialligningssystem, men løber til bolden, mens man ser på bolden i den rigtige vinkel. Gigenrenzer påstår således at agenter anvender heuristics til at gribe bolden i luften. • Forskellen på Simon og Gigerenzer: Simons metode gør man må gå på kompromis med det globale optimum pga. manglende information. Ved Gigerenzers metode ignorerer bevidst information grundet heuristikken og træer i høj grad beslutninger på grund af erfaringer. 58 Opgave 20. Diskuter Kahneman-Tversky teorien om menneskelig adfærd og Gigerenzers kritik af denne teori. Kahneman og Tversky (psykologer): Prospektteori • Kritiserer den forventede nytteteori, de anså at den var forkastet af mange eksperimenter, herunder deres egne Specielt kritiserer de at præferencerelationerne er komplette og transitive, og dermed udgør en rationel præferencerelation > De foreslår i stedet Prospektteori som er brugt til forklaring af irrationel adfærd, som er baseret på eksperimentielle studier, hvor mennesker deltager i spil og præsenteres for valgmuligheder Prospektteorien: • • = (x1 , p1 ; x2 , p2 ; ....; xn , pn ) p (xi ), i = 1, 2, ..., n Et prospekt lighed er deneret som en kontrakt der giver et udbytte på xi med sandsyn- 2 faser: Første fase = Editering: Der foretages en indledende analyse af de eksisterende prospekter ∗ Kodning: Et prospekts udfald sættes f.eks. i forhold til den nuværende formueposition som tab eller gevinst ∗ Kombinering: Man kan ofte simplicere processen ved at kombinere udfaldene. Hvis man f.eks. har to udfald med samme gevinst, kan de kombineres til et udfald med en sandsynlighed, der er summen af sandsynlighederne af de to oprindelige udfald. (Enten eller sandsynlighedsreglen). ∗ Segregering: Hvis man kan segregere et prospekt i en sikker del og en usikker del skal man gøre det. For eksempel kan prospekt prospekt (300, 0.8; 200, 0.2) deles i et sikkert prospekt (200, 1) og et usikkert (100, 0.8). ∗ Sletning: Sletning af dele, der er fælles mellem alle prospekter. ∗ Simplifcering: Afrunding. Man bruger ikke tid på at anvende sandsynligheder som 0.495, men bruger 0.5 og lignende. Og man fjerner helt usandsynlige udfald og prospekter, der klart domineres af andre prospekter. Anden fase = Evaluering: De editerede prospekter værdisættes og man vælger det prospekt med den højeste værdi ∗ I evalueringsfasen opstilles en værdifunktion, der adskiller sig fra vNM indekset pi Pn i=1 u (xi ) pi , hvor er sandsynligheden for den i'te udfald, ved at indføje en vægtning af sandsynlighederne med en vægtfunktion π (pi ) og erstatte nyttefunktionen u(xi) med en værdifunktion v(xi). spørgsmål bliver således, hvilke former værdifunktionen v(.) og vægtfunktionen π (.) Det afgørende har. Værdifunktionen ∗ ∗ ∗ Deneret som en afvigelse fra et referencepunkt (ofte den initiale formuesammensætning) Konkav for gevinster og konveks for tab Stejlere for tab end for gevinster Vægtfunktionen ∗ π(p) < p for store værdier af p (høje ssh) og 59 π(p) > p for små værdier af p (små ssh) ∗ Begrundelse: Eksperimenter har vist, at små sandsynligheder ofte overvægtes, mens store sandsynligheder omvendt undervægtes. ∗ Herved får man, hvad Kahneman og Tversky (1979) kalder subcertainty, hvor det for gælder, at · 0 < p < 1 π(p) + π(1 − p) < 1. Man vægter et spil mindre end en sikker hændelse. Analysen skelner (af KT) mellem såkaldt regulære prospekter (et udfald er et tab, et andet er en gevinst samt p + q < 1) på den ene side og strengt negative eller strengt positive prospekter (alle udfald er enten gevinster eller tab) på den anden side. ∗ Dette skyldes, at man ordner udfaldene i forhold til en initialsituation, og således har positive udfald kaldet gevinster og negative udfald kaldet tab. ∗ Det er muligt at få resultaterne fra den forventede nytteteori. Denne teori er således et specialtilfælde af prospektteorien. > Hvis man har streng positiv/negativ kan man seggregere prospektet i en risikofri del og en risikofyldt del • Diskussion Ideen om at man tillægger lave sandsynligheder mere vægt end høje kan jeg godt se ideen i; det er vel lidt det vi ser i lotto? Det forventede outcome er så lavt, at 50 kr ikke kan svare sig, men da man tillægger en højere vægt på ideen om at vinde de mange millioner spiller man stadig. ∗ Hvordan nder man vægtfunktionen præcist? ∗ Det kan vises at den forventede nytteteori er et specialtilfælde af prospektteori. · Ideen om høje vægtfunktioner til lave sandsynligheder er god Gigerenzers kritik af denne teori • Kahneman og Tversky har udført et eksperiment kaldes Linda eksperimentet. Linda blev beskrevet som {C} = 30 år gammel, single, klog, har læst loso og som studerende gik hun meget op i problemer med diskrimination og social retfærdighed Forsøgspersoner blev så spurgt om hvilken af følgende udsagn de fandt mest sandsynlige 1. 2. {A} =Linda er bankkasserer {A ∩ B} =Linda er bankkasserer Logisk ville man sige at og feminist, hvor P {A ∩ B} < P {A}, {B} =Linda er feminist da der ndes ere bankkasserer end bankkasserer der også er feminister. K og T's eksperiment viste dog at givet {C}, altså informationerne om Linda, så fandt forsøgspersonerne at sandsynligheden størst for at Linda var bankkasserer og feminist. P {A | C}. Dette sker fordi de fejlagtigt sætter Kahneman og Tversky (1974) bruger dette eksempel system 1 anvender tommelngerregler (heuristics) ud den karaktseristik i beskrivelsen af Linda. Derudover man ikke var blevet oplyst C om Linda, ville man nok • P {A ∩ B | C} > P {A ∩ B | C} = P {C | A ∩ B}. til at vise at beslutningstagere ofte i fra Representativeness, altså ud fra spiller availability ind, så altså hvis have sagt hun bare var bankkasserer. Gigerenzer mener at det er forkert at tale om sandsynligheder i dette eksempel, når man snakker om en enkelt stående begivenhed, hvor Linda er udvalgt og konstrueret. • Gigerenzer argumenterer for, at det er en dårlig idé at anvende statistiske regler uden at opstille den relevante model. Og denne model kan kun opstilles, hvis man tager udgangspunkt i det problem, der skal belyses. At undlade det, kalder Gigerenzer at anvende content-blind norm. 60 Figure 5: 61 • Gigerenzers kritik er, at Kahneman og Tversky ikke opstiller en detaljeret model for den kognitive proces, der forklarer, hvorfor kognitive illusioner forsvinder og hvornår, men i stedet nøjes med svage heuristics, som forklarer alting og ingenting. Thinking, fast and slow (EKSTRA) • I bogen "Thinking, Fast and Slow"af Kahneman (2011) anføres, at menneskets mentale aktiviteter kan inddeles i to grupper. Den første gruppe kaldet System 1 er "Tænke hurtig, intuition"og den anden kaldet System 2 er "Tænke grundig, logisk, kalkulation". • Begge systemer er nødvendige. Der er nogle ting, man ikke kan nå at reagere på, og som kræver System 1, og der andre ting, hvor man gør bedst i at tænke sig om. Bruger man det forkerte system, kan man komme galt af sted. Der er også forskel mellem personer. Nogen, specielt de trænede personer, anvender System 2, hvor andre bruger System 1. 62 Opgave 21. Diskuter Sugdens teori of menneskelig adfærd og hans kritik af libertarian paternalism og nudging. Den forventede nytteteori udgør det nytteteoretiske grundlag i hovedparten af de økonomiske analyser af rationelle beslutningstagen under risiko, det vil sige i beslutninger, hvor der er knyttet en sandsynlighed til de mulige udfald. Ifølge den forventede nytteteori vil en beslutning under usikkerhed være rationelle, såfremt beslutningstagerens nyttefunktion altså at præference relationen opfylder aksiomerne • Præferencerne er komplette (altså over alle mulige valg) • Præferencerne er transitive (valgene er konsistente) • Kontinuitet (små ændringer påvirker ikke ens valg) Den forventede nytteteori forsøger således både at beskrive, hvordan individer faktisk handler, men også hvordan de bør handle, for at agere rationelt. Empirisk har det dog vist sig, at der ikke handles i overensstemmelse med antagelserne i den forventede nytte teori. Prospektteorien og regretteorien er to teorier, der forsøger at forklare, hvorfor empirien ikke understøtter den forventede nytteteori Regretteori • Regretteori blev introduceret af Bell (1982) og uafhængigt af Loomes og Sugden (1982) • Regretteori generaliserer den forventede nytte ved, at nytten, der opnås ved et valg, også påvirkes af det, man mister, i forhold til den situation, hvor man har foretaget et andet valg Et alternativt valg, der viser sig at være mere protabel (regret, beklagelse), eller som viser sig at være ringere (rejoice, fryd), end det man har valgt • Man maksimerer ikke altid bare den forventede nytte - Man bør måske overveje hvordan resultaterne og missede muligheder påvirker din nytte • Eksempel med 100 bolde: Spil A: Kugle 1-10 = 5mill, kugle 11-99 = 1 mill, kugle 100 = 0 Spil B: Alle kugler = 1 mill • De nder at man Sugden nder at man oftest vælger spil B (hvilket kræver at grænseværdien af de ekstra 4m er meget lille. Hvis man spiller spil B og trækker kugle 100 tænker man YES MAN (rejoice, fryd), men hvis man trækker kugle 1-10 bliver man lidt øv (regret), da man så kunne have fået en større gevinst ved at spille spil A. Ens nytte påvirkes altså ikke kun af hvad man selv får, men også af hvad man kunne have fået under alternativet Dette bør man implementere i modeller og tage højde for det i sin beslutningstagen • Regretteori kan vise at valg ikke altid opfylder transitivetsbetingelsen, da folks nytte kan påvirkes af regret/rejoice 63 • Loomes og Sugden (1982) viser, at man kan udlede Q[·], ligesom man udleder vNM indekset U (·) i forventet nytteteori ved at sætte forsøgspersoner i en spilsituation og observere deres valg. • I regretteori indføres den såkaldte regret-rejoice function, Q[U (·)], som inkorporerer alle mulige handlinger og hvorvidt de forøger ens nytte, fordi man fryder sig over, man ikke valgte handlingen (rejoice) eller reducerer ens nytte, fordi man beklager sig over, man ikke valgte handlingen (regret). Koblingen mellem klassisk nytteteori og regretteori er, at hvis regret-rejoice function, Q[U (·)] er lineær, så vil den repræsentere den forventede nytteteori, hvorimod hvis funktionen ikke er lineær, så ændres agentens adfærd. • Diskussion: Regretteori er ligesom den forventede nytteteori, en teori der forsøger at beskriver agenters valg ud fra forskellige valgmuligheder. I denne teori anvendes der således en regret, da man medtager alternative valg og deres gevinst. Man kan således ærge sig (regret) eller glæde sig (rejoice) hvis det pågældende udfald falder til ens fordel eller ej. Denne antagelse er helt sikkert mere virkelighedsnær, end den forventede nytteteori og giver muligvis et mere nuanceret billede på folks interne beslutninger og at man muligvis ikke opfylder præferencerelationen. Det vises dog også at eksperimenter der forsøger at forklare agenters valg, kan påvirke udfaldet på den måde hvordan det er opstillet på. Enig i regret, vi føler det meget. Hvordan skal det modelleres? En faktisk funktion for den regretfunktion En form for kritik af den forventede nytteteori; man kan godt følge idéen med teorien. Forskelle mellem teorierne ∗ Prospektteori og regretteori er matematiske generaliseringer af forventet nytteteori. Førstnævnte er en fuldstændig generalisering, som etablerer et nyt begrebsapparat, mens sidstnævnte blot foretager en analytisk modikation på den eksisterende teori. Med rette kan det mere præcist postuleres, at prospektteori ved et tilfælde har forventet nytteteori som et specialtilfælde (ligesom Newtons tyngdekraftsformel ved et tilfælde er indeholdt i Einsteins generelle relativitetsteori). Hvorimod regretteori bygger direkte på fundamentet. ∗ Satiscing og heuristik er ikke generaliseringer af eksisterende rationalitetsteori. Heuristik kan opfattes som en videreudvikling af satiscing og Gigerenzer betragter også sig selv som en arvtager til Simon. Fælles for de to, og modsat regretteori, er udgangspunktet, at det fundament der tilbydes af de eksisterende rationalitets- modeller er rådent og ikke værd at bygge på. ∗ Egen kommentar: Rationalitetsmodellernes raison d'être hviler på as if argumenter, hvis empiriske støtte er meget svag. Mængden af arbejde indenfor adfærdsøkonomi er derfor betryggende, om end meget af det stadig tager udgangspunkt i traditionel optimering. Dog er der ipso facto intet i vejen hermed, men det store spørgsmål er, om der i brønden af videnskabelig sandhed gemmer sig en optimerende beslutningsmodel med bibetingelser om kognitiv kapacitet og begrænset information, som har de traditionelle rationalitetsmodeller som specialtilfælde når bibetingelserne fjernes. Adfærd- søkonomernes grundproblem er dermed en omvendt Newton-Einstein: Hvad sker der, når tingene ikke foregår med lysets hast. Hvis den agenda ikke lykkes ender mikroøkonomien formentlig som operationaliseret psykologi. Hvilket på sin vis er tragisk. For dét burde have været udgangspunktet snarere end destinationen. 64 Diskussion af libertarian Paternalism • Hvem skal vurdere hvad der er bedst for en? Er det choice arkitekten? I så fald er vi jo tilbage til det argument, der i historiens løb er blevet brugt til at argumentere for enevælde, diktatur osv., nemlig, at der er nogen, den benevolente diktator, som ved bedst, hvad der er godt for befolkningen, og derfor skal have lov til at bestemme. Her står Thaler og Sunstein (2008) af og skriver p.5 "a policy is paternalistic if it tries to inuence choices in a way that will make choosers better of, as judged by themselves". ∗ Er de altid i stand til det? Sugden's kritik siger ∗ For det første, hvordan afgør man om agenterne selv føler, at de er blevet bedre stillet ved at blive nudged. ∗ Og for det andet, at Thaler og Sunstein implicit antager, at der indeni en HUMAN er en ECON, der er som den neoklassiske økonomi antager, er en person, der maksimerer sin forventede nytte, og har alle mulige egenskaber som fuld opmærksomhed på maksimeringsproblemet, fuld information, opfører sig konsistent, har tilstrækkelige kognitive evner osv. 65 Opgave 22. Diskuter Andrew Lo's teori om adaptive markeder. • Andrew Lo antager at agenter hverken er fuldt rationelle eller psykologisk ustabile • Men de tager beslutninger ved at anvende en trial and error proces. Hvis en investeringsstrategi mislykkedes prøver de en anden, og hvis den holder anvender de den indtil det evt. går galt. Da omgivelserne ændres bestandigt, vil enhver strategi på et tidspunkt mislykkedes, og så må man lære af det. Men læring er omkostningsfuld. • Lo mener at markederne ikke er eektive i EMH forstand, men agenterne er konkurrencemindede • Med andre ord afviser Andrew Lo, at de nansielle markeder afspejler rationelle, komplette forventninger fra dens agenter. I hans bog Adaptive Markets viser han i stedet, at markedseciens ikke er forkert - den er bare ikke komplet. I stabile miljøer kan de traditionelle, rationelle investeringsstrategier være optimale. Men i adaptive markeder, er virkeligheden en anden. Mennesker laver fejl, de lærer af de fejl, og de adapterer og udvikler sig og i sidste end er det den måde hvorpå mennesker adapterer og måden vi interagerer med hinanden som bestemmer de nansielle markeders dynamikker. > Trial and error process • A. Lo's eksempel med dyr: Hypotetisk dyr kaldet en trible. Triblen lever i et område bestående af en dal og en højslette. Triblen får 3 unger og dør. Hvis det regner, opstår der en odbølge, der dræber alle tribler, som har bosat sig i dalen, og er der solskin, dræbes alle tribler bosat på højsletten af den ulidelige varme. Hvis således alle tribler bosætter sig på højsletten, vil arten vokse indtil den første solskinsdag, hvor alle bliver udslettet. Hvis alle tribler bosætter sig i dalen, vil arten vokse indtil den første regnvejrsdag, hvor alle bliver udslettet. De klimamæssige forhold er således, at solen skinner i 75 % af tiden, mens det regner i 25 % af tiden. Systematisk risiko ∗ I ovenstående eksempel er risikoen systematisk, dsv. alle er udsat for den samme risiko. Når det regner, bliver alle tripler udsat for regnvejr, og opholder man sig i dalen, bliver man udslettet. Når solen skinner, bliver alle udsat for solskin, og er man på højsletten, dør man. Derfor er det optimalt at probability · matche. Dvs. at matche sandsynlighedsforholdet mellem solskin og regn. 75% bor i dalen og 25% i højsletten Ideosynkratisk risiko ∗ Lad os nu ændre denne forudsætning og se på en situation, hvor hver enkelt triple lever i sit eget mikroklima, hvor der er 25% sandsynlighed for regnvejr og 75% sandsynlighed for solskin. Her er der således en individualiseret type af risiko. Dem, der lever i dalen og bliver udsat for regnvejr i sit mikrokosmos, dør, og det er der gennemsnitligt 25% af dem, der lever i dalen, der gør, mens de resterende 75% tripler i dalen bliver udsat for solskin og overlever. Denne type af individualiseret risiko kaldes ideosynkratisk risiko. Og bemærk forskellen. Selv om alle i gruppen bosætter sig i dalen, er der således kun 25%, der gennemsnitligt bliver udslettet. ∗ Her er det således ikke hensigtsmæssigt at probability matche istedet er det optimalt at alle bosætter sig hvor der er højst sandsynlighed for at overleve, nemlig i dalen. Man kan derfor konkludere, at det for gruppen er helt afgørende for resultatet af triplernes beslutninger, hvilken form for risiko der eksisterer, og hvilken heuristik der anvendes. 66 Intelligens ∗ Forestiller vi os nu, at disse tripler kan lære ud fra deres erfaringer, vil vi se, at triplerne bevæger sig hen mod adfærden i Gruppe ( f = 0.75), hvis vi har at gøre med systematisk risiko (75% i dalen, da gruppen stiger mest der), og mod Gruppe (f = 1.0) (altså 100% i dalen), hvis vi har at gøre med ideosynkratisk risiko. · Men da læring er kostbar, kan det være, at den optimale løsning er forskellig fra den, man ville nde uden omkostninger. · Individ i fra generation t har en form for intelligens. Der opstår dermed også en form for idiosynkratisk risiko i dette tilfælde, da individer med forskellig intelligens vælger forskelligt. · · Individer med maksimal intelligens (dem der er bedst til at foretage det rigtige valg) dominerer. Opnåelse af "intelligens" koster. Man kan således anføre, at rationaliteten (intelligensen) be- grænses af de omkostninger, der er forbundet med at opnå den nødvendige viden. Vi har således her et eksempel på bounded rationality. > Bounded rationality indebærer at intelligensen (rationaliteten) er begrænset af de omkostninger, som er forbundet med at opnå den nødvendige viden. · Læring er kostbar - hvorfor løsning fundet uden omkostninger kan være forskellig fra den fundet med. > Da læring er kostbart, vil der være agenter på markedet der ikke har fuld information men agerer rationelt men på baggrund af forskellig information > Derfor handler de forskelligt • Gennem tribel eksemplet ses at adaptive markeder (→intelligens →lærdom →adaptiv) gør en væsentlig forskel, derfor inkluderes tankegangen fra adaptive markeder til det traditionelle investeringsparadigme. • EMH siger at alle er 100% rationelle givet information - Det slækker man på her. Man kan stadig godt have rationelle agenter, med forskellige information - men de er stadig rationelle hver for sig. F.eks. vil en privatperson, en lille virksomhed og en stor virksomhed have forskellig adfærd, men de vil stadig kunne agerere rationelt. Det traditionelle investeringsparadigme og adaptive markeder. • Ig. Lo (2017) har den eciente markedshypotese medført, at det traditionelle investeringsparadigme består af 5 principper. Disse principper må imidlertid revideres under "adaptive markets"(AM). De 5 principper er med AM kommentaren i kursiv 1. "The risk/reward trade-o". Der er en positiv sammenhæng mellem den risiko man påtager sig og den prot man opnår. (a) Dette er også gældende under AM, men investorpopulationen kan undertiden blive domineret af individer, der står over for ekstrem risiko, og som kan handle i samklang og irrationelt, i hvilket tilfælde risiko straes. Ikke alle står overfor alle risiko/prot forhold 2. "Alpha, Beta og CAPM, se Bodie et.all. (2017)". Det forventede udbytte af en investering er lineært forbundet til risiko og styret af CAPM modellen. (a) Denne model hviler på nogle økonomiske og statistiske forudsætninger, der kan være ringe approksi- mationer til situationen på visse markeder. At kende den eksisterende situation og de dynamiske forhold på dette marked kan være mere optimalt end at anvende en faktormodel som CAPM. > Bedre at kende markedet end CAPM 67 3. "Portfolio optimization and passive investment". Ved anvendelse af de statistiske estimater og CAPM fra Princip 2, er man i stand til at konstruere diversicerede porteføljer i lange papirer, der tilbyder investorerne risikotilpassede protter til lave omkostninger. (a) Disse portfolio optimerende redskaber er kun anvendelige under forudsætning af stationaritet og ra- tionalitet. Og forholdene for passive investeringer ændres som følge af teknologiske ændringer. Risk management bør have højere prioritet selv for passive indekserede fonde. > deret - prioritér det højere både for lange og korte fonde Risk er undervur- 4. "Asset allocation". At vælge, hvor meget man skal investere i brede klasser, er vigtigere end at vælge det enkelte papir, for at allokeringsbeslutningen er tilstrækkelig til at styre risikoen ved en investors opsparing. (a) Grænserne mellem aktivklasser bliver mindre og mindre skarp, efterhånden som makrofaktorer og nye nansielle institutioner skaber forbindelser og smitte mellem tidligere urelaterede aktiver. At styre risiko gennem allokering mellem aktivklasser bliver mindre og mindre eektiv. 5. "Stocks for the long run". Investorer bør overvejende holde aktier som langsigtede investeringer. (a) Aktier giver attraktive udbytter i det lange løb, men få investorer har råd til at vente så længe. Over realistiske investeringshorisonter er tabsmulighederne betragtelige. Investorerne bør derfor være mere proaktive. > Husk Keynes We are all dead in the long run Diskussion Lo's teori om adaptive markeder er baseret på den eektive markedshypotese (der antager at markederne er eciente) og benytter sig af principperne om evolution til nansielle interaktioner. Han argumenterer at de modstridende eksempler på økonomisk rationalitet - såsom loss aversion, overcondence mm. faktisk er konsistent med en evolutinær model af individer der tilpasser sig det ændrende miljø ved brug af simple heuristics. Lo udbygger således den eektive markedshypotese ved brug af behavioural economics og forsøger således at muliggøre beskrivelsen af grådighed i de nansielle interaktioner. Er det således rimelig antagelser at de evolutionære principper, er forklaringen på hvorfor nogle ikke rationelle beslutninger træder i kraft? Det kan helt sikket være en mulig grund, i det vi som mennesker lærer af tidligere generationer (hvad end det er familie, virksomheder mv.) og dermed kan have forskellige personlige håndteringer. Som han nævner, fastholder mange agenter deres strategi indtil den mislykkedes, så hele beslutningsproccessen, som der sker ved en trial and error process kan retfærdiggøres. Det tilføjer ligeledes en forklaring af beslutningstagningen under risiko/ usikkerhed, som kan være med til at forklare rationalet bag en persons valg. • Kan godt lide ideen om tribles - mennesker lærer af deres fejl og adapterer sig til nye forhold • Kan godt lide ideen om at investorer ikke kan investere på tilstrækkelig lang sigt, så de bør være mere proaktive i forhold til hvad man investerer i, men også i hvilken risiko man vil påtage sig, da man ikke har tid til at være ultra langsigtet. 68 Opgave 23. Diskuter den eektive markedshypotese. Beskrivelse af den eektive markedshypotese • Den eciente markedshypotese (EMH) udgør en central del af enhver fremstilling af de nansielle markeder, og det har den gjort igennem mange år • Den eciente markedshypotese er en investeringsteori, der siger, at den relevante information altid vil være inkluderet i kursen på markedet, hvorved det at slå markedet er `a fool's errand' - eller det troede man i al fald indtil nanskrisen. Teorien yder støtte til ideen om, at markedet er eektivt og at markedet med stor sikkerhed vil prisfastsætte nansielle aktiver korrekt og at eventuelle afvigelser kun vil være af kort varighed. • Der ndes i BKM tre former for EMH: 1. "The weak-form hypothesis asserts that the stock prices already reect all information that can be derived by examining market trading data such as history of past prices, trading volume, or short interest" (a) Prisen reekterer al info der kan udledes fra historisk data på markedet. 2. "The semistrong-form hypothesis states that all publicly available information regarding the prospects of rms must be reected in the stock prices". (a) Prisen reekterer al info der kan udledes fra historisk data på markedet og som er oentlig tilgængelig. 3. "The strong-form hypothesis version of the ecient market hypothesis states that stock prices reect all information relevant to the rm, even including information available only to company insiders. Prisen reekterer al info der kan udledes fra historisk data på markedet, som er oentlig tilgængelig og det der kun er tilgængelig for insiders. I 2013 blev Fama tildelt Nobelprisen i Økonomi for hans bidrag til EMH teorien. Han understreger dog, at test på den eciente markedshypotese altid er et fælles test på EMH hypotesen og en model for markedsligevægt. Det er således en fælles hypotese om EMH og markedets virkemåde der testes, og aldrig blot EMH. • Tiltroen til EMH i den nansielle sektor var indtil nanskrisen meget stor. Markeder ville med stor sikkerhed prisfastsætte nansielle aktiver nogenlunde korrekt, og afvigelser kunne kun være af kort varighed. At prøve at slå markedet var "a fool's errand". Kritik af EHM • Men allerede inden (nanskrisen) var der økonomiske forskere, der satte spørgsmålstegn ved EMH og de konsekvenser denne teori har: Grossman og Stigligtz (1980) gjorde således opmærksom på, at hvis kurserne indeholder alle informationer er der ingen grund til at indsamle informationer. Hvorfor ingen vil gøre det. Hvis det skal kunne betale sig for informerede investorer, at handle må der være noget at tjene. Og det betyder, at der må være information, der ikke er i markedet. ∗ MIG: I mine øjne er der forskel på at indsamle information og analysere information. Så selvom alle som udgangspunkt har adgang til samme information har de forskellige analysemetoder, de har forskellige historiske afkast på porteføljer og generelt bare andre fornemmelser, hvorfor man altså godt kan se nogen der måske kan slå markedet. 69 I De Long, Schleifer, Summers og Waldmann (1990) argumenters der for, at de såkaldte noise traders dvs. mange almindelige investorer, der ikke helt forstår markedet, kan opføre sig så irrationelt, at de informerede og rationelle investorer ikke kan nansiere, at spekulere imod indenfor en passende tidshorisont. En omfattende kritik af EMH er også kommet fra adfærdsøkonomer, som Shiller og Thaler, der bygger på at agenterne ikke er så rationelle endda, jvf. afsnit 3 nedenunder om begrænset rationalitet. men som også anført af såvel Scholes som Fama har adfærdsøkonomerne, selvom de kan have ret i at agenterne ikke er så rationelle som EMH tilsiger, ikke formået at fremkomme med en testbar teori. Alle er dog enige om, at der er behov for en bedre forståelse for systemisk risiko, dvs. en risiko for at et helt økonomisk system bryder sammen. En af dem der har forsøgt at bygge bro er Andrew Lo (disposition 22) > Inkorperere asymetrisk information og begrænset rationalitet (man lærer sig frem til hvad det bedste var) Selvom der således kan stilles spørgsmålstegn ved de nansielle markeders eektivitet, har man i høj grad set disse som noget nær idealet for, hvordan et marked skal se ud. Der er typisk et stort antal agenter på begge sider af markedet, og handlerne foregår på en egentlig markedsplads. ∗ Denne opfattelse er utvivlsomt også hovedårsagen til, at der i de seneste 30 år er sket en omfattende liberalisering af kapitalbevægelserne indenfor lande og mellem lande, og samtidig er der i 90'erne foretaget ændringer i reguleringssystemet, og i reglerne for regnskabsopgørelser, som skulle gøre det lettere at opnå et internationalt kapitalmarked for hele verden. (Sket bl.a. pga EMH) ∗ Mange af disse ændringer er foretaget for at forbedre de internationale kapitalmarkeders eektivitet og sikre, at kapitalen blev ført hen, hvor den i størst mulig udstrækning ville forbedre produktiviteten og forøge væksten. At de nansielle markeder kan gå i selvsving uden, at der er nogen grund til det ud fra fundamentals, er der ere eksempler på. ∗ Stiglitz bygger sin argumentation på det forhold, at mange svingninger, der indtræer på de nansielle markeder, ikke kan forklares af ændringer i de såkaldte "fundamentals" i den reale økonomi, men som Keynes udtrykte det mere er skabt af opfattelsen af dem, man har omkring sig, således at følelser af optimisme og pessimisme kan være smitsomme. · Man kunne forsøge at inkorporere noget begrænset rationalitet i modellen om de nansielle markeder (Andrew Lo, regretteori måske)? Liberaliseringen og globalisering af kapitalmarkedet synes i de seneste 30 år at have medført, at volatiliteten i de nansielle markeder, herunder i valutakurserne, er blevet stærkt forøget. ∗ Men en sådan voksende volatilitet, der samtidig er global, har utvivlsomt også haft negative eekter på virksomheder, forbrugere og arbejdstagere, der bestandigt må tilpasse sig til de svingninger, der foregår på de nansielle markeder, uanset årsag, og uanset, om årsagen var ændringer i den reale økonomi. Fra det første og det andet velfærdsteorem ved vi, at fuldkomne konkurrencemarkeder er Paretoeciente, men vi ved også, at hvis der er asymmetrisk information, dvs. hvis relevante agenter i markedet har forskellig information, eller andre former for ikke perfekt information, mistes Paretooptimaliteten. Og selvom kontrakter er protable, måske endog meget protable for den enkelte, behøver de ikke at være til gavn for samfundet. 70 Alle disse argumenter leder i retningen af at EMH altså ikke kan være korrekt i den virkelige verden • Bemærk, at dette ikke indebærer, at en investor er i stand til at slå markedet i det lange løb, hvilket ofte er det, man har testet. • Under alle omstændigheder gælder det, at hvis man ikke kan opnå en Paretooptimal situation, siger second best teoremet, at man heller ikke nødvendigvis bør stræbe efter at komme så tæt på opfyldelse af forudsætningerne for den Paretoeciente tilstand. • Efter Stiglitz opfattelse er der således gode grunde til at indføre restriktioner på kapitalbevægelser og regulere den nansielle sektor, så man får fjernet i hvert tilfælde nogle af eksternaliteterne af de volatile korttids kapitalbevægelser for den reale sektor. Et af argumenterne mod at indføre restriktioner på kapitalbevægelserne er, at man herved ødelægger prisopdagelsesmekanismen og reducerer markedets likviditet. Et andet argument mod begrænsninger af aktiviteten på de nansielle markeder er, at det vil formindske likviditeten, og derved begrænse de reale investeringer og forbrug. Men her er det vigtigt at gøre sig klart, hvad likviditet er. • Stiglitz (2014) p.14 skriver på den baggrund, at Selvom der ikke er nemme svar, så er det plausibelt at træde på bremsen: Mindre aktive markeder kan ikke kun være sikre markeder, de kan også bedre udføre den samfundsmæssige funktion, som de er tiltænkt at udføre. Diskussion • Ig. EMH burde det derfor være umuligt at outperform det samlede marked gennem valg af aktiver eller markedstiming og den eneste måde en investor kan opnå højere afkast, er ved at købe mere risikofyldte aktiver Dog er der eksempeler såsom Warren buet der konsistent har slået markedet over længere perioder, hvilket ikke burde være muligt i EMH. Ligeledes ved nanskrisen sås det at aktiver faldt meget og at de derfor godt kan uktuere væk fra deres forventede værdi. Dog er det særtilfælder hvori investorer slår markedet hvilket betyder at EMH godt kan have noget i sig alligevel. 71 Opgave 24. Diskuter "revealed preference" teorien. Revealed preferences • Modsvar til præference relationer: `Revealed Preference' teorien, formuleret af Samuelson (1938). Formål: at undgå, at man skal anvende `noget så luftigt' som præferencer, dvs. opstilling af en nyttefunktion med tilhørende indierenskurver. Han skriver at sådanne præference relationer er noget, der ndes i hovedet på folk og ikke noget, der kan/skal observeres. Men det, man kan observere, er de valg, der foretages. Man åbenbarer sine præferencer. • Så altså i revealed preference teorien kigger man på de valg der kan observeres. Et eksempel kan være, at hvis man alt andet lige vælger at købe en Bourgogne vin frem for en Bordeaux vin, er det jo fordi man foretrækker en Bourgogne vin frem for en Bordeau vin. (Man har altså åbenbaret sine præferencer). Nytteteori: (Modsat af revealed preferences) • Dette kan illustreres på følgende vis: Når Bourgogne vin stiger i pris og prisen på Bourdeaux vin er uændret, vil man forbruge mindre Bourgogne vin og mere Bordeaux vin, dvs. man substituerer Bourgogne vin med Bordeaux vin. Bevægelsen fra A til C i Figur 1. Samtidig er man dog blevet fattigere, købekraften af ens indkomst er faldet, hvilket normalt vil få forbruget af såvel Bourgogne vin som Bordeaux vin til at falde. Dette benævnes indkomsteekten og ses som bevægelsen fra C til B i gur 1. Hvis man i B kompenserer for faldet i indkomsten, så man bender sig på den samme indierenskurve som før prisændringen, får man den rene substitutionseekt, dvs. bevægelsen fra A og C. Vi har således vist, at substitutionsvirkningen ikke er positiv, se Figur 2.1. Når prisen stiger på Bourgogne vin, bruger vi mindre af denne vin, hvis vi kompenseres for realindkomstfaldet, således at vi opretholder det samme nytteniveau Revealed preference theory: • Kan det samme resultat opnås uden at postulere eksistensen af en nyttefumktion og dermed et indierenskort, og således udelukkende basere resultatet på de præferencer, agenterne har åbenbaret ved deres valg af vin. • Revealed preference teorien baseres på to aksiomer: Axion 3 Weak revealed preference: Hvis A er revealed preferred til B, må B aldrig blive revealed preered til A. Axiom 4 Strong revealed preference: Hvis A er revealed preferred til B, B revealed preferred til preference C, ......., S revealed preferred til T, må T aldrig blive revealed preferred til A. Dette skal gælde for alle mulige ordnede valg. Hvis disse to aksiomer er opfyldt, kan det vises at hvis nytten af to valg C (Bourgogne vin) og B (Bordeaux vin) er den samme, vil en højere pris på C end B være kombineret med en lavere efterspurgt mængde af Bourgogne vin end af Bordeaux vin, dvs. substitutionseekten er ikke-positiv. Dette resultat fås således på baggrund af aksiomerne og uden, at vi har postuleret eksistensen af en nyttefunktion, endsige dens egenskaber. 72 Figure 6: Fortolkning og kritik • Revealed preference teorien har en del økonomer opfattet som betydende, at man kunne undvære noget så luftigt som præferencer og nøjes med at observere folks valg, f.eks. af forbrugsvarer. • Mas-Colell (1995) p. 5 skriver således: Den valg-baserede tilgang har ere attraktive features. Den efterlader i princippet mere rum til mere generelle former for individual adfærd, end det er muligt med den præferencebaserede tilgang. Den laver også antagelser om objekter der er observerbare, i stedet for ting man ikke kan se, altså preferencer. Måske vigtigst, gør den det klart at teorien om individuel beslutningstagning ikke behøves at handle om hvad der foregår inde i os, men i stedet kan baseres på vores adfærd (det vi viser). • Dette synspunkt er blevet imødegået meget overbevisende af bl.a. Hausman (2012), men allerede Sen (1973) indeholdte et stærk angreb på den opfattelse af betydningen af revealed preference teorien. • Sen (1973) p. 243 skriver Jeg vil derfor hævde, at påstanden om at forklare adfærd uden henvisning til andet end adfærd er ren retorik, og hvis teorien om revealed preferences giver mening, gør den det ikke, fordi der ikke bruges psykologiske antagelser, men fordi den psykologiske anvendte antagelser er fornuftige valgt. • Sen (1973) og Hausman (2012) kommer dog begge med et stærkt angreb på den opfattelse af betydningen af revealed preferences. Hausman (2012) har især to pointer. 1. Hvis præferencer er deneret ved valg, kan man ikke have præferencer for noget, man ikke kan vælge. Man kan således ikke have præferencer for en alderdom uden sygdom, for det kan man ikke (selv) vælge. Det eneste økonomi kan sige noget om i så fald er, at man blandt de mulige valg vælger den, man foretrækker, hvilket blot siger, at man handler konsistent. 73 2. Det andet punkt kan illustreres ved Shakespeares historie om Romeo og Julie. Svend skriver således: Her nder Romeo en øjensynlig død Julie, og han begår derefter selvmord, fordi han ikke ønsker at leve uden Julie. Men Julie er ikke død og han kunne have løbet bort med hende, og giftet sig med hende > Romeos valg mellem at begå selvmord eller at løbe bort med Julie afhænger af hans overbevisning (belief ) om, at hun er død. Havde han haft en anden overbevisning, f.eks. at hun blot var bevidstløs, var valget blevet et andet. (Kan også beskrives ved vandrensningsanlægget i Kenya). • Således kan præferencer ikke blive deneret ved hjælp af valg, fordi disse afhænger af agents `belief '. Man kan ikke identicere hverken præferencer eller overbevisning ud fra valg, men valg er en konsekvens af præferencer og overbevisning. 74 Opgave 25. Giv en beskrivelse af randomiserede kontrollerede forsøg (RCT) og deres anvendelse i økonomi, herunder sammenlign RCT med økonometriske metoder. Hvad er RCT • Helt basalt er RCT en type af vidensakbelige forsøg, hvor man sammenligner middelværdier mellem en behandlingsgruppe og en kontrolgruppe. • I naturvidenskab, især indenfor medicin, er RCT'er den traditionelle måde at undersøge eekten af en behandling. • En RCT består af 1) Randomisering #1: En tilfældig stikprøve fra en population. 2) Randomisering #2: En tilfældig opspiltning af stikprøven i to grupper. 3) Gruppe B (behandlingsgruppen) udsættes for en behandling. GruppeBÌ„ (kontrolgruppen) udsættes ikke for behandlingen, men i stedet f.eks får en placebobehandling; heraf at forsøget er kontrolleret. 4) Efter behandlingen evalueres den kvantitative forskel på den relevante egenskab i de to grupper statistisk. (Altså man sammenligner middelværdien) • Hvis stikprøven er tilstrækkelig stor, opsplitningen mellem de to grupper tilfældig, og den samlede stikprøve tilfældigt udtaget, vil en sådan metode kunne anvendes i en videnskabelig undersøgelse, idet stikprøven kan antages at være repræsentativ for populationen, og eekten af andre faktorer kan anses for at være neutraliseret. • Den kvantitative forskel betragtes da som et godt estimat på eekten af at behandle hele populationen, idet det kan vises at dierencen mellem middelværdierne af eekten i behandlingsgruppen og i kontrolgruppen er et unbiased estimat af eekten af behandlingen. • Randomisering #2 foretages for at balancere forskellene på andre egenskaber mellem de to grupper. Hvis randomiseringens kvalitet er tilstrækkeligt høj er disse forskelle balancerede i forventning og en relevant estimator vil være unbiased. • Ved at sikre at den eektive stikprøvestørrelse er tilstrækkeligt stor kan variansen på estimatoren reduceres tilfredsstillende, men der vil altid være stikprøvefejl i det enkelte RCT fordi forskelle i egenskaber (resultatforklarende faktorer) i de to grupper confounder estimatet. (fx hvis den ene landmand har bedre jord) • Det gælder dermed at: Hvis betingelserne 1-3 ikke er opfyldt er estimatet uanvendeligt. Selv hvis betingelse 2 er opfyldt, men randomiseringens kvalitet er utilstrækkelig, kan estimatoren være biased fordi øvrige egenskaber ikke er balancerede mellem grupperne. Selv hvis betingelserne er opfyldt kan et RCT lede til dårlige policyanbefalinger fordi gennemsnittet er følsomt overfor outliers. (Hylleberg, 2018) • Eksempel med økonomi; ændring i arbejdsudbuddet som følge af en lønstigning 75 Betragt en gruppe (population) af arbejdere ∗ Giv en RANDOM delgruppe af disse en lønstigning og en anden bliver lønnen som den er · · Se på hvordan disse gruppers arbejdsudbud ændrer sig. Vigtigt at kontrollere for mange variable; køn, alder, antal børn, hustru/mand, uddannelse Problem med dette: Svært at give nogen en lønforhøjelse men ikke andre - det skal jo gerne være i samme sektor og folk snakker sammen • Ydermere består en række praktiske problemer/udfordringer ved udførelsen af et RCT: Self-selection i stikprøven, så den ikke er tilfældig. (At man altså selv vælger om man vil være med i stikprøven, gør at den ikke er tilfældig) Self-selection mellem grupperne, så opdelingen ikke er randomiseret. (Man fx ønsker at være med i behandlingsgruppen) Store omkostninger ved tilfældig stikprøveudtagning. Manglende blinding af stikprøvemedlemmer og forskerne. (Så altså stikprøvemedlemmerne og forskere ved hvem der får behandling og hvem der får placebo) RCT forklarer ikke den kausale mekanisme bag et estimat, så det kræver yderligere teoretisk argumentation at overføre et resultat til policy. Deaton & Cartwrights væsentligste kritikpunkter • a) Randomiseret opsplitning (RO) i grupper er ikke tilstrækkeligt til at korrigere for alle forskelle på tværs af grupperne. • b) RO er ikke tilstrækkeligt for et præcist estimat af average treatment eect (ATE). Estimatet har som udgangspunkt kun intern validitet. • c) RO er ikke tilstrækkeligt for at kunne se bort fra confounders. (altså ting der forvirrer i forhold til kausaliteten) Det kunne være at man fandt en sammenhæng mellem issalg og druknedød, men grundet til ere drukner når der sælges ere is, skyldes at ere bader når de køber is og dermed drukner ere i gennemsnit. Heckmans væsentligste kritikpunkter • Fra Svend: Evalueringsproblemet (nogen observeres i en tilstand, hvor de har fået behandling, men ikke i en situation, hvor de ikke har fået en behandling, og omvendt) og selektionsproblemet (hvad nu hvis nogen i den gruppe, der har fået tilbudt behandlingen har valgt ikke at modtage den): ∗ Evalueringsproblemet er i dette RCT eksperiment forsøgt løst ved hjælp af randomiseringen, hvor man under de ideale forudsætninger regner med at behandlingsgruppen og kontrolgruppen er identiske på alle relevante parametre. ∗ Selektionsproblemet ødelægger randomiseringen (selektionsproblemet) og i realiteten er en sammenligning af middelværdier i de to stikprøver kun muligt ved at forudsætte, at dem der har valgt, ikke at lade sig vaccinere, er kloner af dem der har valgt at modtage vaccinen i alle relevante forhold (hvilket virker urimeligt). 76 • Praktiske begrænsninger: Placebo er svært at give i økonomi ∗ ∗ Forsøgspersoner accepterer ikke deres placering (SELEKTIONSPROBLEM) Man kan ikke trække tilfældigt fra populationen. · Dette kan skyldes etiske forhold, som f.eks. at der kan komme uønskede bivirkninger af behandlingen, men man kan også være nødt til at spørge og få tilsagn om deltagelse, hvorved en del af populationen vælger sig bort. ∗ Praktiske og omkostningsmæssige årsager medfører ofte, at man vælger en stikprøveudtagning, som f.eks. at gå alfabetisk frem, hvorved man i realiteten fjerner randomiseringen, og dermed helt eller delvis ødelægger undersøgelsen. I forsøg i økonomi og andre samfundsvidenskaber er det meget svært at foretage såkaldte "blindede"forsøg, dvs. dels sikre, at forsøgspersonerne ikke ved, hvilken gruppe de tilhører, behandlingsgruppen eller kontrolgruppen, dels at dem, der udfører selve behandlingen ikke ved det. Disse krav om "blinding" ofte i ere lag stilles som regel i medicinsk forskning. Og selv om det ofte er svært også der, er det utvivlsomt lettere end i samfundsvidenskabelige forsøg Selvom RCTs kan forudsige, at noget virker eller ikke virker, kan forsøgene i al deres enkelthed ikke forklare hvorfor, hvilket medfører, at vi ikke nødvendigvis har tilstrækkelig med viden til at implementere en politik. Dette er da også et problem for andre metoder. Pas på med RCT'er: Man kan på baggrund af resultatet af et RCT anbefale en behandling der er katastrofal for mange og kun til fordel for få Behrens-Fisher problem: Statistikken ikke har en kendt fordeling, men en fordeling, der kun approksimativt er students t med et antal frihedsgrader (vanvittig ligning). Spørgsmålet om at balancere mellem usikkerhed OG præcision på den ene side og egenskaben unbiased på en anden > en metode til at skabe balance er stratikation. • Brug RCT til at pege i en retning: RCTs can play a role in building scientic knowledge and useful predictions but they can only do so as part of a cumulative program, combining with other methods, including conceptual and theoretical development, to discover not what works, but why things work. • Landmænd eksempel: (til at belyse en beskrivelse af RCT) Population: Alle landmænd i DK Gruppe A får en ny traktor, gruppe B gør ikke Ser på forskellen i eektiviteten af de to grupper ∗ For at vi kan bruge dette til at snakke om ATE (Average Treatment Eect) kræver det at A og B er tilstrækkeligt store ∗ Og det kræves at randomiseringen er af god kvalitet · Hvad er god kvalitet af randomisering?: At alle landmænd har lige stor sandsynlighed for at blive udtrukket ∗ For at kunne se på forskellen i de to grupper skal man kontrollere for alle andre faktorer; jordkvalitet, jordmængde, regn, gødning osv Ekstra: • Rubin-Neyman modellen indikerer at randomisering er en form for guldstandard hvilket Heckman og Deaton og Cartwright ikke mener. 77 RCT er brugbart, men kræver at man indser/anerkender svaghederne ∗ Kan udelukkende benyttes til svar af P1 (intern validitet). Kritiserer RCT's eksterne validitet: resultater gælder ikke uden for stikprøve RCT fungerer som Black Box, hvor man ikke kan identicere eekten af de enkelte dele ∗ RCT fokuserer på eekten af årsagen og dykker ikke ned i de underliggende årsager til eekten RCT udnytter ikke prior knowledge RCT kan kun fungere som byggesten til videre undersøgelser. ∗ Fordel og ulempe: · ∗ Den er ikke baseret på nogen forudindfattede holdninger/restriktioner. Svaghed ved RCT, at den udelukkende kigger på gennemsnitlige eekter · Modsat den økonometriske model, der kan identicere fordelinger over eekter 78 Opgave 26. Beskriv laboratorieeksperimenter i økonomi, og angiv evt. begrænsninger i deres anvendelighed. Beskrivelse • Området er vokset de senere år ikke mindst grundet neuroøkonomi og hjerneforskning. Inspireret af psykologien, hvor det er meget udbredt. Er blandt andet blevet anvendt af Kahneman & Tversky (1979) til at undersøge menneskets begrænsede rationalitet. Og Smith (1982) anvender nyudviklet eksperimentel teknik til at undersøge, hvordan markeder fungerer. I en vis udstrækning viser disse to eksempler, at eksperimenter i økonomi kan være både evaluerende, dvs. forkaster en antagelse, eller kreative, dvs. giver anledning til nye teorier, der så kan evalueres. • Beskrivelse af laboratorieeksperimenter Normalt i økonomi bruger vi data til at teste vores hypoteser. I laboratorieeksperimenter genererer vi data. Vi tager en ok mennesker ind og spørger dem om nogle ting, som vi så analyserer på. Fordel ved dette kan være at vi kan søge at få svar på præcist det vi søger svar på - hvis vi vil teste transitivitet kan vi bare give dem 3 spørgsmål: vil du have A over B? Vil du have B over C? Vil du have A over C? Dog er der også problemer med det Praktisk: Lukker en person inde i et rum/lokale, hvor man kan kontrollere omgivelserne, så man er klar over hvilke faktorer agenten/forsøgspersonen bliver udsat for. Herefter foretager man det ønskede eksperiment, og noterer sig resultaterne. Eksperimenterne kan foretages i laboratorier, hvor det i en vis grad er muligt, at holde de for undersøgelsen irrelevante faktorer konstante. Men man kan ikke undgå, at agenterne evt. påvirkes af den kunstige situation. Samtidig kan det være svært indenfor rammerne af de sædvanlige forskningsbudgetter, at gør eksperimenterne realistiske og tilstrækkelig seriøse for deltagerne. Typisk eksempel på et laboratorie eksperiment i økonomi: • Transitivitetsforudsætningens synes ikke at holde efter de eksperimenter (transitivitet: A > B, B > C så må A > C) mange tilfælde kan der imidlertid stilles spørgsmålstegn ved, om den givne fortolkning af eksperimenterne er korrekt, eller om der er andre årsager til, at transitivitetsforudsætningen ikke synes at holde. Man kan f.eks. forestille sig, at præferenceordningen ikke er stabil over tid, og at det er den manglende stabilitet, der indebærer, at præferenceordningen ikke synes at være transitiv. I de este situationer vil mangel på tidsmæssig stabilitet dog være et lige så stort problem som manglende transitivitet. • Begrænsninger ved eksperimenter 79 At det i et design af et eksperiment kan være vanskeligt eller umuligt, som hævdet af Duhem i 1906 og forstærket af Quine i 1951, se Bardsley et al. (2010) p. 95 . og Rees (2013) p. 185, at isolere eksperimentet til test af en hypotese, er ovenstående et godt eksempel på. Under alle omstændigheder lider eksperimenter, også eksperimenter foretaget i laboratorier, af, at man i bedste fald kun kan tage hensyn til faktorer, som man ved eller har mistanke om, kan påvirke forsøgsresultatet. • Der er af mange eksempler på, at ganske vist er eksperimenter i økonomi blevet langt mere almindelige, men der mangler stadig en del i at få metoderne tilpasset og fornet, så de faktisk kan anvendes og blive accepteret. Binmores (1999) krav om, at tre betingelser skal være opfyldt før man kan tage eksperimentel økonomi helt alvorlig, synes rimelig. De tre betingelser er: ∗ ∗ ∗ 1. Det problem, forsøgspersonerne stilles overfor, skal være rimelig simpelt. 2. Incitamenterne skal være passende. 3. Der skal være tilstrækkelig tid til at forsøgspersonerne kan prøve sig frem (trial and error). Mens betingelserne 1) og 3) i en vis grad hænger sammen og blot udtrykker, at man ikke kan anvende forsøgsopgaver, som de deltagende personer ikke kan forstå, og her hjælper det nok at prøve sig frem, er betingelse 2) mere kontroversiel og nok mere et udtryk for økonomers opfattelse end for psykologers opfattelse. Men dels kan der være forskel på incitamentstrukturen ved forsøg af forskellige forhold, og dels forekommer det selvfølgelig meget rimeligt at sikre sig, at forsøgspersonerne tager forsøget alvorligt. • Problemer med intern vs. ekstern validitet (dvs. generalisere resultaterne ud af den kontekst de er blevet foretaget i) Ovennævnte problemer har at gøre med den interne validitet. Nedenunder er nævnt problemstillinger vedr. ekstern validitet. Den eksterne validitet omhandler muligheden for at generalisere resultaterne fra et eksperiment til at gælde uden for "laboratoriet". ∗ F.eks. kan man forestille sig, at den uselviske optræden i Fehr og Schmidts forsøg nævnt ovenfor skyldes, at deltagerne føler sig overvåget i "laboratoriet"og derfor vælger at agere som "gode"mennesker. ∗ Denne undersøgelse viser med al ønskelig tydelighed, at det kan være forbundet med stor unøjagtighed at generalisere fra eksperimenter, hvor forsøgspersonerne er studenter og til befolkningen som helhed. Under alle omstændigheder er der et trade o mellem den interne validitet og den eksterne validitet. Desto mere man sikrer, at eksperimentets resultater ikke påvirkes af ikke relevante faktorer, set i relation til undersøgelsen, desto større er risikoen for, at eksperimentet sker i et kunstigt miljø, som ikke ligner det, der foregår uden for laboratoriet, hvorved man kan mindske den eksterne validitet • Begrænsninger i anvendelighed Levitt og List siger således følgende: Det mest fundamentale spørgsmål i eksperimentiel økonomi er om de resultater fra laboratoriet er sandsynlige og pålidelige uden for laboratoriet (ifm. om det er for kunstige forhold man har i eksperimentet). Den eksterne validitets sikkerhed er således i fare, da laboratoriet så systematisk er forskellig fra de mest naturlige hændelser i miljøet, at disse eksperimenter ikke kommer frem til resultater der kan generaliseres. 80 Specielt argumenterer de at laboratorie eksperimenter generelt udøver en speciel type af granskning, i en kontekts der placerer ekstrem vægt på processen hvor beslutninger og allokeringer er opnået og en bestemt selektions mekanisme for deltagere. I modsætning, til mange virkelige markeder der er speciceret ved forskellige typer af granskning og lidt fokus på processen og meget forskellige former for selv-selektion af deltagere. De anbefaler således 3 vigtige konklusioner: 1. En kombinering af laboratorie analyse med en model af beslutningstagning, ligesom den model de fremviser, udvider potentialet af laboratorie eksperimenters rolle. Vi kan således minimere typerne af de alm. biases, vha. at designe dem rigtigt. 2. Ved at adoptere eksperimentielle designs der anerkeder den potentielle svaghed af laboratoriet, kan brugbarheden af lab. studier blive forhøet. 3. Ved at anerkende de begrænsninger der eksisterer i laboratorie generet data og data fra naturlige omgivelser, vil en økonomisk vinkel der kombinerer begge være bedst. Samtidig kan det være svært indenfor rammerne af de sædvanlige forskningsbudgetter, at gør eksperimenterne realistiske og tilstrækkelig seriøse for deltagerne. 81 Opgave 27. Diskuter neuroøkonomi og dens anvendelighed. Beskrivelse af neuroøkonomi • En form for sammensmeltning af adfærdsøkonomi og studiet af hjernens funktioner Eksempel: Anchoring • Den (første) information man får, f.eks. et pristilbud, bliver ofte udgangspunktet for forhandlingerne, selvom prisen burde være en helt anden. Med andre ord får man først plantet et tal i hovedet på modparten, har denne en tendens til at holde fast ved dette tal. Investorer synes ofte at springe på vognen efter, at toget er kørt. De forventer yderligere stigninger efter, at der i en periode har været stigninger, og de skal først se en periode med fald, før de reagerer og forventer yderligere fald. Kursstigninger bliver ankret. Colin Camerer denerer her neuroøkonomisk teori ved: Den neuroøkonomiske teori af individet erstatter den (bestandige brug) af ktion af en utility - Maksimerende individer som har et mål, med en detaljeret beretning af hvordan komponenterne af individets, hjerneregion, kognitiv kontrol og neurale baner - interagere og kommunikere til at bestemme et valg. • Neuroøkonomi udvider adfærdsøkonomien på to måder. Den første rolle er at anvende modelleringsteknikken og matematik fra økonomi dvs. maksimering under bibetingelser og ligevægtsanalyser til at modellere indkapslede funktionelle dele af hjernen. Dette kaldes "Neurocellular economics"eller NE af Ross (2008). ∗ Giver god mening at anvende modeller fra økonomi, der på mange andre områder har vist sig, at være ret succesfulde. Den anden rolle kaldet "Behavioural economics in the scanner"eller BES af Ross (2008). Den rolle består i at anvende målinger af aktiviteter i hjernen til forklare de psykologiske reaktioner, der forklarer de økonomiske agenters adfærd, og som i nogen grad også er det, der danner grundlag for megen forskning i adfærdsøkonomi. ∗ Kritik består dels af en begrundet tvivl om sådanne målinger, i hvert fald fornærværende, kan tilføje væsentlig ny viden, dels om økonomi overhovedet har brug for at beskæftige sig med hvad der foregår i hovedet på folk, men kan nøjes med at studere de handlinger disse foretager sig. · Store usikkerheder forbundet med målinger af disse (ikke fuldtudviklet teknologi). Kritik • Gul & Pesendorfer siger: what goes on in the brain do not automatically enhance (forbedre) economics". Gul og Pesendorfers (2008) forsvar af den klassiske økonomi mod hvad de kalder neuroscience, kan også opfattes som et forsvar af økonomi overfor psykologi, og dermed adfærdsøkonomi. Gul og Pesendorfers hævder at neuroøkonomi er baseret på følgende påstande (assertions) ∗ Psykologi er direkte relevant for økonomiske teorier. Især det faktum at det kan benyttes til at støtte eller afvise nuværende modeller ∗ What makes indviduals happy ('true utility') diers from what they choose. Economic welfare analysis should use true utility rather than utilities governing choice ('choice utility') 82 Ifølge Gul og Pesendorfer beskæftiger disciplinerne med forskellige ting: Neuroscience kan ikke forkaste økonomiske modeller, fordi de ikke siger noget om hjernen, og hjerneforskning kan ikke sige noget om økonomi, fordi den ikke kan sige noget om de forhold økonomi beskæftiger sig med. Dvs at denitioner og mål er forskellige. (De mener altså ikke at neuroscience og økonomi hænger sammen) ∗ Denitioner og mål er forskellige. · Standardøkonomi fokuserer på agenternes valg og bruger det som angivelse af "revealed pref- erences". Men man har ingen terapeutiske hensigter om at "forbedre"agenternes velfærd, men analyserer hvordan agenterne interagerer i den institutionelle situation de bender sig i. · Neuroøkonomi har terapeutiske hensigter og forsøger at at beskrive, hvordan agenterne træer beslutninger med den hensigt at eektiviserer disses valg for derved at opnå bedre velfærd. ∗ Økonomi og psykologi adresserer ikke de samme spørgsmål, og svar og metoder er derfor forskellige. · At skelne mellem komplementer og eksternaliteter er vigtig i økonomi, fordi eksternaliteter ofte er tegn på markedsmangler, hvilket ikke er tilfældet for komplementære varer · · I psykologien er er det signaleekten, der analyseres. I økonomi er kae og cigaretter, ligesom en hamburger og pommes frites komplementære vare, mens en tidligere narkomans tilbagefald ved at ytte til Christiania tæt på pushere, ligesom bilkøb og forbedrede motorveje er eksempler på eksternaliteter, der ændrer efterspørgslen. At skelne mellem komplementer og eksternaliteter er vigtig i økonomi, fordi eksternaliteter ofte er tegn på markedsmangler, hvilket ikke er tilfældet for komplementære varer · For en psykolog er cigaretter, når man drikker kae, ligesom pommes frites, når man får en hamburger, og narkotika, når man ser pushere på Christiania og bilkørsel, når vejene forbedres, en længsel, der fremkommer, som følge af et signal. Og her er er det signaleekten, der analyseres. Diskussion • Camerer, Loewenstein and Prelec (2004) anfører p. 562 . seks utilstrækkeligheder ved økonomiens præferencebegreb, som Gul & Pesendorfer besvarer. Grundlæggende for anførslerne er at de bygger på at økonomien ikke kan forklare de tanker der beskriver hvorfor vi observerer det man gør. GP's svar på disse er generelt at økonomien ikke er interesseret i tankerne man i de valg der foretages (altså det synlige outcome). • I sin kritik af Gul og Pesendorfer skriver Hausman (2008) i sin konklusion I adfærdsøkonomi og neuroøkonomi ndes der utvivlsomt optimisme, også til en grad der måske er for meget. ∗ Men det er denne optimisme der er med til at udvikle nye grene indenfor økonomien Meget muligt at der er nogle økonomer der mener det er distraktioner ∗ Men der er gode argumenter for at det kan støtte nuværende økonomiske metoder ved at inkorporere nye former for data (der selvfølgelig skal håndteres med forsigtighed grundet dets nye natur) Egen diskussion • Neuroøkonomi kan bruges til at belyse HVORDAN vi træer beslutninger 83 Det skal i mine øjne ses som et TILLÆG til de økonomiske modeller Økonomi og psykologi adresserer ikke de samme spørgsmål, og svar og metoder er derfor forskellige Har økonomi overhovedet brug for at beskæftige sig med hvad der foregår i hovedet på folk, eller kan nøjes med at studere de handlinger disse foretager sig? ∗ ∗ De har ikke brug for det der foregår i hovedet, men det kan hjælpe til at belyse problemerne Tilstande som kulde, varme, glæde og sult har en indvirkning på beslutningsgrundlaget, men hvordan skal dette modelleres, selvom vi ved det? Jeg føler det har en plads, men er mere tilhænger af standard økonomi. ∗ Neuroøkonomi kan anvendes til at svare på HVORFOR vi træer hvilke valg. Økonomi fokuserer mest på de valg vi træer. _____ Camerer, Loewenstein and Prelec (2004) anfører p. 562 . seks utilstrækkeligheder ved økonomiens præferencebegreb. (Se side 37 og frem i begrænset rationalitet.) 1. Følelser af glæde og smerte er homeostatiske mekanismer ligesom det, at svede når man har det for varmt, og det at ryste når man har det for koldt. Præferencer er således tilstandsafhængige og det til noget internt i agenten (a) Gul og Pesendorfer anfører hertil, at økonomiske modeller inter siger om kropstemperatur, blodsukkerniveau osv. Og heller ikke til hvad der får folk til at føle sig tilpas, eller om det at føle sig tilpas er hvad agenterne sætter pris på. 2. "Revealed preferences" fortæller os ikke om agentens fravalg af et gode skyldes, at han ikke vil betale prisen eller f.eks. er allergisk overfor godet. (a) Gul og Pesendorfer anfører til dette, at økonomi ikke bekymrer sig om grunden til fravalget er det ene eller det andet. Allergikeren vil ved sine valg under forskellige priser afsløre, at han ikke efterspørger varen uanset pris. 3. Kahneman (1994) skelner mellem 4 forskellige former for nytte, der til en vis grad synes at være produceret forskellige steder i hjernen, og som ikke altid er synkrone. De re typer er erindret nytte (det man kan huske at kunne lide) , forventet nytte (hvad man forventer at kunne lide), valgt nytte ( det man har valgt at anskae sig) og erfaret nytte ( det man kan lide, når det forbruges). (a) Gul og Pesendorfer mener at velfærdsanalyser for neuroøkonomer har det terapeutiske formål, at forbedre beslutningstagerens følelse af at have det godt, og samtidig har neuroøkonomen ikke noget i mod at være paternalistisk12. Gul og Pesendorfer mener, at velfærdsøkonomi handler om at analyserer institutioners evne til at distribuere fordele og ulemper mellem agenterne. Landbrugsstøttens eektivitet er et eksempel 4. Visse hjerneaktiviteter (dopaminergic neurons) i midterhjernen indtræer på lignende måde ved mad, piller og penge. Dette tyder på, at penge har direkte nytte, hvilket er i modstrid med gængs økonomi, der hævder at det at holde penge kun har indirekte nytte via de goder penge kan købe (a) Gul og Pesendorfer anfører hertil, at pengeillusion, som dette kaldes i økonomi, kan afdækkes ved at ændre på priser og lønninger, således at de mulige kombinationer af forbrug og arbejdsudbud er uændret. Man behøver ikke at henvise til visse usikre hjerneaktiviteter, som økonomi ikke siger noget om 84 5. Nytten af indkomst afhænger af nytten af de varer og tjenester agenten kan købe for indkomsten, men ikke fra hvilken kilde indkomsten kom. Men det er blevet påvist, at der er større aktivitet i midterhjernens belønningsregion kaldet striatum, når indkomsten stammer fra arbejde, end når indkomsten har andre kilder. Dette indikerer, at man sætter større pris på indkomst indtjent ved arbejde. (a) Gul og Pesendorfer har ikke nogen kommentar til dette punkt, men man tager næppe fejl ved at anvende svaret i 4a. 6. Afhængighed ("addiction") specielt det forhold at den følelsesmæssige (vicseral) tilskyndelse til f.eks. narkotika bekæmpes af den fornuftsmæssige (cortical) fornemmelse for at narkotika er skadelig, hvilket viser sig ved at narkomaner svinger mellem forbrug og afholdenhed. Også her mener Camerer, Loewenstein and Prelec (2004) at hjerneforskning kan hjælpe (a) Gul og Pesendorfers argument mod dette er at økonomi ikke beskæftiger sig med aktiviteter i hjernen, men med agenternes valg. 85 Opgave 28. Diskuter begrebet kausalitet i økonomi. Kausalitet • Kausalitet spiller en meget stor rolle i anvendt økonomi. Mange økonomisk politiske forslag indeholder antagelser om, hvad man i loso kalder kausale sammenhænge. ∗ Når økonomer foreslår at lempe nanspolitikken for at formindske arbejdsløsheden, er det, fordi man mener, at der en kasual sammenhæng mellem den samlede efterspørgsel i samfundet og udnyttelsen af de tilstedeværende produktionsfaktorer, herunder arbejdskraften. ∗ På tilsvarende vis antages en kausal sammenhæng fra pengemængde til ination, når økonomer advarer om, at Nationalbankens opkøb af obligationer vil medføre generelle prisstigninger. Man kan erstatte ordet kausalitet med prognose og udtrykke, at strammer man nanspolitikken bør man forvente, at aktiviteten i samfundet falder, men fortolkningen ændres ikke. Men studerer man disse udsagn om kausale sammenhænge nærmere, vil man opdage, at de typisk er fulgt af nogle afsvækkende forbehold, som ofte betegnes ceteris paribus eller "alt andet lige forbehold". • Aristoteles (3-400 f.kr) For videnskab var kausalitet og spørgsmålet om "hvorfor" afgørende. Kausalitet og en teori om kausalitet er afgørende for forståelse af naturen og hvad der sker omkring os, eller kort sagt nødvendig for at vi kan svare på spørgsmål om "hvorfor". Aristoteles teori om kausalitet består af 4 forklaringer eller årsager, der kan give på et spørgsmål om hvorfor (eksempel med y): ∗ ∗ ∗ ∗ • Den materielle årsag: Trykket under vingen er større end trykket over vingen (Bernoullis lov). Den eciente årsag: Flyet er designet til at yve. Den formelle årsag: Piloten er sat til at overholde tidsplanen Den ultimative årsag: Man forventer en prot ved at yve. David Hume (1700 tallet) David Hume oversatte Aristoteles tro og videnskab som forhold mellem ideer og forhold mellem fakta, hvor forholdet mellem fakta drejer sig om hvordan verden er, mens forhold mellem ideer er sande uanset, hvilken verden vi lever i. ∗ Hume argumenterer herefter for, at kausalitet kun vedrører forhold mellem fakta, og at kausale analyse beror på erfaringer. Betragt følgende to påstande · · Min hovedpine er hidtil altid formindsket efter, at jeg har taget en aspirintablet. Min nuværende hovedpine vil blive formindsket hvis jeg tager en aspirintablet. Den første påstand opsummerer mine erfaringer, mens den anden forudsiger, hvad der vil ske i fremtiden. At argumentere for en forbindelse mellem (1) og (2) som et forhold mellem ideer, har ig. Hume ikke nogen gang på jorden, idet der ikke er nogen kontradiktion i at hævde, at aspirin ikke vil have nogen virkning på min nuværende 86 hovedpine, selvom den har virket i fortiden. Man må således anvende probable reasoning (sandsynlig begrundelse) for forholdet mellem fakta. Men her løber man så ind i det problem, at en sådan argumentation må forudsætte at fremtiden bliver som fortiden. Men for at vi med rimelighed kan hævde det, må vi have erfaringer med at aspirin hjælper på hovedpine. Hvilket i realiteten er en påstand om en association mellem aspirin og mindre hovedpine. ∗ Reiss (2013) p. 90 sammenfatter Humes kausalitetsdenition, som, at X forårsager Y , hvis · · · ∗ X og Y er universelt associerede. Y følger efter X i tid. Y og X er tilgrænsende i tid og rum. Men som også anført af Reiss, er er der ere problemer med Humes kausalitetsanalyse. Den slappe økonomiske politik, ikke mindst uviljen til at pålægge højere grundskatter, uhensigtsmæssige dereguleringer og nogle nansielle institutioners jagt efter prot m.v. var formentlig årsag til nanskrisen i 2008, men vi har haft nanskriser, der havde andre årsager. ∗ I økonomi er der desuden mange eksempler på, at kausaliteten går begge veje i hvert fald inden for det tidsinterval, vi kan måle på. • John Stuart Mills (1843) Han denerede kausalitet ved hjælp af tendenser, der 1. er en slags årsager, 2. som giver en karakteristisk eekt, når den opererer uden forstyrrende faktorer, 3. men som fortsætter med at bidrage til eekterne, selv når der er forstyrrende faktorer. Denne denition af kausalitet svarer i høj grad til den, der anvendes i eksemplet med kvantitetsteorien. MV = PT > forøges pengemængden, så vil der være en tendens til, at prisniveauet stiger. Et af de interessante spørgsmål er herefter, hvordan man kan adskille de forskellige faktorer, de kausale faktorer af interesse, og de forstyrrende faktorer. Mills' svar på dette er et princip kaldet "Composi- tion of Causes", som han hævder i økonomi bedst beskrives som mekanikkens faktorer, som eksempelvis tyngdekraft og centrifugalkraft, og ikke som det, der sker, når man i kemien blander stoer, hvor sammensætninger får en anden karakter end de enkelte dele. Brint og ilt kan således give vand, der er helt forskellig fra såvel brint som ilt. ∗ Dette svarer helt til den fremstilling, man anvender i den i økonomi ofte anvendte regressionsanalyse. Alfred Marshall var ikke helt enig med Mill, selvom han godkender, at mekanikkens model kan anvendes i hvert fald i laboratoriet. Marshall mener heller ikke, at kemiens model er særlig anvendelig. I stedet henviser Marshall til biologien, der også "deals with a matter, of which the inner nature and constitution, as well as the outer form, are constantly changing" • Korrelation, herunder spuriøse korrelationer og kointegration I hvilket omfang korrelation er udtryk for kausalitet, er et af de emner, der altid bliver diskuteret, når begrebet kausalitet er på dagsordenen. At x forårsager y angiver en retning for kausaliteten. Men et blik på formlen for en korrelationskoecienten fortæller umiddelbart, at den er symmetrisk i y og x, hvilket indebærer, at den per denition ikke umiddelbart kan sige noget om kausalitet. ∗ Korrelation er symmetrisk ρ= 87 σxy σx σy Regression, der jo tager udgangspunkt i den betingede fordeling for y givet x er ikke symmetrisk, og regressionsmodellen giver derfor et bedre grundlag for kausalitetsanalyser end korrelationer. ∗ Kausalitet er assymetrisk (β1 fra en helt normal regression y på x) β1 = σxy σx2 Men problemet, at såvel y som x kan være frembragt af en tredje faktor, eksisterer stadig, ligesom der også kan forekomme "spurious regressions", se Granger og Newbold (1974), Granger (1981). ∗ ∗ Eksempel på brødpriser og vandstand i Venedig Men som anført af Granger og Newbold (1974), er dette et typisk eksempel på en "spurious"regression. Da antallet af observationer er begrænset, er det ikke muligt at anvende yderligere test for "spurious", som f.eks. test for positiv autokorrelation. Men er regressionen valid, vil der formentlig også være en sammenhæng mellem de årlige ændringer (dierens af første orden). ∗ At man nder spurious regressions skyldes ofte, at man har at gøre med ikke stationære tidsserier, og fejlagtigt anvender sandsynlighedsmodeller, herunder en statistik som korrelationskoecienten og den ovenfor anvendte regression, der kræver stationaritet. ∗ Ikke-stationære tidsserier er tidsserier, der har en trendkomponent, som indebærer, at sandsynlighedsfordelingen for serien ikke er den samme i begyndelsen af observationsperioden som i slutningen af perioden. · Deterministisk eller stokastisk trend (kan lede til kointegration) kan løses ved introduktion af en trend eller tage første dierenser. Hoover (2008) opstiller følgende tabel for at beskrive de forskellige tilgange til kausalitet: Structural Process A priori Cowles Commisson: Koopmans (1953); Hood and Koopmans (1953) Zellner (1979) Inferential Simon, Hoover, Favero and Hendry, Natural experiment: Angrist and Krueger Granger, Vector Autoregressi Det er disse tilgang vi normalt ser til kausalitet. Først og fremmest må tilgangene enten have struktur eller proces. Dernæst må de enten være lavet på baggrund af a priori eller også må de forsøge at skabe inferens fra data. • Cowles Commission (A priori structural) Økonomisk teori giver information om hvilke variable, der er endogene, hvilke variable, der er eksogene, og hvilke restriktioner modellen er pålagt, for at den er identiceret. Hermed er den kausale struktur også fastlagt. Altså kausaliteten er fastlagt ud fra økonomisk teori, og ikke ud fra data. • The inferential structural approach (Rekursive strukturer) Simon siger at X forårsager Y, fordi X er rekursiv ordnet foran Y. Man ved alt om X uden at vide alt om Y, men man må kende værdien af X for at bestemme værdien af Y. Hvis man ikke kan afgøre om X forårsager Y eller om Y forårsager X, må man indhente mere information, siger Simon. Det kan man gøre ved at foretage eksperimenter. • The inferential process approach (Granger) Omfatter Grangers kausalitetsmodeller 88 Grangers kausalitetsanalyse - I praksis fortolkes Yt Granger forårsager skab til Yt værdier af dvs. nutdige og tidligere værdier af de varaible i Yt Xt som et udsagn om, at kend- hjælper med at forudsige fremtidige Xt Sammenfattet kan man sige at Xt Granger forårsager Yt+1 hvis P (Yt+1 |all information dated • t and earlier)6= The a priori process approach (Zellner) Zellner baserer sin denition af kausalitet på Feigl, der skriver at The claried (puried) concept of causation is dened in term of predictability according to a law Dette indebærer at Zellner ikke er helt enig med Granger, som ikke medtager according to a law og Simon der ikke lægger så meget vægt på prædiktabilitet og tidsmæssig forskel • Hvad synes jeg? Ceteris paribus: Hvis vi holder alt andet lige og varierer den variabel må den forårsage ændringen ∗ Kritik: Det er svært (næsten umuligt) at holde alt andet lige Økonomisk teori til at bakke empirisk kausalitet/korrelation op ∗ Vi skal således ikke kun kigge på enten teori eller empiri, men forsøge at kombinere begge i et forsøg på at forstå hvorvidt vi har en egentlig kausalitet eller om det kun er en spuriøs regression der foregår. Her skal den økonomiske teori kunne gå ind og sige at brødpriserne og vandstanden i Venedig ikke har en kausal eekt. • Fra Svends guldkorn: Rubin og Holland, og dvs. tilhængerne af RCT, at den eneste måde man kan afgøre om en variabel er kausal for en anden er ved hjælp af et randomiseret kontrolleret forsøg. De hævder eksempelvis, at man ikke kan afgøre om køn er kausal for intelligens eller indtjening, fordi der er umuligt at randomisere køn. Dette afviser Heckman, der anfører, at det at denere kausalitet ikke er det samme som at identicere kausalitet og teste kausalitet. • Det er vigtigt at en kausalitet model ingen varians har, for på den måde er outputs nemlig stabile, fra ændringer i de to input variabler. den simple all cause model har 2 inputs variable deep structural modellen. denne inkluderer en tredje input variabel 89 en anden version er P (Yt+1 |all Opgave 29. Diskuter libertarian paternalism og nudging herunder Sugdens kritik af disse. (Se disp 21 for Sugden's kritik) • Generelt Thaler & Sunstein har udvidet området og gjort det populært indenfor adfærdsøkonmi. Nudging: At pue adfærd i en bestemt retning Libertarian Paternalism: En model der nudger folk i en retning som choice architect vil. ∗ Lidt sjovt: Modstridende navn. Libertarian: Frie valg. Paternalism: Bedrevidende/faderlige råd ish. ∗ ∗ Det går ud på at: pue befolkningen i den "rigtige" retning. Thaler og Sunstein (2008) argumenterer for, at folk i almindelighed skal have lov til at gøre hvad de vil og at de skal have ret til at vælge. Men det er ikke desto mindre legitimt for choice arkitekten, at forsøge at inuere på folks adfærd for at gøre deres liv længere, sundere og bedre. Og dette kalder de "libetarian paternalism". Nudging er en afvigelse fra rational choice teoremet (som tilsiger, at man vil undersøge alle muligheder, inden man foretager et valg, der giver dem størst forventede nytte) Eksempel med placeringen af salat og kage i skolens kø ∗ ∗ Ved kantinedamen (choice architect) hvad der er bedst for eleverne? Behavioral economics forklarer med kontektsafhængighed > en afvigelse fra rational choice teoremet siden det ikke er nytten, der maksimeres, men placeringen der bestemmer valget. Diskussion af libertarian paternalism • Problemstilling: Hvem skal vurdere hvad der er bedst for en? Hvad er den rigtige retning? Det etiske problem: Opstår først og fremmest i forbindelse med at fastlægge den adfærd mod hvilken man skal pue agenterne, men også spørgsmålet om gennemsigtigheden i nudgingen kan give etiske problemer. Alle vil gerne have et bedre liv, men hvem afgør, hvad der er kendetegnet ved et bedre liv? arkitekten? choice sammenfald med diktatur Her står Thaler og Sunstein (2008) af og skriver p.5 "a policy is paternalistic if it tries to inuence choices in a way that will make choosers better of, as judged by themselves". ∗ Så de mener at en politik er paternalistisk, hvis choice arkitekten forsøger at påvirke ens valg i en retning der gør personen i fokus bedre stillet, vurderet af dem selv. Dette citat kritiserer Sugden på to fronter: ∗ For det første, hvordan afgør man om agenterne selv føler, at de er blevet bedre stillet ved at blive nudged. ∗ Og for det andet, at Thaler og Sunstein implicit antager, at der indeni en HUMAN er en ECON, der er som den neoklassiske økonomi antager, er en person, der maksimerer sin forventede nytte, og har alle mulige egenskaber som fuld opmærksomhed på maksimeringsproblemet, fuld information, opfører sig konsistent, har tilstrækkelige kognitive evner osv. 90 ∗ Påstanden om at der eksisterer en ECON inden i os alle, er et resultat, som ig. Sugden (2009) simpelthen ikke er i overensstemmelse med de opnåede resultaterne indenfor behavioral economics og psykologi. Der er således intet belæg for at antage, at agenterne vil optræde ud fra forudsætningerne i neoklassisk økonomi. ∗ Sugden (2004): Konkurrencemarkeder er under visse betingelser udmærket er i stand til at fungere og frembringe resultater, der forsyner de individuelle agenter med lige muligheder, for at være ansvarlig for de udfald agenten erfarer, selv i tilfælde af at agenterne ikke er ECONs, men HUMANs. Hausman og Welch (2010): Kritisk over for Thaler og Sunsteins eksempler på nudges. Mange af dem de nævner, f.eks. den information, der gives på cigaretpakker om det farlige i cigaretrygning, kan lige såvel blive betegnet som information til det rationelle valg som et tilfælde på en nudge. ∗ ∗ TS eksempler er ofte blot informative oplysninger til det rationelle valg > ikke nudging. Sublim advertising: Påvirke vores underbevidsthed uden at vi er opmærksomme på påvirkningen. Svend: Der er givetvis mange situationer, hvor markedet ikke fungerer, men det er formentlig en skrøne, at nudging kan gennemføres uden, at agenterne mister en del af den personlige frihed, også selvom de ikke opfører sig som ECONs, men som HUMANs. ∗ Kritiserer et eksempel brugt af TS om oentliggørelse af kemisk aald for virksomhederne ∗ Desuden siger HW følgende om libertarian paternalism · · Dette vil nemlig have direkte økonomiske konsekvenser og derfor ikke være et nudge Libertarian Paternalistic nudges are in many cases not paternalistic at all, but instead largely cases of rational persuasion. When they are paternalistic and in our terminology "shape"choices, their libertarian credentials are questionable... Diskussion: ∗ Agenterne har stadig de samme muligheder: ∗ Personligt synes jeg nudging er nt. · · · · ∗ Under klassiske økonomiske antagelser kender de alle muligheder og maksimerer deres nytte Så længe man ikke indskrænker folks valg er de jo ikke dårligere stillet Organdonation: Opt-out scheme istedet for opt-in. (Meld dig ud, i stedet for at melde dig ind) Folk har samme mulighed men man vil alligevel se en højere % der er organdonere ved opt-out Richard Thaler og Cass Sunsteins idé om libertarian paternalisme og nudging bliver diskuteret og kritiseret af mange. Hele ideen bag at vi kan have en person (muligvis Carolyn) der på sin vis kan diktere/ påvirke / nudge børnene i den rigtige retning ud fra hendes egen overbevisning om hvad der er rigtigt, er selvfølgelig ufattelig spændende på regeringsperspektiv. ∗ Men en af de mange gode argumenter i mod dette, er lige præcis Hvem ved bedst, hvad der er den rigtige retning for samfundets individer. Vi kan umuligt have en social planner der ved bedst for alle, idet forskellige individer har forskellige præferencerelationer, hvilket vil påvirke deres beslutningstagning. Dog er det interessant at man indirekte kan påvirke en agents valg ved kontekt- safhængighed som strider mod rational choice teoremet om at vi som agenter først betragter alle mulige beslutninger (Komplette), tager internt de samme valg (transivitet) og først derfra vælger den mad der giver den største forventede nytte. ∗ Sugdens kritik omkring at Thaler og Sunstein antager at alle agenter har en ECON og ikke en HUMAN inde i sig, er et væsentligt kritik punkt, idet det kan vises at det ikke er tilfældet. Ekstra som blot skal huskes: 91 • Hvornår er nudging ikke manipulation: 1. Hvis nudging ikke ændrer beslutningsprocessen, så er det ikke manipulerende. 2. Hvis nudging ikke er en direkte intentionel påvirkning, så er det ikke manipulerende. 3. Hvis nudging ikke succesfuldt påvirker beslutningsprocessen, så er det ikke manipulerende. 4. Hvis agenten indgår i et samtykke om, hvad der ellers ville være kendetegnet manipulation, så vil det ikke bryde med agentens autonomi > Men hvis disse overholdes så er der vel ikke sket noget og så nytter nudging ikke alligevel? 92 Opgave 30. Diskuter libertarian paternalism og nudging herunder Gigerenzers og Cartwright and Marc A. og Hights kritik • Generelt Thaler & Sunstein har udvidet området og gjort det populært indenfor adfærdsøkonmi. Nudging: At pue adfærd i en bestemt retning ∗ Fra behavioral economics er eksempel kontektsafhængighed, hvor en beslutning afhænger af konteksten. Libertarian Paternalism: En model der nudger folk i en retning som choice architect vil. ∗ Lidt sjovt: Modstridende navn. Libertarian: Frie valg. Paternalism: Bedrevidende/faderlige råd ish. ∗ pue befolkningen i den "rigtige"retning. ∗ Thaler og Sunstein (2008) argumenterer for, at folk i almindelighed skal have lov til at gøre hvad de vil og at de skal have ret til at vælge. Men det er ikke desto mindre legitimt for choice arkitekten, at forsøge at inuere på folks adfærd for at gøre deres liv længere, sundere og bedre. Og dette kalder de "libetarian paternalism". Nudging er en afvigelse fra rational choice teoremet (som tilsiger, at man vil undersøge alle muligheder, inden man foretager et valg, der giver dem størst forventede nytte) Eksempel med placeringen af salat og kage i skolens kø ∗ Ved kantinedamen (benevolente diktator, choice architect) hvad der er bedst for eleverne? ∗ Behavioral economics forklarer med kontektsafhængighed > en afvigelse fra rational choice teoremet siden det ikke er nytten, der maksimeres, men placeringen der bestemmer valget. På baggrund af eksempler som disse anbefaler Thaler og Sustein, at staten anvender en model kaldes liberatarian paternalism. Hvilket vil sige at pue befolkningen i den rigtige retning. Mens der er jo næppe nogen, der kan have noget i mod at få et bedre liv, bliver spørgsmålet imidlertid om, hvem der skal afgøre om et liv er blevet bedre. Er det choice arkitekten? I så fald er vi jo tilbage til det argument, der i historiens løb er blevet brugt til at argumentere for enevælde, diktatur osv., nemlig, at der er nogen, diktatoren, som ved bedst, hvad der er godt for befolkningen, og derfor skal have lov til at bestemme. • Thaler og Sunstein (2008): A policy is paternalistic if it tries to inuence choices in a way that will make choosers better of, as judged by themselves Så de mener at en politik er paternalistisk, hvis choice arkitekten forsøger at påvirke ens valg i en retning der gør personen i fokus bedre stillet, vurderet af dem selv. ∗ Svend: Libertarian Paternalism er noget T og S har fundet på for at retfærdiggjorde nudging og undgå konikter 93 Kritik - Gigerenzer: Denne artikel af Gigenrenzer indeholder et stærkt angreb på nudging, libertarian paternalism, adfærdsøkonomi samt Thaler og Sunstein og til dels Kahneman og Tversky. Gigerenzer afviser begrundelsen for at nudgingprogrammet, om at psykologisk forskning har vist, at menneskets vurderinger ikke er rationelle og at det er ekstremt svært eller umuligt at undervise folk ud af deres biases. fallacies og heuristics. Ifølge Thaler m.. skyldes dette virkninger af framing, base rate Samtidig påviser Gigerenzer af nudging kan være skadeligt i visse situationer (eksempel med screening for brystkræft → blev fremsat, at jo ere der k scanning, jo mindre havde brystkræft, hvor det selvfølgelig betyder, at det opdages tidligere, hvis ere får denne screening). • Gigerenzer denerer libertarian paternalism som Libertarian paternalisme er et set af interventioner fokuseret på at overkomme folks kognitive biases, ved at udnytte dem på en måde for at styre deres beslutninger imod de valg, de selv ville have truet, hvis de var rationelle. • Gigerenzer anfører, at den politiske loso bag libertarian paternalism (og nudging) er: Målet. En choice architect bestemmer hvad der er bedst for folk. Folk selv, er sjældent spurgt, da de jo mangler rationalitet (se justication) Udførslen. Et nudge er introduceret for at ændre folks adfærd i en foretrukken retning, uden incitamenter, tvang eller uddannelse Begrundelsen. For at retfærdiggøre hvorfor regeringer skulle nudge deres borgere i første omgang, i stedet for at uddanne dem, så trækker libertarian paternalistet på psykologisk forskning, der viser at folk systematisk mangler rationalitet og deres manglende evne til at lære af deres fejl • Gigerenzer henviser til, at Thaler og Sunstein påstår, at individer ikke følger Bayes regel, og derved laver systematiske fejl. Det sammenfatter i stor udstrækning en del af adfærdsøkonomernes kritik af neoklassikernes Homo oeconomicus model. Framing Allerede Kahneman mente at have vist at framing har eekt og en af de kendte eksempler på en sådan er fremsat af Thaler og Sunstein, der fortæller at i forbindelse med en læges oplysning til en patient, der skal gennemgå en hjerteoperation, har det betydning om lægen vælger formen 1 eller 2. 1. Fem år efter operationen er 90% i live 2. Fem år efter operationen er 10% døde Og her citerer de et psykologisk studium. Ig. Gigerenzer viser psykologisk forskning, at problemet med ovennævnte er, at der mangler oplysninger, nemlig om hvad der sker uden operation, og at patienten fortolker framingen 1. eller 2. som et bidrag til en information om dette. Desuden kan man undgå framingeekten ved at udtrykke hele informationen som 90% af patienterne er i live og 10% er døde. Hermed kan man ikke bruge et sådant eksempel som en argumentation for at nudging er nødvendig. Bayes Udover framing nævner Kahneman og Tversky og med dem Thaler og Sunstein også folks manglende evne til at anvende sandsynligheder og Bayes regel som et argument for den manglende rationalitet. Bayes regel der er en formel for at opdatere sin opfattelse af hvor sandsynlig en hændelse er, anses af psykologer for at være et godt mål for rationalitet. Samtidig viser en række forsøg dog, som Gigenrenzer og andre psykologer har lavet, at folk i 94 almindelighed har meget lettere ved at ræsonnere med hyppigheder end med sandsynligheder. Gigerenzer afviser således Kahneman og andres påstand om manglende rationalitet med, at disses eksperimentelle resultater skyldes at de har framet problemet ved anvendelse af sandsynligheder og ikke ved anvendelse af hyppigheder, som folk forstår. Heuristics Thaler og Sunstein hævder endvidere, at agenterne anvender heuristics i stedet for logik og statistik og derfor altid vil lave fejlslutninger og opføre sig irrationelt. Dette afviser Gigerenzer selvfølgeligt ved at anføre, at langt hovedparten af alle beslutninger sker under usikkerhed, hvor man hverken kender de mulige udfald eller deres sandsynligheder, og ikke under risiko, hvor disse ting er kendt. At man således ofte tager fejl, skyldes at man anvender heuristics i en situation, hvor man ikke kan andet. Desuden lærer man af sine fejl, hvilket Thaler, Sunstein og Kahneman jo ikke tillader. Kritik - Cartwright og Hights. Libertarian paternalism og nudges: Cartwright og Hight starter med at erklære, at en debat om nudgings moralske status er præmatur, fordi der er begrebsmæssige problemer, der først skal diskuteres og løses før man kan indgå i en sådan debat. De mener at Thaler og Sunstein mangle en begrebsmæssig afklaring af hvad det vil sige at være better o as judged by themselves. Herefter giver de en oversigt over libertarian paternalism og nudges, derefter diskuterer de hvad det vil sige at være bedre stillet som bedømt af en selv. C og H følger Dworkin (2017) og denerer paternalisme som the interference of a state or an individual with another person against their will an defended or motivated by a claim that the person interfered with will be better of or protected from harm. Interferences må være bevidst og med hensigt om at ændre agentens præferencer og handlinger. Thaler og Sunsteins libertarian paternalism udnytter agenternes systematiske og forudsigelige adfærd til at ændre deres valg ved at ændre disse valgs arkitektur. Nudges styrer agenterne i en given retning, men tillader dem at gå deres egne veje. Det er således vigtigt, at man ikke fratager agenterne mulige valg (som kager), og C og H understreger, at Thaler og Sunstein ivrigt hævder, at de ikke er interesseret i at fortælle folk hvad de skal gøre. Det er dog svært af forstå, når de forsøger at fremkomme med midlerne til dette. Better o as judged by themselves: I den neoklassiske verden hvor agenterne har egenskaber som homo oeconomicus, der har rationelle præferencer og fuld forudseende hed, er situationen den, at man blot behøver at overlade det til agenterne selv at beslutte, i hvert fald efter at der er blevet tilstrækkelig informeret og eventuelt rationelt overtalt, dvs. overtalt ved hjælp af rationelle argumenter. En benevolent diktator vil som en sådan fastlægge den nudge, der efter diktatorens opfattelse vil stille agenten bedst. Det samme vil en leder i et demokratisk system, hvor parlamentet beslutter, hvilke handlinger der er samfundsmæssig hensigtsmæssige. Hvis nogle agenter opfører sig på en anden måde vil parlamentet forsøge at overtale normbryderne ved rationelle argumenter eller hvis dette ikke hjælper, ved at ændre på agenternes incitamentsstruktur ved skatter og tilskud evt. ved direkte forbud. Hvis politikerne holder sig indenfor visse grænser kan et sådant system fungerer viser de historiske erfaringer. Selvom man kan være skeptisk overfor at private virksomheder også nudger ud fra deres motiver. Hvis man som Thaler og Sunstein afviser at agenterne er homo oeconomicus, men tværtimod mener at agen- 95 terne ikke opfører sig som denne model forudsiger, og ovenikøbet ikke kan lære, er det selvfølgelig noget sværere. Ligesom man også kan have indvendinger mod at lade demokratiet bestemme. For Thaler og Sunstein, der begge er amerikanere, og hvor den første er Chicagoøkonom er dette specielt svært, hvilket utvivlsomt er en af grundene til at indføre begrebet Better o as judged by themselves. Men hermed åbner de sig for den kritik som Sugden har fremført, at de på trods af deres kritik af homo oeconomicus alligevel lader agenter have en homo oeconomicus i maven. • C og H diskuterer tre situationer: 1. Den første er, hvor A har valget mellem at deltage i pensionsplan med tilskud fra virksomhed (eller stat) eller ej i 25 års-alderen. A udsættes for en nudge, der skal få ham til at vælge pensionsplanen. Ville han af sig selv vælge pensionsplanen er nudgen ligegyldig. Vælger han at stå udenfor, men fortryder, når han er 55 år, er dette ikke et argument for at han ville være bedre stillet ig. ham selv, da han valgte. Det kræver, at han er den samme person som 25-årig og som 55-årig og det er jo noget specielt adfærdsøkonomer, der taler om kontekstafhængighed, benægter. 2. En anden sammenligning kan ske ved som 55-årig, at betragte A, som var nudged som 25-årig og valgte en pensionsplan og A+, den samme A, som var nudged som 25-årig og ikke valgte en pensionsplan. Men er A og A+ den samme person ved 55-årsalderen, eller er de forskellige på grund af deres forskellige valg af pensionsplan. Dvs. en sådan sammenligning kan heller ikke foretages. 3. Den sidste sammenligning er at personen P ved 55 års dagen i overensstemmelse med en standard der er uafhængig af P, vurderer at han er bedre stillet ved en nudge, der k ham til at vælge en pensionsplan. Men så er problemet om man så kan sige judged by themselves. Ud fra disse tre situationer i artiklen om pensionsplaner, mener C og H ikke, at man mange år senere kan træe beslutningen, da man ikke er den helt samme person længere på trods af, at personen er blevet udsat for nudging. Man kan således med en ikke ringe ret hævde, at Thaler og Sunstein blot er almindelige paternalister, der forsøger at skjule dette. 96 Opgave 31. Diskuter Sandels og Debora Satz synspunkter om markeder. Først Sandels synspunkter om markeder fra bogen: • Michael J. Sandel er en af de skarpeste kritikere af Becker og af Beckers opfattelse om at man kan og bør markedsgøre mange ere områder end man normalt har antaget. Sandel argumentere i en række foredrag og bøger for, at der var områder man ikke skulle overlade til økonomerne. (Sandel (2012)) Sandel syntes økonomi/markeder skal være The study of how men choose to use scarce or limited productive resources to produce various commodities and to distribute them to various members of socity for the consumption. • Sandel (2012) starter med at nævne en række områder, hvor man nu kan betale for noget, man ikke kunne tidligere: Betaling for mere komfortable fængselsceller. Rugemødre kan købes. Soldater kan købes. Stand in til at stå i kø kan købes Virksomheder og forsikringsselskaber betaler for, at de ansatte taber sig. Tilladelse til at udlede Co2 kan købes Og meget mere • Sandels argumenter mod markedsgørelsen har fem ikke helt uafhængige ben at stå på. (argumenter imod markedsgørelse) 1. For det første er det argumenter baseret på den eksisterende skæve indkomst og formuefordeling. De rige udnytter de fattige, fx få en hjemløs til at stå i kø Der er jo ikke nogen tvivl om at en skæv indkomst- og formuefordeling har betydning for et markeds eektivitet i henseende til at skabe Paretooptimale løsninger, så på det punkt må økonomer have vanskeligt ved at argumentere imod Sandel, selvom man selvfølgelig, som Becker og Elias, kan anvende et argument om, at den hjemløse, der står i kø for en anden, bliver bedre stillet ved at blive betalt for at stå i kø. Men det bygger jo på den forudsætning, at man ikke på anden vis kan eller bør bringe den hjemløse ud af den situation han er i. 2. For det andet er det argumenter baseret på en påstand om, at en kommercialisering af et produkt ændrer produktets karakter. 97 Det er også korrekt, at mange studier af Becker og efterfølgerne ofte antager, at markedet ikke ændrer produktets karakter. En nyre er en nyre. Men her er Sandels argument, at der er noget der har en særlig status præcis, fordi man ikke kan købe det. Det gælder (rigtige) venskaber og en Nobelpris. Repugnance (frastødende markeder) - fx at man kan købe venner er frastødende 3. For det tredje er det argumenter for, at kommercialiseringen formindsker altruismen (=gøre noget godt for andre) og samfundsfølelsen Det bliver ikke en samfundsfølelse. Vi vil have et altruistisk (modsat af egoistisk) samfund fordi det gør at vi står sammen. Som et eksempel på at betaling kan erstatte, "crowde-out", altruisme og samfundsfølelse, nævner Sandel et tilfælde beskrevet af Frey og Oberholzer-Gee (1997) vedrørende placeringen af atomaald i en lille bjergby i Schweiz. Her havde beboerne med et snævert ertal accepteret placeringen, men da regeringen tilbød, at give indbyggerne en årlig betaling faldt acceptraten til det halve. Årsagen var formentlig, at man i første omgang havde accepteret, fordi man anså det som en borgerpligt. 4. For det fjerde er der argument for, at incitamenter ikke altid virker, som økonomerne forventer. Eksempel med kemisk aald på vulkan. Uden incitament ville folk gerne fordi det var en borgerlig pligt, med incitament har de et valg og siger de gider ikke have penge for det og de gider ikke gøre det. At incitamenter virker forskelligt og ikke altid virker kan ikke være nogen overraskelse for en økonom. Og det er jo i høj grad et spørgsmål, der kræver en empirisk afprøvning (se ovennævnte eksempel). 5. For det femte er det frastødende og umoralsk, at kommercialisere visse menneskelige forhold. Repugnance (frastødende markeder)- dværgkast, salg af organer osv. • Sandel er udmærket klar over, at selvom der ikke eksisterer et marked for nyrer, ægteskaber, børn osv. er der en (skygge)pris på sådanne forhold, men han mener, at skyggeprisen bør holdes i skyggen og ikke blive "oentliggjort" ved hjælp af et marked. SKYGGEPRIS: monetær værdi, der er tildelt til i øjeblikket ikke kendelige eller vanskelige at beregne omkostninger. Beslutninger, der foretages i en situation med begrænsede ressourcer, har en skyggepris. En pris, der kan være svær, at estimere medmindre man konstruerer et marked for den begrænsede ressource. Becker har foreslået på en række områder, at en markedsgørelse af skygge-produkter kan anses af mange, som en degradering af væsentlige menneskelige forhold > Michael Sandel er enig Skyggepris: prisen på det sorte marked > Rugemødre ulovlige i dk > Dermed skyggepris den pris man kunne få for at være rugemor i USA Info: 98 • I VM i økonomi kap. 3 afsnit 3 fremstilles diskusionen mellem Becker og Elias på den ene side og og Michael Sandel på den anden, hvor Becker argumentere for at et marked for organer vil løse den klare mangel på disse, samt at der dels er et ulovligt marked og dels altid vil være en skyggepris, mens Sandel understreger det uetiske i at markedsgøre alting og den fare, der altid er for at crowde altruismen ud. Satz syn på markeder: • Når man diskuterer markeder for prostitution, rugemødre osv. tager økonomien sjældent hensyn til endo- geniseringen forstået på den måde at varens status ændres. Dette er ikke tilfældet på et marked for æbler, men gør sig derimod gældende på et marked for organer. Dette er også et af Sandels argumenter, men spørgsmålet er om det er rigtigt. ∗ En person der redder livet efter at have købt et organ, vil næppe ændre sit syn på organtransplantationer på baggrund af sit køb. (i hvert fald ikke negativt). ∗ Satz har dog svært ved at vurdere betydningen af disse endogene eekter, lige som alle andre i økonomi. • Satz argumenterer for at love om minimumsløn medfører, at arbejdsgiverne får et incitament til at forbedre arbejdernes kvalitet. Det vil sige at arbejdsgiveren vil forsøge at få sine ansatte til at levere bedre, ved blandt andet at sikre at de har det godt. ∗ Det kan både være fysisk og psykisk, da man forventer at ens ansatte leverer bedre, hvis de har det godt Satz argumenterer for at arbejdsgiveren går mere op i sine ansatte, hvis der er en minimumsløn, da man så har mere på spil i form af den højere løn ∗ Modsat vil arbejdsgivere behandle deres ansatte uden mindste løn dårligt, da de altid bare kan ansætte en anden og måske endda til en lavere løn • Satz argumenterer også for at altruismen bliver crowdet out, hvis man laver et marked for fx blod og nyrer Hvis man pludselig kan få penge for sit blod og sin nyre, hvorfor skulle man så vise storsind overfor andre i samfundet Eksempel: Forældre i en børnehave ville få en bøde, hvis de kom for sent til at hente deres børn. Det endte dog med at ere valgte at komme for sent og betale bøden, da de så ikke længere følte sig skyldige, når de betalte bøden. Dette eksempel bruger Satz til at vise at altruismen kan undermineres af markeder. Hun mener at markeder for blod og nyrer kan også medføre at produktet bliver af lavere kvalitet, da folk vil have et incitament til at holde helbredsmæssige oplysninger tilbage, så de kan få penge for fx deres blod. SH: Argumenterne er dog svage og bygger på små historier. • Noxious markets: 99 Eksempler er blod diamanter, altså diamanter der er minet i krigszoner og bruges til at nansiere krigsførslen, derudover børnearbejde og prostitution bla. ∗ Disse markeder scorer altid højt på mindst et af følgende 4 parametre: 1. Weak agents 2. Vulnerable agents 3. Harmfull outcome (food markets in hunger situations) 4. Harmfull inequalities (arbejdsgiver og arbejdstager) Spørgsmålet er dog om dette altid er korrekt. Svend mener ikke det nødvendigvis altid er korrekt. ∗ Man kan fx kigge på prostitution. Man kunne sagtens forestille sig at den prostituerede hverken er en svag agent, eller en udsat agent, og at udkommet af prostitution ikke er skadeligt, samt at der ikke er en skadende ulighed. Alt dette afhænger af den enkelte person. Dog dermed ikke sagt, at der indenfor fx prostitution ikke vil være situationer der scorer højt på disse parametre, men det er svært at generalisere til et helt marked Tredjepartseekter: ∗ Satz argumenterer for at tilladelsen af disse noxious markets kan påvirke tredjeparter. Fx hvis prostitution er lovligt, kan det påvirke kønsligheden, da Satz mener at kvindesynet vil blive forværret af lovlig prostitution, hvilket hun mener kan medføre at sex med chefen kan blive en del af jobbeskrivelsen i andre jobs. - Dette er dog meget langt ude at postulere det, i følge mig selv. • Ingen opposition mellem stater og marked. Markedet har brug for regler fastsat af staten. SH: Hun har helt ret i at at marked kræver en vis form for regulering, og hvis man åbner et nyremarked i DK, vil det givet være med reguleringer af, hvem kan levere, rådgivning af sælgerne, tilskud til køberne så de fattige ikke udelukkes, ordentlig information om hvilke problemer man har uden den ene nyre osv. Svends: • Generelt ud fra artiklen omkring Satz, så lyder hun meget fornuftigt, men hun tager ikke rigtig stilling til skismaet (brudet) mellem et dårligt liv eller død og markedsgørelsen der formentlig vil betyde, at efterspørgselsoverskuddet kan mindskes væsentligt. (fx indenfor nyretransplantationer). • Hun har helt ret i at marked kræver en vis form for regulering, og hvis man f.eks. åbner et nyremarked i DK, vil det givet være med reguleringer af, hvem kan leve, rådgivning af sælgere, tilskud til køberne så de fattige ikke udelukkes, ordentlig information om hvilke problemer man har uden den ene nyre osv. • I det hele taget er mange af Satz argumenter anvendelige i samfund uden ordetlig demokratisk kontrol. Hvorfor skulle man ikke kunne have et marked for toxic waste, hvis man har strenge regler, der sikrer en forsvarlig opbevaring, og det samme gælder markeder for uddannelse, børnepasning osv. • Og Børnearbejde. Det er klart, at den slags børnearbejde med mange timer i en mine er dårlig, men hvad med opvask, pasning af får på marken, hjælp til at stakke hø, samle kartoer, hakke roer osv. Nogen den tidligere generation end min og mange før den er blevet sat til. 100 • For at sammenligne Sandel og Satz så lyder Satz til at være mere åbnet over for markeder end Sandel, Satz mener at der skal være reguleringer på markederne og ETIK er en ting der skal tænkes ind meget mere end hvad der er tilfældet nu. 101 Opgave 32. Diskuter Marx og Piketty med baggrund i Daron Acemoglu og Jame A. Robinson , 2015, The Rise and Decline of General Laws of Capitalism, Journal of Economic Perspectives 29, p. 328 Kort præsentation af artiklen Daron Acemoglu og James Robinson kritiserer såvel Karl Marx som Thomas Piketty for at opstille en model for kapitalismen, der hverken levner nogen plads til en systematisk rolle for institutioner og politiske faktorer i dannelse af samfundets ulighed og heller ikke tager hensyn til at institutionernes og politikkens udformning er endogen bestemt. Specielt forudså Marx, at reservearméen af arbejdsløse (altså at man ville sørge for at holde en gruppe arbejdsløse, så man kunne holde lønnen nede) ville holde arbejdslønnen på et subsistensniveau (lavt niveau), og dermed indebar, at kapitalismen ville forhindre en stadig forbedring af arbejdernes levevilkår. Dette giver den første prædiktion 1. Den generelle lov om kapitalakkumulation: (a) Svag form: Reallønnen stagnerer under kapitalismen (b) Stærk form: Arbejdskraftandelen af nationalindkomsten falder under kapitalismen. 2. Den faldende protrate (r > g): Efterhånden som kapital akkumuleres falder protraten; Altså, at realrenten overstiger vækstraten i økonomien. 3. Den faldende konkurrence (r-g > 0): Kapitalakkumulation medfører industriel koncentration og mindre konkurrence Empirisk undersøgelse af disse forudsigelser, som Marx fremkom med i sidste halvdel af det 19. århundrede viser, at disse prædiktioner ikke har holdt stik. Så langtfra. Og det forklarer Acemoglu og Robinson med at samtidig med og som en konsekvens af industrialiseringen skete der en teknologisk udvikling og en ændring af institutioner og politik, hvor man bekæmpede monopoler, investerede i infrastruktur og lovgivningsmæssige rammer, patentsystemer [SH: som man dog godt kan mene giver det modsatte resultat] Går til Piketty: A og R angriber Piketty for blandt andet at fejlfortolke data. De skriver: Selvom Piketty's data bekræfter ndings fra den tidligere litteratur, at udbredelsen af ulighed i de sidste årtier, hovedsagligt er drevet af en øget ulighed i lønindkomsten (på grund af ændringer i udbud og efterspørgsel efter kvalikationer i arbejdskraften), hvorimod Pikettys bog tegner et dystert billede af at fremtiden bliver domineret af kapitalindkomst, arvede formuer og millardærer. Det teoretiske fundament bygger på et mix af marxisme og Solows vækst model. Pikettys generelle love: 1. Den første generelle lov: Kapitalens andel af national indkomsten (a) Problemet med 1. f.eks. g er at såvel r, som s og kan få såvel opsparingskvoten s g =r· s g formentligt er indbyrdes afhængige, således at et fald i og realrenten r til at ændre sig. Men Piketty hævder, at da substitutionselasticiteten mellem kapital og arbejdskraft er høj vil eksempelvis følge af et fald i væksten g. r ikke ændres meget som Men A og R indvender, at empiriske studier viser, at såvel korttids- som langtidssubstitutionselasticiteten er under 1 dvs. lavere end forudsat af Piketty. 102 2. Den anden generelle lov: r>g (a) Dvs. at den reale rente r overstiger vækstraten g. Dette er ig. litteraturen tilfældet i en økonomi der er dynamisk ecient og således ikke kan forøge forbruget i alle perioder. Men A og R bemærker at dette er et empirisk spørgsmål, og at nogle studier viser at det ikke er tilfældet for alle OECD lande. (b) A og R viser at r > g er konsistent med konstant eller faldende ulighed, hvilket modsvarer hvad at Piketty mener at uligheden i dette tilfælde stiger. 3. Den tredje og vigtigste generelle lov: r−g >0 vil medføre øget ulighed (a) A og R viser i deres appendix at denne lov kun gælder under yderligere forudsætninger. Herunder ingen social mobilitet mellem arbejdere og kapitalister - Yderligere forudsættes det at kapitalisterne skal opspare hele deres indkomst og renten skal være konstant (b) Pikettys resultat for den tredje generelle lov holder altså ikke. Hvis man ydermere tillader social mobilitet, således at arbejder kan blive kapitalist og en kapitalist kan blive arbejder, så viser A og R at den tredje lov også bliver modsat, og en mobilitet er et empirisk faktum. A og R underbygger deres argumenter med en række regressioner, der sætter spørgsmålstegn ved r − g. Der er dog et problem i og med at de nder insignikante koecienter til de variable der er i interesse. Da modelresultaterne kan være afhængige af den opstillede model, kan de insignifkante resultater skyldes at modellen ikke beskriver data. Derfor er deres regressionsargumenter ikke super stærke. Sammenligningen af Sverige og Sydafrika viser også at hvis man som Piketty koncentrerer sig om om de rigeste 1% kan man komme til at begå alvorlige fejl, og ikke forklare væsentlige ulighedsfaktorer som ændringer i Skill og kravene hertil. Samtidig medfører den interesse for de 1% rigeste at man ikke får fat i de øvrige forklaringer på ulighed og lighed. • Sydafrika: I stedet for at kigge på top-1% af de rigeste i Sydafrika i 1900-tallet, og tænke uligheden var faldende på grund af den nedadgående kurve, er det andre faktorer der har spillet ind. I 1900-tallet var Sydafrika plaget af høj ulighed blandt sorte og hvide. Det var her apartheid var på sit højeste, der gjorde at sorte stort set ikke havde rettigheder til at eje land i landet, og skulle arbejde i guldminer og andre mindre sikre steder. Her var det i stedet den hvide befolkning der sad på det meste af jorden, og k andre til at arbejde. I perioden hvor de hvide ejede 93% af jorden i landet, faldt den rigeste top-1% andel dog stødt, og uligheden steg. (Uligheden falder efter apartheid kollaps). • Sverige: I Sverige skyldes den ændring der er i udviklingen af top-1% rigeste heller ikke udelukkende en ændring i r og g, men i stedet kan dette meget forklares ud fra, at topskatten i Sverige blev forøget fra 10% i 1910'erne, til omkring 30% i 1930'erne, hvilken i allerhøjeste grad har været med til at skære meget af de top-1% rigestes formuer. Desuden prøver Piketty at forklare, at det store fald i kapital i 1900-tallet kommet fra efterspillet fra 2. verdenskrig, men da Sverige ikke var med i krigene, kan dette ikke forklare udviklingen der var i Sverige. A og R argumenterer altså overordnet for at Piketty har begået den samme fejl som Marx begik og undlade at kigge på politik og institutioner. og 103 Diskussion Det ville være en vigtig opdagelse indenfor økonomisk teori, hvis ulighed på tværs af lande og politiske agendaer, kunne forklares ved, at hvis afkastet på kapital var større end raten af økonomisk vækst; nærmere beskrevet som r>g. Desværre er det ikke altid tilfældet at en enkelt ligning, eller teori, kan forklare den ulighed der har skubbet adskillige lande mod større ulighed i meget af 1900-tallet. Selvom der, for mange lande, har været høj korrelation blandt r-g ratioen i løbet af 1900-tallet, betyder det ikke nødvendigvis, at dette er det rigtige mål for, at det Piketty kommer med et væld af teori og ældre data omkring ulighed, men som artiklen nævner det, viser Piketty ikke så meget som ét eneste sted der er korrelation mellem r & g, endvidere at dette skulle påvirke uligheden. Piketty går forkert samme sted, som hans udelukkende er hvad der er sket. forgængere når de fremlægger en fundamental økonomisk teori: han glemmer politik, institutioner, teknologi blandt mange andre facetter, der kan påvirke uligheden. I sin iver for at modbevise Piketty, virker det som om Acemoglu og Robinson glemmer at forholde sig til ligningen der ligger til grund for Piketty's teorier. Ligningen r > g, er en ligning der er brugt særdeles meget i den makroøkonomiske teori, som et måleinstrument for eciens. Det omvendte af teorien, nemlig r < g, vil betyde at der bliver opsparet for meget i forhold til hvad der ellers ville være ecient, og renten ville nemt kunne sættes op til minimum r=g. 104 Opgave 33. Er der et trade-o mellem vækst og indkomstlighed? • Der ndes forskellige måder at opgøre ulighed på. En af dem er ved at kigge på Gini-koecienten. Gini- koecienten fortæller noget om uligheden i et land. Hvis Gini-koecienten er nul angiver det en fuldstændig lige indkomstfordeling i et land, mens en Gini-koecient på 1 angiver en total ulighed. koecient er steget med over 30% fra 1987 til 2016. Den danske Gini- Generelt har tendensen været en stigende ulighed i Danmark og de este andre vestlige lande i de seneste årtier. En del undersøgelser opfatter ulighed som et voksende samfundsmæssigt problem. (Fx Piketty) • De vigtigste årsager til indkomstulighed skyldes forskel i evner, arbejdsindsats, held og arv. Mens indkomstforskelle som følge af forskelle i arvede formuer skyldes ulige muligheder, vil indkomstforskelle som følge af forskellig arbejdsindsats være et eksempel på, at folk med lige muligheder har udnyttet disse muligheder forskelligt. Spørgsmålet om indkomstlighed handler i høj grad om ideologisk ståsted og etik Er det retfærdigt at den hårdt arbejdende virksomhedsejer skal beskattes hårdt for sin arbejdsindsats, mens den dovne unge mand ligger hjemme på sofaen og modtager kontanthjælp. Er det retfærdigt at man arver sig til rigdom? Og modsat er det retfærdigt at beskatte arv, da det i forvejen er beskattet gennem indkomstskatten hos den afdøde? • Men hvad siger økonomerne så om trade-oet mellem økonomisk vækst og lighed? • Arthur M. Okun skriver i bogen Equality and Eciency: The Big Tradeo fra 1975 at selvom der er et trade-o mellem økonomisk vækst og lighed, bør hensynet til menneskelig værdighed alligevel tilsige, at man holder uligheden i skak med progressive skatter, transfereringer, beskæftigelsesprogrammer, forbedringer af den enkelts muligheder, eliminering af racemæssige og kønsmæssige forskellige og forbedre muligheder for lån. • Dog er der i de senere år sat spørgsmålstegn ved om denne trade-o mellem vækst og indkomstlighed faktisk eksisterer af f.eks. Benhabib (2003) og OECD (2014). • Dan Rodrik (2014) pointerer dog at det er vigtigt at man ikke ender i den anden grøft. Han skriver således: Det er godt, at økonomer ikke længere betragter trade-oet mellem indkomstlighed og eektivitet som en jernlov. Vi bør ikke vende fejlen og konkludere, at større indkomstlighed og bedre økonomisk performance altid går sammen. Der er trods alt kun en universel sandhed i økonomi: It depends. Han mener altså at selvom der måske ikke eksisterer et tradeo mellem indkomstlighed og vækst, skal man passe på med at tro at større lighed altid betyder en bedre økonomisk performance og vækst. • I Andersen og Maibom (2016) anføres det således om der er et trade-o i mellem vækst og indkomstlighed afhænger af om man bender sig tæt på den såkaldte mulighedskurve (possibility frontier, dog kan man stille spørgsmål ved det empiriske grundlag) eller inden for denne. Se gur 3.6 • Hvis et land eektivt har forfulgt, en vækststrategi med en nogenlunde lige indkomstfordeling, således at man er tæt på grænsen, punktet A i gur 3.6, så vil man ikke kunne få mere vækst uden at opgive noget indkomstlighed. 105 Figure 7: 106 • Er man f.eks i punktet B kan man både få mere vækst og mere indkomstlighed i området under mulighedskurven og over • V = v0 og til højre for 1 − G = 1 − g0 Hvis man således korrelerer vækst og lighed i lande af type A, dvs. lande på eller tæt på mulighedskurven vil man få en negativ korrelation, og anvendes lande af type B, der ligger indenfor mulighedskurven kan man få en positiv korrelation, og det er selvfølgelig også tilfældet, hvis man blander typerne. • Eksistensen af et sådant konkav mulighedsområde er selvfølgelig i sig selv et empirisk spørgsmål, men Andersen og Maibom (2016) estimerer mulighedskurver baseret på såkaldt stochastic frontier analyses og nder at disse har en negativ hældning. • et etisk problem ved at betale for en vækst med en stigende ulighed. Og de etiske problemer vokser selvfølgelig, hvis den stigende ulighed også Men uanset hvilket landetype man tilhører, er der selvfølgelig indebærer en forværrelse af de dårligst stillede. Et eksempel er når selv mennesker med fuldtidsarbejde må leve på gaden, som det er tilfældet i f.eks. et af de rigeste samfund i verden, nemlig San Fransisco, så har samfundet et problem. • Atkinson (2015) giver 15 tiltag til at formindske uligheden, her kommer nogle af dem: Proposal 3: The Government should adopt an explicit target for preventing and reducing unemployment and underpin this ambition by oering guaranteed public employment at the minimum wage to those who seek it. ∗ Tidligere var det sådan, at man enten havde et fuldtidsjob eller var ubeskæftiget. I dag er det meget mere almindeligt med varierende arbejdstid, beskæftigelsen og virksomhedstilknytning. Begrebet arbejdsløs bliver derved vanskeligt at denere. Målet bør derfor være minimering af ufrivillig arbejdsløshed, dvs. minimering af den tid, som agenterne gerne ville bruge til at arbejde, men ikke kan få lov til, til den givne løn. Proposal 4: There should be a national pay policy, consisting of two elements: a statutory minimum wage set at a living wage, and a code of practice for pay above the minimum, agreed as part of a nationalconversation involving the Social and Economic Council. ∗ Mindstelønnen bør sættes på et niveau, der ikke bare afhænger af dens indydelse på beskæftigelsen, men også af dens inydelse på indkomstfordelingen, og der bør også være et maximumsløn beregnet som en mutiple af den mindste løn i den enkelte virksomhed. I Schweiz havde man folkeafstemning om et forslag om, at CEOs kun måtte tjene 12 gange så meget, som den dårligste betalte medarbejder Proposal 11: There should be a proportional, or progressive, property tax based on up-to-date property assessments. ∗ England har en regressiv ejendomsbeskatning, og den foreslås ændret til en proportional eller progressiv ejendomsskat med hyppige ejendomsevalueringer. Udover dette anser Atkinson det for meget væsentligt at investere i uddannelse og træning. Disse proposal er selvfølgelig nogle der kan skille vandende blandt politikkere og i regeringer, hvilket kan gøre det svært at få indført, men blot det at en af vor tids bedste og mest fremtrædende økonomer drister sig til at komme med sådanne forslag viser problemets alvor. Der vil altid være et trade-o mellem vækst og ulighed så man skal vælge. 107 Opgave 34. Diskuter forskellen på Beckers forslag og Roths forslag til en formindskelse af overefterspørgslen efter nyrer til transplantation og inddrag Sandels og Satz synspunkter på organmarkeder. • Becker foreslår: Lav organdonation til et marked Fordel: Fjerne næsten alt excess demand. ∗ Dem der er villig til at betale får en nyre. ∗ Det kan give fattige en indtægt Ulempe: Fattige har ikke råd til det > ulighed i hvem der får lov at leve. ∗ Fattige kan føle sig nødsaget til at donere. Er det etisk forkasteligt? Incitamenterne er ikke altid som økonomerne forudsiger (eksempel med kemisk aald i Schweiz uden incitament vs med incitament > uden ville folk gerne fordi de så det som en borgerpligt, med ville de ikke fordi de følte det som et valg). Elias og Becker argumenterer for at et marked er meget bedre middel mod overefterspørgsel end et system baseret på altruistiske personer og kampagner for at få ere donorer. De opremser en række punkter for hvorfor det ikke vil være forkert med et marked (Rugemødre, lejesoldater, okay indtægtskilde for fattige, man undervurdere ikke risikoen(rygning studie), tror heller ej at antallet af altruistiske donorer skulle falde) Øge udbuddet gennem betalinger vil eliminere ventetiden. • Eksempel på et marked for organer: Becker and Elias (2007) er klar fortaler for markedgørelse af organmarkeder. Det skal gøres legalt så vi kan få udryddet det sorte marked og organerne bliver handlet til fair priser, som ethvert andet marked. > Dog kan det stadig være svært at sætte en global markedspris for organer, da der formentligt i mere uciviliserede dele af verden, altid vil eksistere en skyggepris. Becker og Elias har estimeret et efterspørgsels gap på ca. 7000 transplantation. Hospitalomkostningerne ved en nyretransplantationer er ca. $160.000 > disse bestemmer reelt efterspørgslen. Vi ser et gap på Q0 ' − Q0 på nedenstående gur. Tillader man betaling kan donoreren kompenseres for: ∗ Risiko på død under transplantationer $5000 ∗ Mister 4 ugers løn $2700 ∗ Nedgang i livskvalitet $7500 ∗ Total $175.200. > Med den nye markedspris vil dette reducere excess demand betydeligt og potentielt udrydde excess demand. 108 Figure 8: • Roth foreslår: Lav et byttemarked. Roth ser en række problemer grundet termet repugnance. ∗ Mange anser det som frastødende at markedsgøre eg. organer. ∗ Han nævner især tre forhold der er problematiske: Objektivisering, Tvang og samfundsmæssig glidebane. Roth foreslår et markedsdesign for at imødegå repugnance (Som han anser som værende en ligeså stor barriere for udvikling som eg. teknologi), så det ikke får en negativ/begrænset eekt på markedet. Så hvis jeg mangler en nyre, har en villig donor men vi ikke er et match, kan vi søge efter nogle andre i samme situation ∗ Fordel: Rette incitamenter (det er som at donere til en slægtning), løser NOGET af excess demand problemet · Muligt problem: Hvad hvis man ikke har en, der kan donere for sig? Får man så aldrig en nyre? ∗ • Ulempe: Løser ikke al excess demand problemet > vil stadigvæk være basis for et sort marked. Hvis man ikke ændrer noget ved det eksisterende system vil dem, der hverken har råd eller har nogle slægtninge, ikke blive dårligere stillet, da de således aldrig kan få et organ ved Roths system, hvilket de godt kunne før, da der var en venteliste. Er det så pareto ecient at skifte til Roths system? Hvad betyder mest? Fairness eller dem med penge/mulighed får det de vil have (samtidig med at ere vil få organer, det er bare en skævvridning af HVEM) 109 Riges liv er ikke mere værd end fattige > Bliver det derfor et problem med et marked? Opvejer de positive eekter af ere organdonationer og at man undgår et sort marked? ∗ Men kan man nogensinde helt undgå et sort markedet? Eller kommer der blot en ny og lavere markedspris, samtidig med et nyt sort marked? • Konklusion Repugnance af visse markeder fungerer som en begrænsning for udviklingen af disse, samt en hæmmer for økonomien generelt. Man kan se på frastødelse af markeder, som hvilket som helst anden begrænsning for udvikling, såsom en svær teknologisk barriere. De kan sammenlignes på den måde, at det er et marked vi kan se for os, men muligvis ikke kan opnå. Spørgsmålene er: ∗ Hvilke løsninger er mulige og ønskelige, hvordan kommer vi dertil, hvad er tidshorisonten, med hvilke omkostninger og til hvem samt hvad skal der sket i mellemtiden? Et markedet for salg af organer er og vil fortsat være en gråzone. Der vil altid være to modsatrettede argumenter i sagen. Chancen for udnyttelse af de mest ressourcesvage i samfundet samt de resterende etiske perspektiver versus muligheden for at redde ere menneskeliv. Spørgsmålet er hvad der vægtes højest? Sandel: • Sandels argumenter mod markedsafgørelsen har fem ikke helt uafhængige ben at stå på: 1. Argumenter baseret på den eksisterende skæve indkomst og formuefordeling. (a) Der er jo ikke nogen tvivl om at en skæv indkomst- og formuefordeling har betydning for et markeds eektivitet i henseende til at skabe Paretooptimale løsninger, så på det punkt må konomer have vanskeligt ved at argumentere imod Sandel, selvom man selvfølgelig, som Becker og Elias ovenfor, kan anvende et argument om, at den hjemløse, der står i kø for en anden, bliver bedre stillet ved at blive betalt for at stå i kø. Men det bygger jo på den forudsætning, at man ikke på anden vis kan eller bør bringe den hjemløse ud af den situation han er i. (b) I dette tilfælde kan man snakke om, at fattige måske føler sig tvunget til at sælge deres nyre for at 'overleve' eller få mad på bordet. 2. Argumenter baseret på en påstand om, at en kommercialisering af et produkt ændrer produktets karakter. (a) Det er også korrekt, at mange studier af Becker og efterfølgerne ofte antager, at markedet ikke ændrer produktets karakter. En nyre er en nyre. Men her er Sandels argument, at der er noget der har en særlig status præcis, fordi man ikke kan købe det. Det gælder (rigtige) venskaber og en Nobelpris. Det er måske nok rigtigt, at man ikke kan købe rigtige venskaber, men at falske venner falder fra, når formuen forsvinder. Men har nogen opdaget, at de ikke var sande venenr før det sker? Mht. Nobelprisen er det selvfølgelig også rigtigt, at man ikke kan købe en Nobelpris. Der er dog ikke nogen tvivl om, at forskningsteams der har en rig onkel, universitet, medicicalrma eller anden sponsor bag sig har en større sandsynlighed for at høste en Nobelpris end mindre heldige teams. (Bitter Svend over AU funding?). 110 (b) Vil man pludselig bare anse en nyre som et hvilket som helst andet produkt? - Måske bliver det helt mainstream at sælge sin nyre for fx unge mennesker for at nansiere deres ungdom? 3. Argumenter for, at kommercialiseringen formindsker altruismen og samfundsfølelsen. (a) Hvis man pludselig kan få penge for at sælge sin nyre, fremfor at donere sin nyre, vil ere nok vælge at sælge den i stedet for. Det mindsker altruismen! 4. Argument for, at incitamenter ikke altid virker, som økonomerne forventer. (a) At incitamenter virker forskelligt og ikke altid virker kan ikke være nogen overraskelse for en økonom. Og det er jo i høj grad et spørgsmål, der kræver en empirisk afprøvning. Sandel er udemærket klar over, at selvom der ikke eksisterer et marked for nyrer, ægteskaber, børn osv. er der en (skygge)pris på sådanne forhold, men han mener, at skyggeprisen bør holdes i skyggen og ikke blive oentliggjort ved hjælp af et marked. 5. For det femte er det frastødende og umoralsk, at kommercialiserer visse menneskelige forhold. (a) Sandel vil helt sikkert argumentere for at det er umenneskeligt at kommercialisere nyretransplantationer. Debra Satz Debra Satz bliver spurgt ind til markedet for nyrer. Hertil siger hun, at hvis man lukker markedet for nyrer, kan det føre til mere frihed for mennesker overordnet set, selvom man har lukket for lige denne form for frihed. Hendes kommentar liger Titmuss' argument omkring markedet for bloddonation. Titmuss påpeger, at der vil være mindre frivillig bloddonation og blodt vil doneres vil have en dårligere blodkvalitet, da folk vil have ere incitamenter til at skjule eventuelle sygdomme. Titmuss havde ingen mekanismer til at bevise, hvorfor hans resultater ville holde. Der er nu en del mere support, som støtter op om, at man ved at tilføje endnu en mulighed vil gøre de andre muligheder mindre tilgængeligt. Konklusion: Satz er enig i Sandel på det punkt, at et marked for nyrer fortrænger altruismen. Derudover er der et kvalitetsproblem og problematikken om ufrivillig donation (mad på bordet for fattigere). 111 Opgave 35. Diskuter udviklingen i indkomst- og formuefordelingen i Danmark og verden og inddrag John Cochrane og Michael Roberts synspunkter på evt. løsninger. Udviklingen i indkomst- og formuefordeling for Danmark og resten af verdenen: • I bogen så vi at indkomstuligheden har været kraftigt stigende både i USA og DK de sidste 30 år. Ginikoecienten er steget ca 30% for begge lande, hvor den amerikanske i forvejen dog er ca. 50% større end den danske, hvilket indikerer en meget større ulighed i USA end i DK. • I forhold til formuefordelingen så man at den var blevet markant skævere i USA over de sidste 30-40 år. I USA udgør formuen fra de 10% rigeste 73% af den samlede formue • Det samme billede gør sig dog gældende i DK, hvor de 10% rigeste ejer 69% af den samlede formue Det er dog vigtigt at pointere at formuer i kollektive pensionsfonde ikke er medtaget i DK, derfor skal man tage disse tal med et vidst forbehold. John Cochranes synspunkt: • Kort om Cochrane: John Cochrane er en amerikansk økonom med speciale inden for nansiering samt makroøkonomi. Han er tidligere professor ved University of Chicago, og er idag Rose-Marie and Jack Anderson Senior Fellow ved Hoover Institution ved Stanford University. • I artiklen sætter Cochrane spørgsmålstegn ved, hvorvidt økonomisk ulighed for det første er et problem og for det andet, hvorvidt der ndes en løsning herpå. Venstreøjen i USA mener at ulighed er et reelt problem og at løsningen herpå er økonomisk omfordeling gennem indkomst- og kapitalskatter. • Cochrane sætter sig dog kritisk overfor omfordeling ved at benytte argumentationsteknikker som stråmænd og analogier. Eksempelvis argumenterer han for, at der meget simpelt ikke er penge nok til en global real omfordeling - derfor er omfordeling ikke en løsning i Cochranes øjemed. • Derudover skildrer Cochrane, at økonomisk ulighed har fået pedistalplacering i økonomisk forskning. Han mener ikke, at ulighed er roden til de problemer, som hans opponenter skitserer. Derved foreslår han altså et mere nuanceret syn på problematikkerne, ulighed bringer med sig: Fever is a problem. So medicine shall consist of reducing fevers. Cochrane argumenterer for at selvom the 1 percent bliver rigere og at uligheden i samfundet stiger, så sker det på baggrund af at personer som Steve Jobs og lignende skabte deres formuer ved at tage en tusindedel af det consumer surplus de har skabt. 112 • Samtidig argumenterer Cochrane for at en anden årsag til den stigende ulighed er stigningen i returns to skill, som især skyldes dårlige folkeskoler, lærernes fagforeninger og begrænsninger på højtuddannede immigranter. Han mener dog ikke at mere uddannelse i sig selv er ubetinget godt, hvis befolkningen foretager de forkerte Han mener altså at der skal være et incitament til at vælge at læse til f.eks. computerprogrammør frem for at læse kunsthistorie og at dette incitament forsvinder hvis man indfører gratis uddannelse. På denne måde vil det sågar føre til endnu højere skill premiums. uddannelsesvalg. • Cochrane peger på, at ulighed omhandler mere end de tal, der indrapporteres til skattemyndighederne. Han pointerer at forbrug er meget mere ligeligt fordelt/atter end indkomst/formue, samt at de rigeste i befolkningen for det meste reinvesterer eller giver væk af deres formue. Han har svært ved at se, hvordan dette skulle kunne betragtes som værende et problem. • Cochrane argumenterer for at større skatter på indkomst og formue ikke løser sociale problemer, hvilket er korrekt. - Men hvis pengene nu bruges fornuftigt, ville det måske kunne løse nogle af problemerne. • Cochrane argumenterer for at de super-rige har gjort sig fortjent til deres rigdom. Den rigdom har de fået fordi de har været bedre end andre og nogle gange mere heldige end andre. De riges rigdom er ikke kommet på baggrund af nepotisme og lobbyisme. • Cochrane mener at den måde man får løst uligheden i samfundet på, er ved at give de fattige mere uddannelse og ikke beskatte de rige yderligere. Cochrane mener dog samtidig ikke at man skal sørge for at give folk mulighed for frit at uddanne sig ved f.eks. at tilbyde gratis uddannelse, fordi det vil ende ud i at folk vil uddanne sig til ubrugelige ting som kunsthistorikere, fremfor nyttige positioner i det kapitalistiske samfund som f.eks. økonomer. Derudover mener han at den uddannelse der skal tilbydes skal tilbydes til en bestemt del af samfundet, han mener har størst chance for at gøre brug af uddannelsen, det indebærer f.eks. ikke kriminelle, narkomaner og enlige mødre. ∗ Min holdning: Det er et kæmpe problem, da man så risikerer at de aldrig nogensinde kommer videre. Mange ville i disse sårbare situationer måske også udnytte tilbudet om uddannelse til at komme ud af problemer og starte en fornuftig tilværelse. - Uden en uddannelse kan man frygte, at man forbliver i de dårlige miljøer. Det er et generelt argument fra Cochrane at man skal sørge for at give økonomiske incitamenter til dem der allerede er rige nok til at det kan svare sig for dem at f.eks. arbejde mere, hvor økonomisk bistand som f.eks. gratis uddannelse og sundhedspleje er spildt på fattige mennesker. Cochrane argumenterer også for at de rige giver ere penge tilbage til samfundet, så derfor sørger de rige også at give til dem der er fattige, hvilket yderligere kan forsvare hvorfor det ikke er nødvendigt at hæve indkomstskatten. (Lidt voldsomt) Michael Roberts synspunkt: • Kort om Roberts: Michael Roberts er en engelsk marxistisk økonom og forfatter, der har skrevet en række bøger om kapitalisme fra en marxistisk synsvinkel. • I Michael Roberts blogindlæg The Waltons, John Cochrane and the road to serfdom præsenterer han forskellige rapporter, der kaster lys på uligheden i verden i dag. Samtidig introduceres keynesianernes, samt de neoklassiske økonomers syn på ulighed, inden han præsenterer sit eget synspunkt på uligheden. 113 En af de rapporter Roberts fremhæver er en rapport fra Oxfam International (Oxfam International er en organisation der forsøger at bekæmpe fattigdom og ulighed internationalt), der har fundet at de 85 rigeste personer i verden, har en lige så stor kombineret formue som de 3,6 milliarder fattigste. En anden rapport Roberts fremhæver er lavet af OECD. OECD skriver i deres rapport at uligheden er tilbage på det niveau fra 1820. De konkluderer at det er fra 1980'erne at uligheden igen er steget og det er sket fordi globaliseringen, tog sit indtog i den periode. Under nanskrisen var det bolig boblens brist der mest påvirkede den gennemsnitlige husstand i USA, hvorimod de rigeste 400 blev påvirket af de faldende aktiekurser. I forløbet efter nanskrisen falder rigdommen for den gennemsnitlige husstand med yderligere 2% (20102013), hvorimod de rigeste 400 bliver hele 45% rigere. Dette skyldes bl.a den store stigning som ak- tiekurserne havde efter nanskrisen. Den gennemsnitlige husstand er siden 1992 ikke blevet rigere, da de i reale termer har samme mængde rigdom. Forbes 400 rigeste har en rigdom på hele 2,1 trillioner dollars hvilket svarer til 60% af den nederste del af amerikanske familiers rigdom. • Roberts er ikke enig i Cochranes argumenter, først og fremmest pointerer han at den eneste grund til at de rige giver tilbage til de fattige er fordi de kan få et skattemæssigt fradrag eller fordi de vil støtte ting som de godt kan lide, som f.eks. universiteter hvor de selv studerede. • Roberts argumenterer også imod Cochranes argument om at det er ikke et problem at uligheden stiger så længe at alle samfundsklasser bliver rigere, et problem hertil er også ifølge Roberts at grådigheden fra banker og investeringsfonde rammer også de fattige, bl.a. så man det under nanskrisen, hvor det gik ud over de fattige også, hvor de havde lånt penge de ikke kunne betale tilbage, når husmarkedet kollapsede og deres huse ikke længere var det værd som der var forventet. • Cochrane mener ikke at man skal være bange for at de fattige går imod de rige. Han kommer med et eksempel om en Thomas Jeersons farm hvor at uligheden var ret stor, men her var det Jeerson selv der startede en revolution imod uligheden, og ikke slaverne i sig selv. Han mener derfor at de fattige aldrig har prøvet at overstyre de rige. • Roberts mener dog ikke dette er rigtigt og kommer med eksempler som den franske revolution og bøndernes oprør i det 1381 England. Han er dog enig i, og stiller spørgsmålstegn til Walton, for hvis Walton ikke har noget at frygte fra de fattige, hvorfor prøver de så at stoppe protester osv. Roberts konkludere at de rige er mere bekymrede end Cochrane mener. Opsummering på løsningsforslag: • I forhold til Cochrane er en løsning i forhold til DK det her med at man decideret skal vælge de lukrative uddannelser da disse giver de bedst betalte jobs og ikke er ligegyldige. Da DK er et forholdsvist rigt land i forhold til gennemsnittet i USA hvilket kan ses på indkomstuligheden samt vi i DK har gratis (endda betalt) uddannelse så vil man ifølge ham altså muligvis kunne formindre uligheden. Som Cochrane hentyder til, så skal man ikke tage ere penge fra de rige men decideret sørge for at de fattige bliver vejledt i en anden retning i forhold til de valg de tager. Grundet de midler vi har tilgængelige i DK i forhold til USA så vil det være nemmere at snævre indkomstuligheden i DK fremfor i USA. • I forhold til Roberts argumenter om at man skal beskatte de rige mere så de vil have mindre penge til overs efter skat, så vil det betyde at indkomstuligheden efter skat selvfølgelig vil mindskes. Men igen så gør dette ikke decideret noget ved dem med lav indkomst da de hverken får ere penge eller bliver beskattet mindre. 114 Roberts argumenterer også for at planøkonomi er vejen frem, da man så kan planlægge ud fra ens behov og ikke ud fra tanken om prot, hvilket han mener er det bedste incitament for alle. ∗ Problemet er bare at planøkonomi aldrig har været en succes, tanken er smuk, men i praksis kan det bare ikke fungere. • Min holdning: Roberts og Cochrane er to modpoler i denne diskussion. Det optimale vil nok være et punkt i mellem de to, hvor man sørger for at uligheden ikke bliver for ekstrem, hvilket for eksempel kan løses med progressive beskatninger, højere skatter på gevinster på boliger osv. I mange samfund vil bedre uddannelse også gøre meget ved problemet. Det gør sig især gældende i for eksempel USA, hvor der er en høj grad af brugerbetaling, hvilket må tænkes at holde mange tilbage fra at studere på universitet. Det bliver selvfølgelig en ond spiral af negativ socialarv, fordi man ikke kan bevæge sig ud af sine forældres samfundslag. Andre argumenter: Arveskat? > Nedbringer uligheden af formuefordelingen, men er det etisk i orden at dobbeltbeskatte arv? - Jeg synes ikke, men hvis alternativet er højere skat på arbejde, så vil jeg hellere beskatte arv. 115