Uploaded by Niels Bjerring Levring

SM-DISP

advertisement
Eksamensspørgsmål - Scientic Methods 2021
June 21, 2021
Opgave 1.
Diskuter begrebet økonometriske modeller med begrænset identikation.
Økonometriske modeller med begrænset identikation kan beskrives som økonometriske modeller, hvor parametrene ikke kan observeres, men derimod kan estimeres.
Illustration: Betragt en udbuds- og efterspørgselskurve
Pi
Pi
•
Endogene variable
Pi
og
Qi
= ac + aq Qi + ax Xi + az Zi + ui udbudsfunktion
= bc + bq Qi + bx Xi + bz Zi + ei efterspørgsel
og eksogene variable
Xi
og
Zi
og 1 (konstant)
Ikke identicerede: De to relationer er fuldstændig ens, bortset fra navngivningen af de ukendte parametre
Ordensbetingelsen: Kræver, at antallet af eksogene variable
Xi , Zi og1(konstant) i modellen er større end
eller lig antallet af forklarende variable i hver relation.
∗
Her: antallet af eksogene variable 3. Antallet af forklarende variable er 4 i begge relationer.
Pålæg apriori restriktioner
∗
∗
Udeluk
Xi (ax = 0)
og
Zi (bz = 0)
Dermed: Antallet af forklarende variable i begge relationer lig med 3, og de er begge identicerede
ig. ordensbetingelsen for identikation.
∗
Identikationen fremkommer som følge af, at
·
·
Ændringer i
Ændringer i
Xi
Zi
ytter efterspørgselskurven, men ikke udbudskurven
ytter udbudskurven, men ikke efterspørgselskurven. Forinden a priori restrik-
tionen ville ændringer i de to eksogene variable ytte begge kurver.
1
•
Alternativ a priori restriktion:
(Pi − 2Xi )
(Pi − 2Xi )
ax = 2
= ac + aq Qi + az Zi + ui
= bc + bq Qi + (bx − 2) Xi + bz Zi + ei
Begge relationer identiceret med mindre
og udbudsfunktionen af en ændring i
•
Xi
(bx − 2) = 0
udbudsfunktion
efterspørgsel
> i dette tilfælde er eekten på efterspørgsels-
den samme.
Pointe: Identikation af en models parametre kan således ske, ved at man pålægger a priori restriktioner.
Efter identicering af alle relationer: muligt at estimere parametrene i disse.
∗
Problem med netop identiceret model: ikke muligt at teste disse restriktioner, da modellen ikke
ax = 0 (eller 2). Derimod kan man
H0 : aq = 0 og under H1 : aq 6= 0.
er identiceret, hvis ikke
identiceret under både
teste om
aq = 0,
fordi modellen er
Det er derfor klart: En model, hvor det er nødvendigt at pålægge relativt mange a priori restriktioner
og specielt mange a priori restriktioner med et spinkelt informationsgrundlag for at sikre modellens
identikation og estimation af de resterende parametre, må betragtes med en megen stor skepsis.
∗
Test af sådanne modeller bliver i overvejende grad en test af de restriktioner, der er pålagt a priori,
og ikke, som man ofte forledes til at tro, af resterende parametre, der estimeres på baggrund af data.
•
Derefter overgang til Lucas Kritik og udviklingen i makroøkonomisk teori, hvor der er modeller med en meget
svag identikation (DSGE).
Desværre har udviklingen i makroøkonomisk teori medført, at mange af de makromodeller, der udvikles
på universiteter og forskningsinstitutioner, præcis er modeller med en meget svag identikation.
∗
Lucas kritik heraf: Lucas kritikken anfører, at empiriske relationer, der er fundet ud fra historiske
data, f.eks.
den "Keynesianske"forbrugsfunktion, ikke kan anvendes til politikanbefalinger, fordi
sådanne relationer ikke er invariante over for ændringer i den førte politik.
·
Invariant:
en størrelse, der ikke forandres For lineære sammenhænge gælder, at hvis den
uafhængige variabel vokser med en fast størrelse vil den afhængige variabel vokse med en invariant størrelse.
2
• Hvilket leder til spørgsmålet om disse modeller er immune over for for Lucas kritik?
For ganske vist er modellerne, som anført af Romer (2012), baseret på optimerende agenter, der optræder som
mikroteorien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med
virkelighedens agenter. Samtidig er "policy" beskrevet ved en reaktionsfunktion for de pengepolitiske myndigheder, der nødvendigvis kun kan give et meget forsimplet billede af sammenhængene til den økonomiske
politik. Desuden vises der i meget forskning vedr. de økonomiske agenters adfærd, at de abstraktioner, der
anvendes i DSGE-modeller, er meget forsimplede i forhold til virkeligheden og desuden basseret på et meget
tyndt datagrundlag.
DSGE-modellerne er ligesom de modeller som Lucas kritiserede, nemlig de såkaldte
Keynesianske makromodeller, er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke
på forhånd kan hævde, at fordi de optimerer en kriteriefunktion under bibetingelser, er de stabile over for
politikinterventioner. Det skal afgøres ved test for super eksogenitet.
I forhold til modeller med begrænset identikation har vi at det er nødvendigt at fremsætte en den a priori
restriktioner for således at opfylde ordensbetingelsen og således blive en identiceret model. Men idet vi gør
modellen indenticerbar, spænder vi lidt ben for os selv ift. de test af modellen vi gerne vil gennemføre. Vores
test bliver således et test af de restriktioner vi har pålagt modellen og ikke et af de resterende parametre der
estimeres på baggrund af data. Hvorvidt dette er fyldestgørende, kan diskuteres, idet vi som regel vil teste
vores modeller uden a priori restriktioner. Det er muligt, og sandsynligt, at man kan foretage en yderligere
udvikling af DSGE-modellerne, så de bliver anvendelige, men det forekommer at være en lang og besværlig
vej at gøre dem til mere end smukke, og i en vis forstand teoretisk attraktive, modeller.
Ordrebetingelsen: Antallet af eksogene variable og en konstant skal være større end eller lig med antallet af
forklarende variable i hver relation.
3
Figure 1: Opgave 2
Opgave 2.
I bogen Videnskabelige metoder i økonomi kap 1. ndes gurerne 1.1 og 1.2
I empiriske økonomiske analyser rapporterer man ofte en estimeret model og angiver, hvor mange signikante
(forskellig fra nul) de enkelte parameterestimater er. Dette gøres typisk med et antal stjerner, *** for signikant
på et 1% niveau, ** for 5% niveau og * for 10% niveau. Hvis der ingen stjerner er, anses parameteren for at være
nul. Man kan alternativt angive p-værdien, der angiver sandsynligheden for at få en værdi af teststatistikken, der
er ligeså ekstrem eller mere ekstrem end den værdi, der observeres, givet at
•
er sand.
H0
Kort sagt,
er den maksimale sandsynlighed for at forkaste H0, hvis denne er sand.
Hvis man
Det betyder, at desto større p-værdi, desto større signikansniveau kræves der for at forkaste
indebærer en stor p-værdi, at vi ikke forkaster
•
H0
Signikansniveauet
αk
H0 .
forkaster en sand H0 begår man en Type-I-fejl. Hvor en Type-II-fejl er hvis man ikke forkaster en falsk H0.
•
Størrelsen af et test (size på engelsk)
dvs.
α,
er den faktiske sandsynlighed for at forkaste H0, hvis denne er sand.
α ≤ ak .
En Type-I-fejl indtræer hvis man forkaster en nulhypotese som er sand, dvs:
P (Type-I-fejl) = P (forkastH0 |H0 sand) = α
hvor
α
er vores signikansniveau er altså hvor stor en sandsynlighed vi vil tillægge at forkaste vores H0 er sand.
En Type-II-fejl indtræer, hvis man ikke forkaster en falsk H0, dvs.
hypotese. Sandsynligheden for en Type II fejl benævnes ofte
β,
hvis man forkaster en sand alternativ
dvs.:
P (Type-II-fejl) = P (acceptereH0 |H0 falsk) = β
Styrken af et test (power) er den faktiske sandsynlighed for at forkaste H0 hvis den er falsk. Styrken er således
1−β
. Vi har derfor for en høj styrke tæt på 1, at sandsynligheden for en Type-II fejl er tæt på nul, hvilket som
4
sagt betyder at testen med stor sandsynlighed forkaster en falsk nulhypotese. Vi kan således øge styrken af et test
ved at hæve sandsynligheden for en Type-I-fejl, som således sænker sandsynligheden for en type-II-fejl, hvilket øger
styrken af testet. Vi kan også øge styrken ved at øge stikprøvestørrelsen.
Bayes sætning også kendt som loven om den inverse sandsynlighed er udtrykt ved:
P (Aj |B) = P (B|Aj )
P (Aj )
P (B)
Bayes sætning giver således et udtryk for a posteriori sandsynlighederne, dvs. sandsynligheden for A , når det vides,
at hændelsen B er indtruet. Dette er særlig relevant når vi vil undersøge vores type-I og II fejl ifm. vores power
og size af testene. Grunden til at vi bruger dette er at vi kan få små p-værdier under H0 hvilket er et udtryk for
at H1 er mere sandsynlig. Men ved at nde a posteriori sandsynligheden medtager vi styrken af et test og nder
således et mere retsvisende billede.
Vi har nu (i de to gure)
τ = 1,
vi, at de betingede sandsynligheder for
H0 ,
hvis vi forkaster
τ =0
givet at
H0
mens
τ = 0, hvis vi ikke forkaster H0 .
HA er sand, hhv:
Herved har
er sand og givet
P (τ = 0|H0 ) = 1 − α
P (τ = 0|HA ) = β
Anvender vi bayes sætning kan vi nu nde hver a posteriori sandsynlighed som vidst i gurerne, for hhv.
HA
er sand givet tetest ikke forkaster
H0 :
dvs.
(τ = 0)
H0
og
er:
πH0
πτ 0
πH
p(HA |τ = 0) = p(τ = 0|HA ) A
π τ0
p(H0 |τ = 0) = p(τ = 0|H0 )
Hvor
π
er a priori sandsynligheden for hhv.
at
τ = 0
og at
H0
og
HA
er sand.
sandsynlighederne er forholdet mellem a priori sandsynlighederne ganget med
perisk test ikke kan forkaste
Figur 1: Viser
H0 .
P (H0 |τ = 0) =
(1−α)πH0
, som angiver a posteriori sandsynligheden for at
(1−α)πH0 +(1−ρ)(1−πH0 )
H0 , dvs. τ = 0
πH0 = 0.25, 0.5, 0.75
sand, givet at testet ikke afviser
a priori sandsynligeder
Forholdet mellem a posteriori
1−α
når man som følge af et emβ
er afbildet ovenfor styrken for en size
α = 0, 05
H0
er
og for 3 forskellige
Hvis ens a priori sandsynlighed for at H0 er sand er høj, så er power mindre vigtigt end hvis ens a priori sandsynlighed er lav. omvendt viser det også at hvis styrken er tilstrækkelig høj er a priori sandsynligheden mindre vigtig.
Dog skal styrken gerne være over 0:9 og helst over 0:95 for at have en lav a priori. Den viser også, at hvis styrken
er = 1 er a priori ligegyldig; vi vil altid forkaste falske H0 og sandsynligheden for at H0 er sand givet at vi ikke har
forkastet er altså 1 (vi begår ingen type I eller II fejl)
Det betyder at hvis testet har meget høj styrke, og testresultatet indebærer, at man ikke forkaster
5
H0 ,
vil der
være en høj sandsynlighed for, at
styrken
ρ = 0.5
H0
er sand, hvis man a priori har rimelig tiltro til
vil a posteriori sandsynligheden kun være ca 65% for at
potese 50% sandsynlighed a priori, dvs.
Hvis
ρ = α = 0.05,
πH0 = 0.5,
hvor
πH0 = 0.5,
H0
H0 ,
dvs.
πH0 ≥ 0.5.
Men er
er sand, når man tillægger denne hy-
dermed har alternativ hypotesen samme a priori sandsynlighed.
vil a posteriori sandsynligheden
P (H0 |τ = 0)
kun være
= 0.5,
dvs.
lig
med a priori sandsynligheden, hvilket siger at testen ikke er informativt.
Figur 2: Viser
P (H0 |τ = 1) =
givet at testet afviser
H0 ,
dvs.
απH0
som angiver a posteriori sandsynligheden for at
απH0 +(1−β)(1−πH0 )
τ =1
er afbildet overfor styrken
ρ
for en size
α = 0.05
H0
er sand,
og for 3 forskellige værdier
af a priori sandsynligheden.
πH0 = πHA = 0.5 vil a posteriori
= 0.5, hvis styrken er lig med size (ρ = α = 0.05) → ingen informationsværdi.
Hvis vi derimod har en høj styrke ρ = 0.9 vil a posteriori sandsynligheden være meget lav, med en a priori sandsynAf guren fremgår det at i tilfælde af at a priori sandsynlighederne er ens dvs.
sandsynligheden
P (H0 |τ = 1)
være
lighed på 0.5
Man kan således fra gur 2, kun have tillid til et testresultat hvis styrken af testen i den konkrete situation er høj.
Uden at man kender testens styrke, er der således begrænset information i stjernerne eller, for den
sags skyld, i deres fravær. Styrken af et test kan forbedres ved at inddrage ere observationer eller ved at ændre
signikansniveauet
α (øge signikans / maksimale sandsynlighed for at begå type 1 fejl).
Samlet set viser disse to g-
urer at jo større teststyrken er jo mere information bidrager det med i forhold til opdateringen af sandsynlighederne.
Af gur 1 fremgår det at i tilfældet af at man får en a posteriori sandsynlighed på 0.9 og har benyttet
α = 0.05
og
ρ = 0.7
har man haft en implicit a priori på 0.75.
→
Heraf fremgår det at selvom man ikke har
valgt en eksplicit a priori vil denne stadig have betydning for den a posteriori sandsynlighed man ender ud med.
Afhængig af størrelsen af denne a priori samt testets styrke kan denne implicitte a priori have stor betydning for
testens resultater. Man kan også se at hvis styrken er lav, så har a priori sandsynligheden stor betydning for ens
resultat eller fortolkning af resultatet
Selvom man ikke eksplicit anvender Bayes sætning, vil et valg i forbindelse med et hypotesetest altid
have en implicit prior.
Hvis denne implicitte prior er meget stor eller meget lille, er testens resultat i høj grad
bestemt af ens a priori holdninger. Størrelsen af den implicitte a prior, påvirker testets resultat, som vist ovenover.
6
Opgave 3.
Diskuter begreberne encompassing og kongruens og angiv deres brug i den såkaldte London School
of Economics model
Et af de større grundlæggende brud med den klassiske statistisks opfattelse er, at opfatte et givet forslag
til en økonometrisk model, som et led i en progressiv forskningsstrategi, hvor modellen dels skal være i overensstemmelse med data (kongruent), dels skal kunne forklare (encompas) de tidligere kongruente modellers forklaringer.
Hermed bliver de sædvanlige angivelser af den foreslåede models opfyldelse af kriterier for fravær af autokorrelation,
heteroskedasticitet, ikke normalitet, samt graden af signikante parametre kun et tjek på om modellen er kongruent
med data, og diskussionen om modellens anvendelighed bliver et spørgsmål om den kan forklare alternative modellers resultater, dvs. encompassing.
Kongruens (overensstemmelse): En empirisk model er kongruent, hvis den er i overensstemmelse med data,
der udgører, eller bør udgøre, det empiriske grundlag (statistisk signikans).
Encompassing (omsluttende): At en empirisk model er omsluttende (encompassing) i forhold til de rivaliserende modeller indebærer, at den kan forklare disse rivaliserende modellers egenskaber og resultater, hvorved disse
modeller bliver overødige (økonomisk signikans).
Man inddeler den økonometriske procedure i to faser:
Den første fase er den eksplorative fase, der består i at indsamle informationer fra ere, ofte mange, kilder
om hvilke teorier der ndes mm. Man opstiller herefter en foreløbig model, hvis parametre estimeres, man foretager
misspecikationstest og tester de hypoteser, som tidligere er blevet testet af andre, eller som man selv har opstillet.
Hvis misspecikationstestene slår alarm, hvis resultaterne ikke passer med de resultater, der hidtil er opnået, eller
hvis de ikke passer med de forestillinger, man selv har, ændrer man modellen, inddrager nye variable OG transformerer dem i en trial and error proces, der fortsætter indtil man enten har nået en model, som man synes ser
fornuftig ud, eller må opgive. Det sidste rapporteres sjældent.
Den anden fase er Evalueringsfasen, som er evaluering af, hvorvidt den model, man har fundet er i overensstemmelse (kongruent) med de data, man har til rådighed. I visse tilfælde anvender man således den estimerede model
på et nyt datasæt.
Og endeligt undersøger man, om modellen kan forklare de resultater, som andre alternative
modeller har opnået. Dette sidstnævnte benævnes encompassing på engelsk. Den evaluerende fase kan foretages
dels af en selv, dels af andre, der tager udgangspunkt i den opstillede model, og evt. udbygger den og herunder
evaluerer resultaterne.
For at undgå både at man snyder sig selv og andre, er det i virkeligheden nødvendigt, at man opretholde en
høj videnskabelig standard, hvor man både bevæger sig fremad efter en forholdsvis velbeskrevet og transparent
model, og hvor man også gør det muligt for andre at foretage yderligere analyser af de samme forhold og ved
anvendelse af de samme data, hvis dette overhovedet er muligt.
Historisk set har økonomer benyttet én af to metoder til at bygge økonomiske modeller; en teoretisk drevet og en data drevet
1.
Teoridrevne fremgangsmåde: En model opstilles med n forklarende variable, som korresponderer med
den eksisterende økonomiske teori. - Denne model vil ofte være ukomplet grundet manglende eller overødige
variable eller forkert specikation af funktionen eller ændringer i sammenhængen over perioden.
7
Figure 2:
2.
Datadrevne fremgangsmåde: Efter indsamling af
xt
der bedst forklarer
yt
n
observationer udvælges den kombination af variable
samt en funktionsform, der er optimal i denne forbindelse. Ved udvælgelsen står man
overfor to fejlmuligheder: Inkludere irrelevante variable og undlade relevante variable.
Når der er et stort
antal variable at vælge imellem, er der en vis sandsynlighed for fejltagelser.
London School of Economics (LSE), I stedet for at bruge én af de to ovenstående metoder foreslår Hendry og
Johansen (2015) at kombinere de to metoder i hvad der ultimativt også kan kaldes LSE metoden der er en 6 trins
procedure der består af en overordnet process for opbygningen af en model. Vi kan derfor anse de økonometriske
modeller som en reduktion fra en ukendt data genererings process (DGP). Her vil en kompleks DGP model normalt
være udgangspunktet, hvorfra vi ved en procedure går til en mere specik model. Det er det vi refererer som generalto-specic modelling.
→ Man kan sikre sig, at teori modellen opretholdes og at de problemer,
der er i
forbindelse med den datadrevne fremgangsmåde, isoleres til at omhandle udvælgelsen af de relevante variable. Med
store datamængder computerkraft er en væsentlig del af arbejdet med at opstille økonometriske modeller vil blive
automatiseret i de kommende år. Her vil to kriterier til denne automatisering med fordel kunne være kongruens og
encompassing jf. LSE metoden.
Når man har opstillet modellen, kaldet Generalized Unrestricted Model (GUM), hvor de endogene
variable er funktioner af alle de potentielle eksogene variable, støder man på det problem, at der sjældent er et
tilstrækkeligt antal observationer til, at man kan estimere hele modellen og derefter "teste ned", dvs.
fjerne in-
signikante forklarende variable. I stedet bliver man nødt til også at "teste op", dvs. tilføje variable, der synes
at være signikante. En sådan proces kan selvfølgelig automatiseres idag og overlades til en computer, men dette
kræver, at computeren bliver programmeret således, at denne proces kvalitetssikres. Her foreslår Hendry og Doornik
en 6 trins procedure.
Fra GUM til den specikke model: vi skal nu undersøge, om vi kan reducere GUM til en mere håndterlig
(parsimonious) model med langt færre forklarende variable i hver relation og med langt færre parametre, der skal
estimeres. En sådan specik model skal selvfølgelig opfylde betingelserne om kongruens og encompassing samtidig
8
med, at man skal kunne opnå et estimat på parametrene af interesse i
θ.
Det her er LSE-modellen:
1. Trin er en omhyggelig formulering af GUM ud fra formålet med analysen. Dette vil normalt kræve, at man
står på skuldrene af såvel tidligere empiriske undersøgelser og relevante teorier.
2. Trin er valg af mål for kongruens, dvs. hvilke misspecikationstest vil man anvende og hvilket signikansniveau.
Et valg af et lille signikansniveau kan formindske denne risiko, men det koster teststyrke. (Autokorrelation
mm.)
3. Trin er valg af selektionskriterier.
Ved udvælgelsen af eksempelvis regressorer står man overfor to fejlmu-
ligheder. Man kan inkludere irrelevante variable (Gauge), og man kan undlade at medtage relevante variable.
(Potency)
4. Trin er en estimation af GUM. I visse situationer kan det være hensigtsmæssigt og parameterbesparende at
formulere modellen som en simultan model, hvilket svarer til at estimere den restringerede reducerede form
5. Trin er specikation af den eller de specikke modeller, der på passende vis omfatter (encompass) GUM.
Man vil således undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner,
og om nogle af de variable skal transformeres.
Er afhængig af den sti man har anvendt og alle stier skal
undersøges heraf.
6. Trin er Parsimonious encompassing af GUM. Resulterer denne søgning i ere specikke modeller, der alle
omfatter GUM, vælges den, der er mest parsimone, dvs. den, der kræver estimation af færrest parametre.
Den empiriske modellering af økonomiske indeholder nogle forskellige sammenhænge:
1. en række antagelser og forudsætninger, som meget ofte er implicitte, og måske ikke engang bevidste.
2. en række antagelser og forudsætninger, som i princippet kan testes som forskelige former for eksogenitet, andre
specikationer, osv.
3. en eksplorativ fase, som kan og bør automatiseres i en vis udstrækning, hvilket indebærer, at processen skal
formuleres og beskrives
4. en evaluerende fase, hvor modellens encompassing egenskaber undersøges.
På trods af at såvel de økonometriske teknikker, computerkraften og datamængderne er forbedret,
udnyttes dette ikke endnu i fuldt omfang i de empiriske undersøgelser i økonomi. Man kunne således
overlade en større del af den eksplorative fase til computeren.
9
Opgave 4.
Diskuter artiklen af Ronald Christensen, 2005, Testing Fisher, Neyman, Pearson, and Bayes The
American Statistician , May, 2005, Vol. 59, No. 2, p. 121-126
Kort præsentation af artiklen:
Som skrevet i introduktionen til artiklen, One of the famous controversies in statistics is the dispute between Fisher
and Neyman-Pearson about the proper way to conduct a test.. Artiklen er skrevet af Ronald Christensen, og er
udgivet i det videnskabelige tidsskrift The American Statistician i 2005. Artiklen forsøger gennem et simpelt eksempel, at klarlægge nogle af de problemstillinger som kontroversen mellem Fisher and Neyman-Pearson har resulteret
i, og oven i dette illustrerer artiklen nogle af de fundamentale ideer fra alle tre perspektiver - Fisheriansk, NP samt
Bayesiansk.
Fisher test.
•
Den første test kaldet
Fisher test efter R.A. Fisher, opstiller en nulhypotese, men ikke nogen alternativ
hypotese.
Det undersøges herefter hvorvidt data er underlige (weird) i forhold til hypotesens påstand.
Dette sker ved at beregne en såkaldt p-værdi, der angiver, sandsynligheden for at se noget endnu mere
mærkværdigt end det man ser i data, set ud fra nulhypotesens påstand.
Hvis du således opstiller en hypotese
H0 : µ ≥ 20
og får et skøn (et aritmetisk gennemsnit) på
μ,
10, beregner du p-værdien, som er sandsynligheden for at få et skøn lig 10 eller mindre forudsat
dvs.
•
P z≤
10−20
σ
√
n
z ∼ N (0, 1)
der er
μ≥20
.
Forudsætningen for Fisher testen er således, at der
(i) er forudsat en sandsynlighedsmodel for data
(ii) At der eksisterer en teststatistik som har en kendt fordeling under (i)
(iii) at der eksisterer et niveau
ikke forkaster
H0
α,
for hvilken man, hvis p-værdien er mindre en
er selvfølgelig ikke et bevis for, at
H0
α,
forkaster
H0 .
At man
er sand, og man afslører ikke nødvendigvis at
hypotesen er weird, idet såvel fordelingsantagelsen, normalitet, som den anvendte standard afvigelse
σ
kan være skyldige i beslutningen.
•
Fisher betragter p-værdier som angivende induktive vidnesbyrd mod en
H0
hypotese, dvs. vidnesbyrd fra det
specielle til det generelle.
Neyman-Pearson test
•
Den anden strategi benævnes Neyman-Pearson testet efter J. Neyman og Egon Pearson
I Neyman-Peason testet opstilles derfor såvel en
H0
hypotese, som en alternativ
HA−hypotese .
I et Neyman-Pearson test kan man således begå to fejl. Man kan forkaste en sand H0 hypotese
og dermed begå en Type I fejl, eller man kan undlade at forkaste en falsk H0 hypotese og
derved begå en Type II fejl.
Styrken af testen er deneret som en minus sandsynligheden for at begå en Type II fejl,
således at styrken af testen er sandsynligheden for at ikke at forkaste en falsk
10
H0
hypotese.
Den største acceptable sandsynlighed for at begå en Type I fejl, kaldet testens signikansniveau,
α,
der
skal fastsættes a priori ud fra omkostningerne ved at begå en fejl af Type I henholdsvis en Type II fejl,
idet et lavt signikansniveau ville trække styrkefunktionen nedad og dermed medføre en højere Type
II fejls sandsynlighed, hvorved der er et trade-o mellem omkostningerne ved de to fejl.
Problemet med at beregne styrkefunktionen er imidlertid i mange tilfælde, hvor den alternative hypotese
er formuleret som et interval, eksempelvis > eller <, at en sådan beregning kræver kendskab til
den ukendte parameter, der testes, teststatistikkens fordeling og dennes øvrige parametre.
For at klare dette problem har man udviklet et begreb kaldet en UMP, hvor UMP står for Uniformly
Most Powerful Test.
Hvis man i en test for et givet signikansniveau
α,
har kritisk område, der ikke
ændrer sig som følge af en ændring af den pågældende parameter, der testes, er testet UMP.
I praksis ser man ofte, et signikansniveau på
α = 0.05
anvendt, uden megen tanke for de faktiske
omkostninger, der er forbundet med at begå Type I og Type 2 fejl. Dette har medført en at man i mange
situationer ender i en situation, hvor man ikke kan forkaste
H0 ,
selvom man burde også set i relation
til testens styrke. Dette har medført, at en række medlemmer af American Statistical Association har
opfordret til, at man i det mindste anvendte et signikansniveau på
α = 0.005
som standard.
• Et andet problem skyldes sammenblandingen af anvendelse af p-værdien og signikans-niveauet
α. Det er korrekt, at man ved en beregnet p-værdi, der er mindre end det på forhånd valgte signikansniveau
α, forkaster H0 , men dette indebærer ikke at p-værdien kan fortolkes som en frekvensbaseret Type I fejls
sandsynlighed eller som et mål for evidensen mod nul-hypotesen. Den korrekte fortolkning af α er den
frekvensbaserede fortolkning, at man ved gentagne forsøg, som den der betragtes fejlagtig vil falde i det
kritiske område i 100
α
%
α
af tilfældene, selvom
det er en stokastisk variabel beregnet under
H0
H0
er sand. Den korrekte fortolkning af p-værdien er, at
og under forudsætning af en beregning af en teststatistik og
dennes fordeling.
Bayesian test
•
De Baysianske test har ligesom Neuman-Pearson testene både en
H0
hypotese og en alternativ hypotese. Men
mens Neuman-Pearson testen behandler de to hypoteser forskelligt er dette ikke tilfældet i Bayesianske test.
• Bayesianske tests kræver først og fremmest, at vi har priori-sandsynlighederne for de forskellige
værdier af θ , som vi ønsker at teste for. Disse priori-sandsynligheder kan man så anvende sammen med
Bayes' teorem og den information man får givet fra dataen til at nde posterior-sandsynlighederne, for en
givet observeret værdi af r får man så en likelihood- funktion f(r|θ ). De Baysianske test har ligesom NeumanPearson testene både en
H0
hypotese og en alternativ hypotese. Men mens Neuman-Pearson testen behandler
de to hypoteser forskelligt er dette ikke tilfældet i Bayesianske test.
p(θ | r) =
hvor p(θ ) er priori-sandsynlighederne for
erne for
•
θ
f (r | θ)p(θ)
,
f (r | 0)p(0) + f (r | 2)p(2)
θ,
θ = 0, 2
f(r|θ ) er likelihood-funktion og p(θ |r) er posterior- sandsynlighed-
givet en bestemt observeret værdi for r.
Den eneste indvending mod at bruge den Bayesianske metode er ifølge artiklen fraværet af en kilde for a
priori-sandsynlighederne.
Dette er normalt ikke et problem i tilfældet, hvor vi har tilstrækkelige data, da vi i dette tilfælde har at
posterior sandsynligheder vil være invariante over for den valgte priori sandsynlighed.
11
Vi vil dog ifølge Lindleys paradoks i nogle tilfælde, hvor vi har normalfordelte data, muligvis ende ud i at
vores nulhypotese aldrig vil blive afvist, uanset hvor mærkelige data bliver i forhold til vores nulhypotese.
Vi har derfor at brugen af den Bayesianske testmetode afhænger af i hvilken grad vi har mulighed for at
vælge nogle passende priori sandsynligheder, hvilket igen kom an på en subjektiv vurdering fra forskerens
side.
Konklusion fra Svend.
•
Christensens artikel bærer stærkt præg af at han er Bayesianer. Hans valg af eksempler er således lidt tendentiøse ved at vælge punkthypoteser, som er lettere at behandle Bayesiansk, men som stort set aldrig forekommer
i økonomi. Og hans forglemmelse af at nævne vanskelighederne ved at beregne
p(y) =
R
p{y | θ}p(θ)dθ,
der
ganske vist i praksis er blevet mindre på grund af den større regnekapacitet, er ligeledes symptomatisk.
•
Når det er sagt er der mange fornuftige aspekter i den Bayesianske metode, men en fornuftig anvendelse af
NP-metoden med valget af test og signikansniveau med skyldig hensyntagen til stikprøvestørrelse, styrke
likelihood ratio forhold og omkostningsforholdene ved fejl af Type I og Type II vil opnå lignende fornuftige
resultater.
•
Det afgørende er dog, at testene anvendes for at nde en KONGRUENT repræsentation af data og at man
efterfølgende anvender en encompassing strategi.
12
Opgave 5.
Diskuter Lucaskritikken og eksogenitet.
Vi betragter modeller med begrænset identikation, som man skal betragte med stor skepsis, da vi er
nødsaget til at pålægge mange a priori restriktioner, hvoraf mange af disse er på et spinkelt informationsgrundlag.
Vi har her at mange makro modeller falder ind under denne kategori. Dette tilskrives i høj grad den såkaldte
Lucas kritik, men hvad går den ud på?
Lucas er ikke glad for Keniyanske modeller fordi de ikke har dybe parametre og bliver påvirket af policy-tiltag, og
de økonomiske agenter kender konsekvensen af politiktiltagene, og ved implementering vil det derfor ikke have den
ønskede eekt. Lucas er mere positivt stemt over for DSGE modeller, som bygger på at hver enkelt agent er rationel
og optimerer sin egen nytte, og denne repræsentative agent aggregeres til at præsentere hele økonomien (opfører
Svend er
kritisk over for DSGE-modeller, da han ikke føler de kan undgå Lucaskritikken, fordi disse agenter
er rene abstraktioner, og de har ikke nødvendigvis noget gøre med virkelighedens agenter. Svend
siger at DSGE-modeller overhovedet ikke har dybe parametre.
sig som det optimerende homo oeconomicus). Lucas mener at DSGE-modeller har dybe parametre.
Hovedpointen af Lucaskritikken er at: Det er naivt at lave forudsigelser af eekter af politikanbefalinger
på baggrund af empiriske relationer fra historisk data. Empiriske relationer, der er fundet ud fra historiske
data ikke kan anvendes til politikanbefalinger, fordi sådanne relationer ikke er invariante over for ændringer i den førte politik. Relationerne tager ikke hensyn til, at de økonomiske agenter har opnået
kendskab til disse modeller, og derfor har tilpasset deres forventninger og dermed deres reaktioner
til disse modellers forudsigelser. Anvendes modellerne alligevel, vil de fremkomme med forkerte prognoser for
økonomiens reaktioner på konkrete politikinterventioner. Kun hvis modellens parametre er invariante over for de
pågældende politikinterventioner kan modellen anvendes, jf.
diskussionen af super eksogenitet nedenunder.
Ig.
Lucas kræver det, at modellens parametre er såkaldt "dybe parametre", der stammer fra agenternes kriteriefunktioner. Lucas argumenterer dermed for brugen af mikrobaseret teori om rationelle agenter fordi dette i. Lucas vil
medføre dybe invariante parametre. Lucas' kritik går derfor på hvorvidt modellerne er invariante over for politiske
tiltag, da hvis de ikke er det, ikke må anvendes til politiske analyser.
Eksogenitet
Uanset hvordan vi opstiller en model, så har vi lavet forudsætninger, hvori vi ikke betragter hele verdenen.
Vi
forudsætter her at de andre ting i verden ikke har væsentlig betydning for vores resultater. Det er lige præcis her at
eksogenitet kommer ind i billedet. I sammenhæng med tidsserie-analyse betyder eksogenitet , at den ene variabel
ikke tilføres tilbage til den anden. Kausalitet er tæt knyttet til begrebet eksogenitet. I forbindelse med stokastiske
modeller er der tre begreber om eksogenitet: Svag, Stærk og Super.
Interesserer man sig alene for estimation af parametre i en opstillet model, er svag eksogenitet
det relevante begreb; vil man forudsige eller simulere, stærk eksogenitet nødvendig, og vil man endelig beregne virkningen af en ændret økonomisk politik, har man brug for super eksogenitet.
Svag: Svag eksogenitet kan vi benytte estimation og inferens, men ikke prognose/forecasting og policy eects
(man kan klare sig med den betingede fordeling)
Stærk: Kræver svag eksogenitet også skal der være Granger non causality mellem den eksogene variable og de
resterende forklarende variable. Hvis man altså ønsker at anvende den betingede fordeling til prognoser, skal man
også anvende den marginale fordeling
13
Super: Lucaskritikken siger at for at den betingede fordeling må benyttes til at analysere policy eects, så må
policy interventionerne ikke påvirke den betingede model (de interventioner vi er interesserede i).
Supereksogeniteten skal ses i sammenhæng med Lucas-kritikken. Dette betyder, at økonomiske personer
tilpasser deres adfærd (f.eks. Målt ved værdierne for regressionsparametre ) til det økonomiske miljø . Parametrene er betinget af et miljø, der er beskrevet af egenskaberne ved visse variabler. Hvis de begivenheder, som de
økonomiske agenter tilpasser deres adfærd, er eksogent bestemte variabler (politikvariabler), skal denne afhængighed
af parametrene modelleres eksplicit .
Superexogenitet betyder nu, at Lucas-kritikken ikke gælder for en
variabel.
Lucas kritikken siger, at parametrene i de daværende empiriske modeller var ustabile, eller udtrykt anderledes, at
de eksogene variable ikke var super eksogene. Hans kritik medførte: At man begyndte at opstille makromodeller
baseret på teori om repræsentative agenter, som argerer efter den rationalle nytteteori udfra mikroteoretisk præferencestruktur.
Dette skyldes påstanden om at agenternes handlinger derved var baseret på en model med dybe,
stabile parametre som dermed vil medføre at makromodellens eksogene variable var super eksogene. Makroteoriens
basering af mikroteorien:
Kritik af Lucas kritikken:
•
På baggrund af Lucas kritikken er udviklingen af modeller indenfor den makroøkonomiske teori blevet til
modeller med meget svag identikation:
Test af sådanne modeller i overvejende grad bliver af de restriktioner, der er pålagt a priori og ikke af
resterende parametre, der estimeres på baggrund af data.
Hvis det er nødvendigt at pålægge relativt mange a priori restriktioner og specielt mange a priori restriktioner med et spinkelt informationsgrundlag for at sikre modellens identikation og estimation af de
resterende parametre, må betragtes med en megen stor skepsis.
Men spørgsmålet er om DSGE modellerne er immune over for for Lucas kritik?
For ganske vist er modellerne, som anført af Romer (2012), baseret på optimerende agenter, der optræder som
mikroteorien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med
virkelighedens agenter. Der vises i megen forskning vedr. de økonomiske agenters adfærd, at de abstraktioner, der
anvendes i DSGE-modeller, er meget forsimplede i forhold til virkeligheden.
DSGE-modellerne er ligesom de modeller som Lucas kritiserede, nemlig de såkaldte Keynesianske makromodeller,
er empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde, at fordi de
optimerer en kriteriefunktion under bibetingelser, er de stabile over for politikinterventioner. Det må afgøres
empirisk ved test for super eksogenitet. Det vises, at de antagelser, der i mikroøkonomien pålægges den
enkelte agent, ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er
umuligt at påstå, at denne f.eks. maksimerer en kriteriefunktion, der afspejler kriteriefunktionen hos de agenter,
som skal repræsenteres. Det kan vises at de kompenserende efterspørgselskurve på mikroøkonomi niveau ikke er
gældende for den repræsentative agent, hvoraf kritikken af Lucas kommer. Hermed er der heller ikke nogen
grund til at tro, at parametrene i modeller med repræsentative agenter er dybe i den forstand,
at de er særligt stabile over for eksogene stød til økonomien, som f.eks. politiske tiltag. Med andre
ord er RBC-modeller og DSGE-modeller også sårbare over for Lucas kritikken.
14
Opgave 6.
Diskuter om stigende oentlig gæld er uden problemer med baggrund i John Cochrane, 2020,
Debt still matters When the government borrows, someoneeventuallywill have to pay it back
https://review.chicagobooth.edu/economics/2020/article/debt-still-matters
John Cochranes baggrund:
•
Han er senior medlem fra Hoover Institution ved Standford University. Han har specialiseret sig i nansiel
økonomi og makroøkonomi. Med det i baghovedet må han have et fornuftigt udgangspunkt til at kommentere
på disse økonomiske problemstillinger.
•
Dog omtaler han sig også som the grumpy economist, og derfor bør man overveje, om hans indstilling
påvirker hans vurderinger subjektivt fremfor at have en mere objektiv analyse/vurdering af de økonomiske
problemstillinger.
•
Han er en decideret kendt konservativ økonom, der også er en glimrende og skarp debattør.
•
I artiklen som denne omhandler kommenterer han på USA's gældsætning, og hvordan den kan udvikle sig i
relation til covid 19.
USA gældstigning - Tilgange:
•
I 2021 er USA's gældssætning steget til over 100% af BNP. Hvilket er en stor milepæl for landet. John H.
Cochrane diskuterer i sin artikel, om det har en betydning eller om bekymringen er passé.
•
MMT (Modern Monetary Theory) er en alternativ økonomisk teori, der understreger, at en stat eller regering,
der har sin egen valuta og dermed mulighed for at skabe penge, ikke kan løbe tør for penge og derfor kan
nansiere oentlige udgifter monetært.
•
Fortalere for MMT anbefaler, at staten bruger nanspolitik til at opnå fuld beskæftigelse og nansierer
udgifterne hertil ved at trykke ere penge.
•
Den vigtigste risiko herved er at skabe ination, hvilket kan imødegås ved at sætte skatten op og udstede
statsobligationer for igen at reducere mængden af penge i systemet.
•
Den anden tilgang påpeger, at renten af gælden vokser langsommere end vækstraten af økonomien.
Det
medfører altså, at USA altid er i stand til som minimum at betale renterne på gælden, så gælden ikke vokser.
Det betyder også at Debt-GDP ratioen ikke stiger, og gælder kommer dermed ikke til at fylde mere i landets
økonomi.
•
Tredje tilgang er en super-Keynesian tilgang.
Idéen her er at det gældsnansierede forbrug har så stor
multiplier eekt i samfundet, at den i sig selv betaler for gælden.
John H. Cochranes kritik:
•
John H. Cochrane sætter spørgsmålstegn ved om disse muligheder er korrekte eller realistiske.
• Under forudsætning af at rentesatsen er lavere end vækstraten, ser man at debt-to-GDP-ratioen
langsomt vil falde over tid. Men hvor længe vil det være en realitet, at rentesatsen er så lav?
Vil den forblive lav, hvis man øger gælden markant? - Det er nok meget usandsynligt.
15
•
De nævnte argumenter tilhører sustainability af en stor, men stabil debt-to-GDP-ratio.
Det svarer altså
ikke på, hvad der sker, hvis USA øger debt-to-GDP-ratio år for år. Cochrane (og de este andre økonomer)
argumenterer for at der er en debt-to-GDP-grænse, men ingen ved hvor den helt konkret er.
- Når man
grænsen kan det ende i en slem gældskrise.
• Cochrane kritikserer tilgangen om at gælden skulle nansiere sig selv.
Han argumenterer for at
gælden kun kan nansiere sig selv i en begrænset periode med lav vækst. Spørgsmålet er så om vi er i sådan
en periode, eller om COVID-19 krisen skal ses som en supply-side krise.
•
Han mener at politikkerne forholder sig mindre kritisk til problemet ift. gældssætning end økonomerne gør.
• Gæld skal betales før eller senere af nogen.
Typisk betales det gennem skatter.
Det vil sige, at
politikkerne både bestemmer gældsoptagelsen, men også skattesatsen, som skal bruges til at tilbagebetale
gælden. Politikkerne vil låne billige penge, så længe markedet er villig til at udbyde det - (og er det ikke fair
nok, de tænker jo på næste valg). Så kan vi egentligt bebrejde dem for at øge gælden? De, der kommer til at
betale gælden af, er børn eller børnebørn af den nuværende generation, og de er på nuværende tidspunkt nok
ikke i stand til at forstå konsekvenserne af den nuværende situation, da de sidder i kælderen og spiller spil i
stedet for at protestere imod samfundets retning, som politikkerne har fastsat.
• Politikkerne har fundet ud af at gæld er ligegyldig, på en måde som økonomerne endnu ikke har
indset. Hvis dette er gældende, hvorfor så ikke bruge penge uden yderligere overvejelse af konsekvenserne
heraf ? Hvorfor skal befolkningen tilbagebetale gæld, hvis staten/landet ikke skal? Med disse argumenter kan
man tage det helt ud til ekstremerne.
•
Det at nansiel gæld ikke har nogen nansiel omkostning er den logiske konklusion af ovenstående for politikkerne. Det betyder også at politikkerne bliver mere tilbøjelige til at bruge penge udnødvendigt. Så sålænge
politikkerne har forståelse af at debt dont matters, så vil de bruge pengene uforsvarligt. (helikopterpenge har de brug for dem).
Det medfører et problem, for hvis regeringen bliver ved med at optage gæld uden at betale tilbage på
den, hvorfor skal almindelige mennesker så betale deres lån, det kan blive en ond spiral.
•
Historisk set havde USA en større debt-to-GDP-ratio efter 2. Verdenskrig end de har i dag.
• USA kom ud af gælden ved ikke at optage yderligere gæld med årtier med nansiel ansvarlighed
og med stærk vækst på udbudssiden i en dereguleret økonomi. USA har ingen af disse forsikringer
fremadrettet.
• Den egentlige fare er at ende i en gældskrise, så dette skal grundigt overvejes.
Man kan ikke helt
undgå kriser, og man vil formentligt ramme en krise inden for det næste årti. Man skal have fokus på, hvordan
økonomien ser ud, når krisen rammer, hvis man fortsat påtager sig større og større gæld. Hvis en større gæld
påtages, kan det ende med at investorer trækker sig, som det skete for Grækenland. Hvis alle lande påtager
sig gæld, er der ikke nogen til at hjælpe, når landet går konkurs, som da EU hjalp Grækenland. Det er også
derfor, EU har grænser for gældsstørrelsen. Disse er dog blevet udvidet i forbindelse med covid19.
•
Ingen ved, hvornår krisen rammer, men man bør undgå at bære brænde til bålet, således at de økonomiske
konsekvenser af krisen ikke bliver større end højst nødvendigt. John H. Cochrane påpeger spend only as if
someone has to pay it back. Because someone will have to pay it back, som en af sine centrale pointer til
håndteringen af situationen.
16
• Centralt problem: Renten signlarerer ikke nødvendigvis problemer. De græske renter var lave
indtil de steg voldsomt, da ingen forventer en gældskrise, da den ellers allerede ville være der.
- Derfor skal man være påpasselig, selvom det pt kan se fornuftigt ud at optage gæld.
•
Ud fra artiklen skrevet af John H. Cochrane om den store gældsratio i USA, ser vi to tilgange til forståelsen af
denne økonomiske situation - den politiske og økonomiske. John H. Cochrane er økonom og påpeger alvoren
i den øgede gældsratio, og påpeger ligeledes problemstillingen i at politikkerne ikke har samme opfattelse.
Situationen i forhold til Danmark:
•
Siden Coronakrisens start har mange lande, ført en meget ekspansiv nanspolitik, for at dæmpe aktivitetsvirkningerne
af en hel eller delvis nedlukning af samfundet. I Danmark har man gennemført en lang række støtteordninger
til erhvervslivet, som lønkompensation osv. Man har også nedlukket et minkerhvervet og betaler nu en uden
tvivl meget rundhåndet ekspropriationserstatning til et erhverv som formentlig under alle omstændigheder
vil være blevet decimeret i de kommende år.
•
En sådan nanspolitik er efter de estes økonomers mening yderst velbegrundet, men I debatten er der også
blevet anført det synspunkt, at oentlig gæld, ikke er nogen særlig byrde, specielt i en situation med meget
lave rente, og for USA's vedkommende, dollarens status som reservevaluta, der gør at andre lande er villige
til holde US $ i nærmest ubegrænsede mængder. Endelig kan det også være en fordel, at den oentlige gæld
stort set holdes af indenlandske investorer, som pensionskasser.
•
I Danmark har den danske statsminister gjort sig bemærket ved at udtrykke, at en sådan frygt for gældsætning
er udtryk for en gammeldags borgerlig holdning, og ere økonomer er da også også hoppet med på vognen.
•
Lad os som John Cochrane betragte forholdet mellem den oentlige gæld og GDP. Når pandemien er ovre
og gældsætningen stoppet vil gælden uden tilbagebetaling årligt stige med rentebetalingen på gælden, mens
GDP vil stige med væksten i samfundet. Hvis væksten er større end renten vil forholdet mellem gæld og GDP
falde. Men er væksten mindre end renten vil forholdet mellem gæld og indkomst stige, og meget får tror, at
en sådan udvikling er sustainable.
•
Hvilken situation er så sandsynlig. Her er der mange, der har den opfattelse, at når coronaen er væk vil
man starte hvor man sluttede og især den danske vækst vil hurtigt komme op igen.
Men er det sandsynligt, at pandemien kun har været en parentes? Det er jo dog ikke en krig, der har
ødelagt produktionsapparatet! Men især hvis nedlukningen varer ved et stykke tid endnu, er det svært
at forestille, at ikke mange små selvstændige går fallit og en rimelig stor del af arbejdsstyrken bliver
arbejdsløse. Og dette gælder over hele verden.
Kan man bare lige få disse ressourcer tilbage i funktion igen? Bliver der ingen askehalse osv. Så vil
låntagerne blive ved med at udlåne penge til lav rente? Det er ganske vist rigtigt at centralbankerne har
printet penge og derfor står for en del af gælden, men påvirker dette ikke inationsforventningerne på
sigt? Formentlig.
At inationen og inationsforventningerne vil stige i forhold til hvad de har været på det seneste er en
frygt man set ud fra de historiske forhold må påregne.
17
Opgave 7.
Diskuter signikanstest på baggrund af artiklen Jae H. Kim and Philip Inyeob Ji, 2015, Signicance
testing in empirical nance: A critical review and assessment, Journal of Empirical Finance, 34. p
1-14.
Indledning om signikanstest:
•
Signikanstest er meget udbredt og brugt i bl.a. nansverdenen. Det bliver brugt til at teste hvorledes teorier
og hypoteser holder stik med den fundne empiri. I denne artikel af Kim og Ji fra 2015 tages udgangspunkt i
en undersøgelse omkring brugen af signikansniveau i moderne forskning indenfor nansiering. Hvorefter det
diskuteres hvad man skal være opmærksom på, for at opnå de mest retvisende resultater.
Kim and Ji (2015) undersøgelse:
•
Kim and Ji (2015) har undersøgt hvordan signikanstest bruges i forskning indenfor Finance- området. De
har lavet en undersøgelse af papers der blev publiceret i anerkendte journals i 2012, for at undersøge hvordan
praksis er for signikanstest indenfor det nansielle felt.
•
Undersøgelsen nder følgende hovedpunkter:
Brug af meget store stikprøvestørrelser er udbredt (sample mean = 161.200)
Konventionelle signikansniveauer (1%, 5%, og 10%) er udelukkende brugt, uden at tage særligt meget
højde for stikprøvestørrelse, styrken af testen eller det forventede tab fra forkerte beslutninger (konsekvens
af type 1 og type 2 fejl).
Tydeligt bevis for publikationsbias i favør af statistik signikans, da andelen af studier med statistisk
signikans er unaturligt høj
Konventionelle niveauer vs. Bayesian metoden:
•
Indenfor det nansielle felt, hvor det er typisk at arbejde med store stikprøver har Connolly (1989, 1991)
foreslået at anvende the Bayesian method grundet eekten af store stikprøver på signikanstest.
Connolly har fundet ud af at tidligere empiriske beviser for f.eks weekend eekten for aktieafkast (lavere
afkast om mandagen end frendagen) er omvendt hvis Bayesian metoden bruges.
Han tilskriver dette
samspillet mellem større stikprøver og faste signikansniveauer i de tidligere studier.
•
Lindley (1957) fandt at the Bayesian method og klassisk hypotesetest kan give modstridende resultater, når
stikprøvestørrelsen er stor.
Grunden til forskellen på resultatet af de to metoder skyldes, at den klassiske hypotesetest anvendes med
et fast signikansniveau, mens the Bayesian method nder de kritiske værdier som en stigende funktion
af stikprøvestørrelsen.
•
Undersøgelsen i artiklen af Kim and Ji (2015) nder at brugen af the Bayesian method er blevet fuldstændig
ignoreret og at forskere i stedet for anvender den klassiske hypotesetestning, selvom de ovenstående artikler
taler for anvendelsen af the Bayesian method i store stikprøvestørrelser. Kim and Ji (2015) nder samtidig at
de este resultater bliver modsatte, hvis man anvender the Bayesian method.
To måder at vælge signikansniveau på:
18
Figure 3:
•
Ifølge Leamer (1978) så er der to måder at vælge signikansniveauet i relation til the line of enlightened
judgement. Dette bruges i forhold til at vælge det optimale niveau af signikans.
Første metode er at minimere det forventede tab fra hypotesetest og det andet er at minimere det
maksimale tab associeret ved type I og type II fejl.
Der skal også være et fokus på om hvilken type fejl man helst vil lave. Her skelnes der mellem om man
helst vil lave en type I og type II fejl.
Det kan ses at jo større sample size vi har jo mindre chance har man for at lave en type I eller II fejl.
Dette eksempel bruges til at illustrere hvordan signikansniveauet kan blive valgt optimalt i praksis,
hvilket er baseret på stikprøvestørrelsen og eekten af testen. Det indikerer tydeligt at når stikprøven er
stor, så vil signikansniveauet blive sat ved et lavere niveau end det konventionelle.
•
• Minimere forventede tab:
Hvor alpha er sandsynligheden for type I fejl, beta er for type II fejl.
Den
45 grader lineære linje indikerer punkterne for det minimale af alpha + beta for hver af de tre niveauer af
stikprøve størrelsen. Den horisontale linje er sat ind ved alpha = 0.05 hvilket korresponderer værdierne for
alpha og beta når de er sat til det konventionelle niveau på 0.05. Det som kan ses ud fra dette er at alpha
skal vælges, så man minimere alpha+beta, da det giver et lavere forventet tab, end hvis alpha er sat lig 0.05.
19
Figure 4:
Man skal vælge alpha = 0.05 hvis 500 < n < 2000, da man får et lavere forventet tab ved denne
alpha der.
• Minimere det maksimale tab:
I den anden gur, der illustrerer Leamers andet forslag om minimerer
maksimum viser de to kurver med negativ hældning forholdet
α + β =konstant
for n=100 (den yderste røde)
og n=500 (den inderste), mens de to linjer med positive hældninger viser forholdet mellem det forventede tab
ved at begå en Type II, henholdsvis Type I fejl. Hvis de forventede omkostninger ved at begå en Type I fejl
er meget store i forhold til de forventede omkostninger ved at begå en Type II fejl er man på linjen fra (0,0)
med den laveste hældning, og en forøgelse af stikprøven fra n=100 til n=500 bør medføre et begrænset fald i
fra A til B.
•
Omvendt er de forventede omkostninger ved at begå en Type II fejl store i forhold til at begå en Type I fejl bør
man bevæge sig fra C til D hvis stikprøvestørrelsen stiger fra n=100 til n=500, og således drastisk nedsætte
Det er klart, at en anvendelse af et fast signikansniveau således ikke kan forsvares, men det er ikke desto
mindre den praksis, som anvendes i mange sammenhænge. At det er således skyldes utvivlsomt, at det
kan være svært, at fastsætte forholdet mellem de forventede omkostninger ved at begå Type I og Type
II fejl.
Publikationsbias:
•
Af artiklen fremgår det at hvis man kigger på alle de undersøgelser de har undersøgt så er der en hel klar
publikationsbias, hvor man ser at der kun er 2 undersøgelser, som rapporterer insignikante resultater (på 10%
signikansniveau). Dette viser en klar bias for hvilke undersøgelser der bliver publiceret, hvor det (næsten)
kun er de undersøgelser som kan bekræfte/forkaste noget der bliver publiceret, hvilket gør at forskere der har
20
lavet en undersøgelse som ikke kan konkludere noget, ikke bliver publiceret. Det har den betydning at man
kan tro at der er stor evidens for at tro H0 er falsk når den i virkeligheden er sand, hvis der er nogen som har
kunne fremvise det en gang, men der i virkeligheden er lavet mange ere der ikke har kunnet sige noget om
Det er altså et
kæmpe problem! - Da forskningen kan blive kraftigt biased, hvis man har problemer med at få
publiceret insignikante resultater, på baggrund af den eksisterende litteratur viser signikante
resultater.
H0, men ikke er blevet publiceret pga. manglende forkastning. (De Long and Lang, 1992).
Diskussion:
•
I det tredje afsnit af gennemgår Kim og Ji herefter en undersøgelse af re ledende tidsskrifter i nance.
Her konstaterer man at på trods for, at stikprøvestørrelserne ofte er meget store med en medianstørrelse på
n=4719 anvendes der udelukkende signikansniveauer på mellem 0,01 til 0.10, hvilket uden tvivl har medført,
at nulhypotesen ikke er forkastet i for stor andel af tilfældene.
•
Diskussionen om økonomisk signikans kan dreje sig om to ting. For det første kan en given parameter f.eks.
en koecient i en regression være ubetydelig, således at der ikke er nogen særlig eekt på y af den tilhørende
x. Dette bør man selvfølgelig være opmærksom på selvom om det statistiske test er stærkt signikant og evt.
undlade eekten.
Husk dog stadigvæk, at den numeriske værdi af et koecientestimat afhænger af måleenheden på såvel
y som x.
•
Men diskussionen kan også dreje sig hvorvidt koecientestimatet har en meningsfyldt økonomisk fortolkning
og passer med økonomiens priors.
Her bør man være mere varsom.
Hvis et statistisk resultat ikke har en
fornuftig økonomisk fortolkning bør man være på vagt, men hvis man statistisk kan afvise en økonomisk
prior bør man også være på vagt og ikke blot afvise det statistiske resultat. Og så bør man stadig huske at
statistikken anvendes for at vise kongruens mellem model og data, og økonomisk analyse og encompassing
skal der til for at komme videre.
• Kim og Ji eksempler fra Finance Journal er skrækkelige.
Konklusion:
•
Artiklen konkluderer at signikans test har været bredt kritiseret i mange år, og da disse i moderne undersøgelser bliver ignoreret, kan man stille spørgsmål ved, hvorvidt de mange undersøgelser er troværdige.
•
Ved hjælp af en survey undersøgelse af nyere artikler bliver der fundet tydelige beviser på rigtig store sample
size, et xed signikansniveau og at der er beviser for publication bias i form af statistisk signikans.
•
Ved at benytte den bayesianske metode bliver der ved hjælp af survey undersøgelsen vist, at der stilles
spørgsmålstegn ved den statistiske signikans i artiklerne.
Det anbefales dermed, at man fremover i sine undersøgelser, bevæger sig væk fra de traditionelle metoder
med konventionelle niveauer af signikans, og derimod vælger det niveau, som tager hensyn til nøglefaktorer som sample size, power og de forventede tab ved forkerte beslutninger.
21
Opgave 8.
Diskuter specikationsøgning, datamining samt general to specic, og specic to general.
• Specikationssøgning
I takt med at man bygger sin model skal man være sikker på at den er korrekt speciceret
Man vil undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner og
om nogle af variablene skal transformeres for at vi undgår autokorrelation, heteroskedasticitet og andre
misspecikationer.
∗
∗
∗
Omitted variables
Overtting (including irrelevant variables)
Inappropriate functional form
Alt dette kan testes for bl.a. ved Ramsey RESET test, Durbin-Watson statistic test, Breusch-Godfrey test,
White test osv.
Som det fremgår af metoderne nævnt nedenunder, vil resultaterne af en sådan søgning være afhængige
af den sti (path) man har anvendt, og det vil derfor være nødvendigt at undersøge alle relevante stier,
hvilket i praksis givetvis må overlades til computeren.
En empirisk model kan bygges ved en
fremgangsmåde.
teoridrevet (en model opstilles) og en datadrevet (data indsamles)
Hendry og Johansen (2015) foreslår at kombinere de to metoder (den mest almindelige frem-
gangsmåde i økonometri). I den eksplorative fase søger man efter relevante sammenhænge. Eftersom computere
endnu ikke udnyttes fuldt ud kunne man med fordel overlade en større del af den eksplorative fase til computeren
(uddybes senere). I evalueringsfasen undersøger man eks. om en empirisk model på passende vis beskriver noget
som påstås at være en væsentlig afgrænsning i al empirisk videnskab.
Datamining (machine learning) betegner processen i at lede efter mønstre i store datasæt. Dette bliver mere og
mere aktuelt eftersom datasæt bliver større og større hvilket begrænser mulighederne for at lave komplette statistiske analyser. Derfor vil en stor del af arbejdet med at opstille økonometriske modeller nok blive automatiseret i de
kommende år. Dette vil kræve at der opstilles nogle kriterier for dels hvordan man lader computere nde en rimelig
model og dels hvordan man evaluere resultatet. Hvis en empirisk model er i overensstemmelse med data, så er den
kongruent. Hvis en empirisk model forklarer rivaliserende modellers egenskaber og resultater er den encompassing
(gør rivaliserende modeller overødige).
Af speciel interesse er såkaldt parsimonious encompassing - man vælger den mest parameterbesparende model,
der er encompassing (Kan den forklare de resultater andre alternative modeller har opnået).
Hendry og Doornik (2014) betragter en
lokal datagenererende proces (LDGP). Det er en proces som beskriver
måden hvorpå de analyserede variable er frembragt, inkl. hvordan de er målt - processen har en form og indhold,
som vi principielt kan få hånd om. En LDGP må være kongruent med sit eget informationssæt og den må omslutte (encompass) alle andre ikke misspecicerede modeller af dette informationssæt. LDGP kan indeholde meget
lange lags og parametre der varierer over tid. Det indebærer i praksis at man ikke kan bruge den fordi antallet af
observationer er begrænset. For at nå frem til noget operationelt må man forudsætte at:
1. At alle laggene kan trunkeres uden problemer
2. At parametrene er konstante over tid
22
3. At fordelingen er f.eks normal
Er de tre stærke forudsætninger opfyldt (det er de sjældent i rimelig grad) kan man betragte modellen som GUM (Generalized Unrestricted Model). Hvis man vil reducere GUM til en mere håndterlig model
med færre forklarende variable og parametre der skal estimeres, skal denne specikke model opfylde betingelserne
for kongruens og encompassing samtidig med at man skal kunne opnå et estimat på parameterne af interesse.
Hendry og Doornik (2014) foreslår at denne del af processen i høj grad automatiseres. I en sådan computerbaseret
eksplorativ fase kan man anvende følgende procedurer:
Enten Specic to general: Man starter med en simpel model og tilføjer variable udvalgt ift. et kriterie, eks.
R2 eller BIC, der straer for antallet af estimerede parametre. Styrken ved denne stepvise regression er at man
starter med en simpel og overskuelig model. Svagheden er at man skal være i stand til korrekt at gætte, hvad der
er galt, når man f.eks. nder autokorrelation i en model. Man kan ikke være sikker på, at man når samme sted hen
grundet forskellige valg - man ved ikke om man skal ændre på dynamikken, tilføje nye variable eller ændre på den
funktionelle form.
•
En yderligere ulempe er at denne metode også kan fremstå greedy, hvilket skal forstås på den måde at man
muligvis kan komme til at tilføje en variabel der senere kan vise sig at have været dårligere end andre veje at
gå >. Man udforsker ikke alle veje og retninger.
Eller General to specic: Man starter med en meget generel model og fjerner så variablene efter, hvor lidt
signikante de tilhørende parametre er. Styrken er at testene laves inden for en model som indeholder modellen i
næste skridt - derfor er de almindelige statistiske misspecikationstests valide. Svagheden er at den generelle model
kan være stor og uhåndterbar.
•
En yderligere ulempe er at denne metode kan fremstå greedy, hvilket skal forstås på den måde at man
muligvis kan komme til at fjerne en variable der senere kan vise sig at have været mere signikant og rent
faktisk havde ledt til en bedre ultimativ model -> Man udforsker ikke alle veje og retninger.
•
Ydermere kan der være så mange variable i en general to specic startmodel at der simpelthen ikke er nok
observationer til at estimere variablene pålideligt.
En sådan proces kan selvfølgelig automatiseres idag og overlades til en computer, men dette kræver, at computeren
bliver programmeret således, at denne proces kvalitetssikres. Her foreslår Hendry og Doornik en 6 trins procedure.
1. En omhyggelig formulering af GUM ud fra formålet med analysen. Dette kræver ofte at man læner sig op af
tidligere empiriske undersøgelser og relevante teorier - pas på med at medtage for mange variable (større ssh.
for irrelevante variable - Gauge) eller for få variable (større ssh. for at mangle relevante variable - Potency).
2. Valg af mål for kongruens, dvs. hvilke misspecikationstest vil man anvende (autokorrelation, heteroskedasticitet osv.)
og hvilket signikansniveau?
Valget afhænger af hvilke datatyper man anvender samt hvilket
formål modelleringen har.
3. Trin er valg af selektionskriterier.
Ved udvælgelsen af eksempelvis regressorer står man overfor to fejlmu-
ligheder. Man kan inkludere irrelevante variable (Gauge), og man kan undlade at medtage relevante variable
(Potency).
4. Trin er en estimation af GUM. I visse situationer kan det være hensigtsmæssigt og parameterbesparende at
formulere modellen som en simultan model, hvilket svarer til at estimere den restringerede reducerede form.
23
5. Trin er specikation af den eller de specikke modeller, der på passende vis omfatter (encompass) GUM.
Man vil således undersøge, om alle variable indgår i alle relationer, om der kan pålægges fortegnsrestriktioner,
og om nogle af de variable skal transformeres.
Er afhængig af den sti man har anvendt og alle stier skal
undersøges heraf.
6. Trin er Parsimonious encompassing af GUM. Resulterer denne søgning i ere specikke modeller, der alle
omfatter GUM, vælges den, der er mest parsimone, dvs. den, der kræver estimation af færrest parametre.
Et af de væsentligste problemer i denne proces skyldes, at slutresultatet ofte er meget afhængigt af den
sti, man har bevæget sig på, dvs.
hvilke variable medtages først osv.
Vi skal altså undersøge hvorvidt vi kan
reducere en GUM til en mere håndterlig (parsimonious) model med langt færre forklarende variable i hver relation
og med langt færre parametre, der skal estimeres. En sådan specik model skal selvfølgelig opfylde betingelserne
om kongruens og encompassing samtidig med, at man skal kunne opnå et estimat på parametrene af interesse i .
Hendry og Doornik (2014) foreslår, at denne del af processen i høj grad automatiseres og overlades til computeren.
24
Opgave 9.
Diskuter Lawrence H. Summers, 1991, The Scientic Illusion in Empirical Macroeconomics
Kort præsentation af artiklen
Summers argumenterer i denne artikel for, at den økonomiske videnskabs fremskridt sker ved at brede økonomisk
teoretiske overvejelser understøttes af brede nærmest samfundsbeskrivende empiriske undersøgelse, mens opstillinger af teoretiske modeller og efterfølgende økonometriske test af sådanne modeller sjældent eller aldrig har ført
til landvindinger. Et af de afgørende problemer for denne sidste fremgangsmåde er ig. Summers, at man aldrig
kan foretage egentlige test uden, at man samtidig må opstille andre ofte urealistiske antagelser, som f.eks. fravær af
strukturelle skift, antagelser om agenters adfærd osv. Hvilket imidlertid gælder de este, hvis ikke alle videnskaber.
Man kan f.eks ikke lave selv laboratorieeksperimenter uden at løbe en risiko for at der er ukendt faktorer der påvirker
resultatet.
Summers hovedinteresse er policy og det præger ligeledes hans synspunkter og i øvrigt hans karriere.
I introduktionen starter han med at argumentere for at artikler, som forsøger at inddrage økonometri ikke har
haft nogen indydelse på teorien.
De mest succesfulde artikler er dem, hvor verbal argumentation og styrke af
associationer er i fokus, fremfor matematiske modeller. Dertil bruges 'naturlige' eksperimenter fremfor sostikerede
statistiske metoder.
Diskussion af sammenligningen med det naturfaglige
Summers er yderst kritisk over for den metode økonomisk analyse og litteratur udføres på.
Her tager Summers
udgangspunkt i en sammenligning med den naturvidenskabelige metode tilgang, hvor han i sin konklusion nævner
at fysikere ikke konkurrerer om at nde den mest uddybende måde at forklare et æbles fysik på, men i stedet koncentrere sig om at skabe fremgang og nde ny viden. Summers glemmer her at økonomi ikke er naturvidenskab men
samfundsvidenskab. Økonomi er et resultat er individers adfærd, og påvirkes/ændres dermed over tid. Grunden
til at et æble falder ned af et træ er stadig den samme om 100 år, men individers forbrugsadfærd er sandsynligvis
ændret utallige gange i samme periode. Dermed giver denne sammenhæng altså ikke 100 procent mening at lave,
da den er baseret på forskellige grundlag.
Diskussionen af replikerbarhed
værdighed.
Naturligvis skal resultaterne kunne replikeres med henblik på at sikre tro-
Dog varierer økonomi i højere grad end naturvidenskab mellem geogra, kulturer, etc.
Hvormed
replikering er svær at gennemføre hvis man ikke eksakt tager udgangspunkt i de samme omstændigheder. Her skal
de nævnes at naturvidenskab i langt nemmere grad kan opstille kontrollerede eksperimenter (Ceteris Paribus), hvor
man holder alle andre faktorer faste, og dermed kontrollerer eekterne af en enkelt parameterændring. Økonomi er
en samfundsvidenskab, og man kan ikke bare lave sådanne kontrollerede eksperimenter. Dog kan man spørge sig
selv om hvad økonomisk viden er værd, hvis den ikke kan replikeres. Dette er naturligvis et godt spørgsmål, og
relevansen af økonomiske resultater vil i høj grad afhænge af om de kan benyttes til at sige noget om fremtiden.
I forbindelse med sin kritik af Hansen og Singleton's artikel nævner Summers ligeledes Lukas kritikken hvor argumentet netop er manglen på lyst til at prediktere fremtiden ud fra økonomisk empiri. Dette er naturligvis relevant
at overveje, da økonomi som videnskab ellers mister en stor del af sit formål.
Diskusion af ny viden indenfor økonomi
Summers argumenterer for at den økonomiske forskning ikke bidrager
til ny viden og forståelse, men derimod blot undersøger mere tekniske måder at forklare det samme på. Endvidere
skriver Summers at man bør fokusere på at skabe fremgang i den makroøkonomiske forskning. Og rigtigt nok bliver
der skrevet ufatteligt mange artikler inden for samme økonomiske felt, men det er som om at Summer lidt glemmer
25
at forskning inden for de samme emner kan lede til nytænkning samt forbedringer af den eksisterende teori. Selvom
det ikke bidrager med noget banebrydende nyt.
Diskusion af begrænset indydelse af økonomisk forskning
Summer argumenterer for at økonomisk arbejde
udføres godt, men at indydelsen af den forskning det kaster af sig er begrænset.
Dette underbygges med at
tilgangen til forskningen er forkert. At økonomisk forskning har begrænset indydelse virker som et argument uden
belæg, hvis man overvejer økonomers indydelse på de problemstillinger samfundet står over for i dag. Eksempelvis
modtog Romer og Nordhaus i 2018 nobelprisen i økonomi for deres arbejde med klimaforandringerne og en løsning
herpå. Økonomisk forskning i hvordan man kan pålægge afgifter på klimabelastende forbrugsvarer (eksempelvis)
er både aktuel og indydelsesrig i debatten omkring klimapolitik, hvilket ikke er uden grund, idet afgifter kan være
adfærdsregulerende og dermed bevirkende til at klimabelastende på forbrugsgoder falder.
Konklusion
Summers konkluderer, at hans artikel har fuldgjort argumentet for, hvorfor pragmatisk arbejde har
bidraget så særdeles meget til udviklingen af økonomi, som man siger, at eksperimentelt og observerbart arbejde har
gjort for naturvidenskaben. Derudover har han i artiklen argumenteret for, at formel økonometrisk arbejde med en
elaborativ teknik rigtig tit fejler. Derfor mener han, at man bør, under evaluering af empirisk arbejde, begynde at
stille andre spørgsmål end dem, man så ofte stiller. Vi bør stille spørgsmålet om udbyttet er interessant i den sammenhæng, at det har en indydelse på vores syn på, hvordan økonomien opererer. Han skriver også, at god empirisk
evidens fortæller historien uanset måden hvorpå det er analyseret. Det er simpliciteten, der gør evidensen overbevisende. Når man har observeret et faldende æble (Isaac Newton), så går man ikke efter at uddybe måden hvorpå
vi gør det. Men i stedet bruger man empiri til at udvikle yderligere teori. Dette argumenterer Summers for, at
makroøkonomer også bør gøre. Men han siger, at makroøkonomer kræver robusthed, før de går i krig med evidensen.
26
Opgave 10.
Diskuter Robert E. Lucas, Jr. 1976, ECONOMETRIC POLICY EVALUATION: A CRITIQUE
Robert E. Lucas, Jr. (1976) - Baggrund:
•
Denne artikel er skrevet af Robert E. Lucas, Jr.
Han er en amerikansk økonom, der opfattes som en af
de førende nyklassiske økonomer, som var skeptiske over for Keynes' teorier om, hvad der skaber konjunkturbevægelser.
•
Pointen med dette essay er, at den økonometriske tradition (theory of economic policy) bør grundigt genovervejes. Mere præcist argumenterer Lucas for, at egenskaber, der leder til succes ved kortsigtet forecasting,
ikke er relateret til kvantitativ politisk evaluering, som de store økonometriske modeller er designet til at løse.
•
Dermed vil simulationer ud fra disse modeller ikke give brugbar information til de faktiske konsekvenser af
alternative økonomiske politikker
Det skyldes at økonomiens struktur ændres, når politikken ændres. Der er altså en diskrepans mellem
strukturen før policy-ændringen og strukturen efter, hvilket betyder at eekten af policy-ændringer ikke
kan evalueres reelt med de makro-økonometriske modeller.
•
Yderligere påpeger han også at denne type modeller typisk er for store, for rodet og for simple
Teorien for økonomisk teori:
•
The theory of economic policy er kvantitative politiske diskussioner omtalt inden for teoretiske rammer. De
teorestiske rammer er muligvis alment kendte, men for at have det basale på plads, vælger han at gennemgå
sin fortolkning af den teoretiske ramme, som ligger til grund for den økonomiske model.
•
Økonomien beskrives i perioder ved hjælp af vektorer bestående af state variables og exogene variable over
tid.
Økonomiens udvikling er så givet ved dierens ligningen:
yt+1 = f (yt , xt , t ).
Funktion
f
antages at
være konstant, men ukendt. Målet er derfor at estimere funktionen.
•
En politik er en specikation af nutidige og fremtidige værdier for en eller ere komponenter i
xt . Når de andre
komponenter er specicerede, kan man analysere funktionssekvensen teoretisk eller ved numeriske simuleringer
og forsøge at blive klogere på eekten af politikken.
•
Eftersom man i praksis ikke kan behandle den estimerede parameter som kendt, vil det faktiske problem af
policy evaluation være mere kompliceret end som så. Hertil kommenterer han på to særlige egenskaber af
dette teoretiske framework.
Den første egenskab beskriver det usikre forhold mellem teorien af økonomisk politik og traditionel
økonomisk teori.
Den anden egenskab påpeger linket mellem kortsigtet forecasting og langsigtede simuleringer inden for
dette framework. Jo mere præcis forecastet er på kort sigt, jo mere troværdig er den langsigtede policy
evaluation.
Adaptiv forecasting:
27
•
Inden for teorien om økonomisk politik påpeges det i dette afsnit, at ere observationer altid forbedrer parameterestimater og forecasts. Men selvom vi har tilgængelige tidsseriedata fra 1929-1946 er det sjældent anvendt.
Her refererer vi til forskelligheden i de konkrete tidsaldre (mellemkrigstiden, krigstiden, velfærdsstaten, vidensalderen). Hvis de grundlæggende parameterantagelser varierer betydeligt mellem tidsaldrene, er det ikke
givet, at anvendelse af tidsseriedata på tværs af tidsaldrene øger kvaliteten af parameterestimaterne.
•
På trods af, at man ikke bruger data før 1947, opdaterer man hele tiden sit datasæt som tiden går.
mere data tilgængeligt, jo mere præcise estimater opnås der via den teoretiske model.
Jo
Dette ses dog ikke
nødvendigvis i praksis.
• Han påpeger, at ovenstående ikke er ment som en kritik, da det selvfølgelig giver mest mening
at opdatere sine tilgængelige data, hvis observationerne giver mere præcise sammenhænge.
Pointen er, at de økonometriske lærebøger ikke modstrider, at nuværende forecasting ikke
gennemføres inden for rammerne af teorien om økonomisk politik, og den uudfordrede succes
af forecastene skal ikke opfattes som bevis for pålideligheden af den struktur, der er foreslået i
denne teori.
Teoretiske overvejelser - generelt:
•
Indtil nu har han argumenteret for, at der er et mismatch mellem økonomisk teori samt kvantitativ policy
evaluation og vigtige karakteristika af økonometrisk praksis. En alternativ struktur, der indebærer stokastisk
parameter drift matcher disse karakteristika bedre. Dette argument er tilstrækkeligt til at etablere, at langsigtede implikationer af nuværende forecasting modeller er uden indhold, og at den kortsigtede forecastings evne
af disse modeller ikke har bevis for at være præcise. Disse pointer kalder han vigtige, men deres implikationer
for fremtiden er dog fortsat uvisse.
•
Alt vi ved om dynamisk økonomisk teori indikerer, at den centrale antagelse af teorien af økonomisk politik
når først parametrene er kendte vil de forblive stabile under arbitrære ændringer i sekvensen af eksogene
variable er ubegrundet.
Eksempler på teoretiske overvejelser:
•
Hvis de generelle teoretiske observationer er korrekte, så burde det være muligt at bekræfte dem ved at
undersøge specikke problemer i modellen. Han antager, at alle variable på højresiden er eksogene.
Eksempel på consumption:
•
Lucas bruger Friedman's permanente indkomsthypotese og siger dermed, at permanent consumption er proportional med permanent income. På trods af, at Friedman mener, at dette holder, så argumenterer Lucas
for, at der er mangel på indhold i modellen.
•
Derfor inddrager han Muth's teori om rationelle forventninger. Muth ser permanent income som en eksponentielt, vægtet sum af nuværende og laggede observationer på actual income.
Han siger, at denne actual
income er konsistent med optimal forecasting på baggrund af aktørerne.
•
Ved Friedman-Muth tilgangen mener Lucas, at en økonometriker, som observerer en forbruger over ere
perioder, vil have succes med at beskrive aktøren. Men om økonometrikeren kommer frem til resultatet ved
brug af denne metode eller ved brug af trial-and-error kan være det samme. For nogle politiske ændringer
kan vi med en vis sikkerhed gætte på de rekalkuleringer, som forbrugerne vil gennemgå, og dermed håbe på
at kunne forudsige deres forbrugsreaktioner med en vis præcision. For andre typer af politikker, er det ikke
åbenlyst, hvordan modellen anvendes og dermed nærmest umuligt at forecaste.
28
God pointe:
•
Lucas-kritikken er således, at økonomiens reaktioner på policyændringer ikke kan forudsiges af en model som
(FR) medmindre agenternes adfærd er uafhængig af policyændringerne dvs. at forbrugerne bestandigt lader
sig narre. (de tilpasser sig ikke)
•
Dette er også tilfældet selvom agenterne ikke har rationelle forventninger og dermed ikke fuldt ud kan gennemskue økonomiens relationer. For at en model således kan bruges til policysimulationer må modellens parametre
være invariante over sådanne policyændringer, og det kræver såkaldte dybe parametre dvs. parametre, der
bestemmer den bestemmer den menneskelige adfærd og her skal man ig. Lucas og Sargent have fat i den
neoklassiske mikroteori. Men også dette viser sig at være en blindgyde.
•
Spørgsmålet er således om Lucas argumenter har et empirisk belæg. Lucaskritikken havde som bekendt, den
eekt at en del af makroteorien blev baseret på den neoklassiske mikroteori og den repræsentative agent,
hvilket har medført makromodeller, der stort set ikke er andet et legetøj for universitetsøkonomer og deres
elever i centralbankernes forskningsafdelinger, men stort set ellers er ubrugelige.
Politiske overvejelser:
•
Lucas argumenterer i sit essay for at
yt+1 = F (yt , xt , θ, t ) ikke kan bruges til forecasting og policy-evaluation
inden for den faktiske økonomi.
•
Han mener at håbet om, at politiske ændringer vil kunne ses langsomt, og at forecasts dermed kan være
forholdsvis præcise i nogle perioder er forkerte og misvisende.
For det første fordi nogle politiske ændringer skaber et direkte spring i parameteren af interesse
For det andet bør langsomme ændringer i
θ
indregnes i den kortsigtede 'objective function'. Dette ses
dog sjældent.
•
Han inddrager følgende formel:
yt+1 = F (yt , xt , θ (λ) , t )
I en model som denne ses en politik som ændringen i parameteren
λ
eller den funktion, som genererer
værdierne af de politiske variable på et bestemt tidspunkt.
Hvis den politiske ændring sker som en række af beslutninger, der ikke følger et på forhånd annonceret
mønster, vil bevægelsen til en ny
θ(λ)
være usystematisk og økonomisk umulig at forudsige.
Hvis ændringen derimod er fuldt ud diskuteret og reglerne for ændringen er forståede, kan der være håb
for, at den resulterende strukturelle ændring kan være et forecast på baggrund af tidligere data.
Afsluttende bemærkninger:
•
Lucas afslutter med at påpege, at essayet er afsat til en redegørelse og udarbejdelse af en enkelt syllogisme:
givet at strukturen i en økonometrisk model består af optimale beslutningsregler for økonomiske agenter, og
at optimale beslutningsregler varierer systematisk med ændringer i strukturen i serier, der er relevante for
beslutningstageren, følger det, at enhver ændring i politikken systematisk vil ændre strukturen i økonometriske
modeller.
•
For spørgsmål, der involverer politisk evaluering, indebærer det sammenligninger af virkningerne af alternative
politiske regler ved hjælp af aktuelle makroøkonometriske modeller, men disse modeller er ugyldige uanset
præstationen af modellerne i løbet af stikprøveperioden eller i forecasts på kort sigt.
29
•
Argumenterne der bruges i essayet, nævner han, er dels destruktive. De modsiger altså til dels hinanden. Så
hvis beslutningstagere ønsker at forecaste, skal de tage nogle ting til overvejelse. Dette stemmer overens med
en præference for demokratisk beslutningstagning.
30
Opgave 11.
Makromodeller af Dynamic Stochastic General Equilibrium typen er meget populære. Diskuter disse
modellers egenskaber og anvendelighed.
Beskrivelse:
•
DSGE-modellers egenskaber er at de er en metode i makroøkonomi der forsøger at forklare økonomiske
fænomener, såsom økonomisk vækst og business cycles altså konjekturer og eekten af en økonomisk politik,
gennem økonometriske modeller baseret på generel equilibrium teori og mikroøkonomiske principper.
•
DSGE: Som navnet indikerer, så er DSGE modeller dynamiske (de undersøger hvordan økonomien udvikler
sig over tid), stokastisk (de tager højde for faktummet at økonomien er påvirket af random shocks), general (hvilket refererer til den generelle økonomi), og af equilibrium (hvilket henvender sig til at udbud og
efterspørgsel er i equilibrium)
•
Modellerne er et forsøg på at svare på Lukas kritikken ved at basere en makroøkonomisk model på et
mikroøkonomisk fundament.
En metode, hvorpå Lucas-kritikken kan forsøges imødekommet; jf. Lucas (1976), er ved at udforme en
model, hvor modellens relationer ikke varierer ved en ændring i den førte økonomiske politik eller ved
introduktion af forskellige choks i økonomien; jf. Pedersen (2012). En type modeller, der opfylder dette
krav, er netop DSGE-modellerne. Selvom Romer gør opmærksom på, at målet ikke er nået endnu, så
anser han den nuværende udformning af DSGE- modellerne for et vigtigt skridt på vejen.
•
De makroøkonomiske sammenhænge er beskrevet ud fra
Økonomiske agenter, der maksimerer en given kriteriefunktion på baggrund af såkaldt rationelle forventning baseret på et fuldt informationssæt.
∗
•
Optræder som arbejdstagere, arbejdsgivere, forbrugere og producenter.
Udviklingen i DSGE-modellerne har været meget imponerende, idet det teknisk set er uhyre vanskeligt, og
meget computerintensivt, at løse disse modeller og få beregnet, hvilke eekter de stokastiske stød, herunder
politikændringer, har.
Kritik
•
Lever ikke op til Lucaskritikken
Spørgsmålet er, om disse modeller er immune over for for Lucas kritik. For ganske vist er modellerne,
som anført af Romer (2012) p.
360, baseret på optimerende agenter, der optræder som mikrote-
orien foreskriver, men disse agenter er rene abstraktioner, og de har ikke nødvendigvis noget gøre med
virkelighedens agenter.
Samtidig er "policy" beskrevet ved en reaktionsfunktion for de pengepolitiske
myndigheder, der nødvendigvis kun kan give et meget forsimplet billede af sammenhængene til den
økonomiske politik.
∗
Dette indebærer, at DSGE-modellerne, ligesom de modeller som Lucas kritiserede, nemlig de såkaldte
Keynesianske makromodeller, er empiriske aggregerede beskrivelser af nogle sammenhænge, som man
ikke på forhånd kan hævde, at fordi de optimerer en kriteriefunktion under bibetingelser, er de stabile
over for politikinterventioner.
31
∗
•
Det må afgøres empirisk ved test for super eksogenitet.
Kalibrerer vigtige parametre
I andre studier inden for denne litteratur går man endnu mere radikalt til værks og estimerer/kalibrerer
parametrene ved at sammenligne de momenter, dvs. typisk middelværdi, varians og autokorrelationskoecient, der kan genereres ud fra den estimerede model, med de momenter, der kan estimeres direkte fra
data.
∗
To fordele frem for økonometrisk estimation.
1. Mikroøkonomisk information kan bedre anvendes
(a) At mikroøkonomisk evidens i form af økonomisk teoretiske overvejelser, der ikke lader sig
udtrykke på matematisk form, bedre kan indgå er vel sandsynligt
2. Man undgår at en statistisk forkastelse af en sammenhæng skyldes nogle økonomisk ligegyldige
forhold.
(a) Data kan til tider kan være besværlige at bakse på plads i forhold til ens forudindfattede
meninger
∗
•
Opgiver man den sidste rest af videnskabelig adfærd?
Svagt identiceret
Mens de Keynesianske makromodeller, der anvendes i praktisk økonomisk politik, er estimeret på baggrund af et meget omfattende datasæt, er DSGE-modellernes datagrundlag meget tyndt, og delvis baseret
på "hvad litteraturen plejer at antage" eller på særskilte studier af visse sammenhænge i økonomien.
Har svært ved at teste for de forskellige parametre.
•
Svend: Efter den såkaldte nanskrise i 2008, men også før, har DSGE-modellerne været udsat for hård kritik.
En kritik, der allerede kom før krisen, er Mankiw (2006), der hævder, at ingen politikskabende institution
anvender DSGE-modeller.
I stedet anvendes de Keynesianske makromodeller.
Denne kritik er dog delvis
tilbagevist af fortalerne for DSGE modellerne
•
Den alvorligste kritik af DSGE-modellerne som et hjælpemiddel til formulering af økonomisk politik er imidlertid, at DSGE-modellerne bygger på forudsætninger af en sådan karakter, at de simpelthen ikke kan anvendes
til at føre økonomisk politik.
Buiter (2009) anfører, at DSGE-modellerne forudsætter, at markederne er komplette, dvs. at alle agenter
til alle tider kan handle med alle varer, og hvor intertemporale budgetbetingelser altid er opfyldt. Derfor
kan ingen gå fallit.
Solow (2010) anfører, at DSGE- modellens sammenklapning til en agent medfører, at økonomien forfølger
et sæt af mål, hvilket næppe er en god beskrivelse af en national økonomi, ligesom modellen ikke har
plads til ufrivillig arbejdsløshed. Arbejdsløshed kan kun opstå i modellen fordi agenten vælger det.
Hvad så?
•
Teoretisk meget bekvemmelige modeller (Altså DSGE er en teoretisk bekvemmelig model)
De forklarer mange komplekse sammenhænge teoretisk og baseret på én repræsentativ agent.
32
•
Det er muligt, og sandsynligt, at man kan foretage en yderligere udvikling af DSGE-modellerne, så de bliver
anvendelige, men det forekommer at være en lang og besværlig vej at gøre dem til mere end smukke, og i en
vis forstand teoretisk attraktive, modeller.
Sammenfatning
•
Makroøkonomi er således ikke en beskrivelse af de enkelte agenter og deres adfærd, der er emnet for mikroøkonomien.
DSGE-modellernes relevans i makroøkonomien kan således ikke bedømmes på, om de beskriver en enkelt agents
adfærd, men skal i stedet bedømmes på, om de kan beskrive helheden. Hvis således DSGE modeller ikke kan
adressere nogle af de ovenævnte vigtige spørgsmål, er deres makroøkonomiske relevans begrænset. Medmindre
man kan acceptere dem som empiriske modeller, der giver en forsimplet beskrivelse af en kompliceret økonomi,
der i en eller anden udstrækning er stabil. Men så er vi tilbage ved Lucas kritikken.
•
Svend mener ikke DSGE løser lukaskritikken. Han kritiserer hovedsageligt 2 ting:
1. Selvom en gruppe af rationelle optimerende agenter med en nedadgående kompenserende efterspørgselskurve er populationen for modellen betyder det IKKE at gruppens kompenserende efterspørgselsfunktion
er nedadgående
(a) Dette er det såkaldte aggregationsproblem
2. Han siger at man sætter en masse parametre a priori uden at estimere disse. Dette medvirker til at det
bliver nemt at snyde og selvfølgelig skal alle parametre i en model estimeres.
(a) Ydermere betyder dette at hvis man skal publicere eks 2 artikler om året er det nemt at anvende en
DSGE model; man sætter bare parametrene så modellen passer og nemt får udgivet dette.
Stikordsform af kritikken:
•
Vurdering
Kritikpunkter
1. DSGE-modellerne bygger på forudsætninger af en sådan karakter, at de simpelthen ikke kan anvendes
til at føre økonomisk politik
2. DSGE-modellerne forudsætter, at markederne er komplette, dvs. at alle agenter til alle tider kan
handle med alle varer, og hvor intertemporale budgetbetingelser altid er opfyldt. Derfor kan ingen
gå fallit. (Buiter)
3. DSGE-modellens sammenklapning til en agent medfører, at økonomien forfølger et sæt af mål, hvilket
næppe er en god beskrivelse af en national økonomi, ligesom modellen ikke har plads til ufrivillig
arbejdsløshed. Arbejdsløshed kan kun opstå i modellen fordi agenten vælger det (Solow).
4. DSGE-modellernes relevans i makroøkonomien kan ikke bedømmes på, om de beskriver en enkelt
agents adfærd > Det handler om helheden
∗
Hvis DSGE-modeller ikke kan adressere makro spørgsmål er deres makroøkonomiske relevans
begrænset.
·
Medmindre man kan acceptere dem som empiriske modeller, der giver en forsimplet beskrivelse
af en kompliceret økonomi, der i en eller anden udstrækning er stabil. > tilbage ved Lucas
kritikken.
Livsfarlig cocktail: Selvbedrag baseret på fortolkninger af resultater, der i overensstemmelse med videnskabsmandens a priori opfattelse bliver en holdning, hvor man ser bort fra informationer, der ikke passer
til den opstillede model
33
Makroteoriens basering på mikroteorien
∗
Fra undervisningen: Det vises, at de antagelser, der i mikroøkonomien pålægges den enkelte agent,
ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er
umuligt at påstå, at denne f.eks. maksimerer en kriteriefunktion, der afspejler kriteriefunktionen hos
de agenter, som skal repræsenteres.
∗
Hermed er der heller ikke nogen grund til at tro, at parametrene i modeller med repræsentative
agenter er dybe i den forstand, at de er særligt stabile over for eksogene stød til økonomien, som
f.eks. politiske tiltag.
∗
VIGTIGT VIGTIGT: RBC-modeller og DSGE-modeller også sårbare over for Lucas kritikken.
Intet hindrer, at man opstiller og anvender modeller, hvor der er nogle få optimerende ktive agenter,
som illustrerer beslutningstagningen i modellen.
∗
Anvendelighed afgøres på sædvanlig vis > Forklarer de data og kan de anvendes til det, en makroøkonomisk
model skal kunne anvendes til?
34
Opgave 12.
Diskuter begrebet "den repræsentative agent", herunder om makromodeller baseret på et mikroøkonomisk
fundament med optimerende agenter, med rette kan anses for at være uden for Lucaskritikkens
domæne.
Den repræsentative agent: Økonomer bruger begrebet Den repræsentative agent til at referer til en typisk
beslutningstager af en bestemt type (fx. forbrugere eller virksomheder). En økonomisk model har repræsentative
agenter hvis alle agenterne af samme type er identisk. Vi kan også have at agenterne er forskellige, men her pålægger
vi en begrænsning således at deres sum af valg er matematisk lig beslutningen af et individ eller mange individer.
Vi sammenlægger således mikroøkonomiske agenter og antager at de alle er identiske således at vi kan repræsentere
dem ved én agent.
Denne ene agent skal således forestille sig at indeholde alle de egenskaber der ndes for de
mikroøkonomiske agenter, i en makroøkonomisk model
Problemet:
•
Man kan ikke basere modeller på makroteori uden at inddrage hvordan individuelle agenter handler
Derfor siger metodologisk individualisme at man bør forklare makroøkonomiske fænomener, baseret på
hvordan enkelte individer handler.
Dette ligger sig tæt op ad Lucas kritikken, der siger at man bør basere sin model på dybe invariante/
konstante parametre, hvilket i praksis gøres ved at basere modellerne på et mikroøkonomisk fundament.
Løsning:
•
Et forsøg på at imødekomme dette er at basere sine modeller på én repræsentativ agent (der antages at være
Homo Oeconomicus, altså en rationel tænkende agent)
Dette er imidlertidigt en dårlig løsning, da denne aggregerede agent på ingen måde kan tage højde for
heterogeniteten i befolkningens adfærd (Er den repræsentative agent gennemsnitlig?
Og kan han så
korrekt modellere de forskelle er der på rig vs. fattig i en makromodel?)
∗
Tag for eksempel aggregeringen af efterspørgselskurver:
·
Selvom hvert enkelt individ (utænkeligt) skulle have en lineær nedadgående efterspørgselskurve,
vil den aggregerede på ingen måde have denne simple udformning. Der er ikke engang en garanti
for at den vil være nedadgående.
∗
Indebærer, at DSGE-modellerne (ligesom de Keynesianske makromodeller som Lucas kritiserede), er
empiriske aggregerede beskrivelser af nogle sammenhænge, som man ikke på forhånd kan hævde er
stabile over for politikinterventioner, blot fordi de optimerer en kriteriefunktion under bibetingelser.
·
Kun test af modellerne empirisk ved super eksogenitet kan afgøre om modellerne er immune
overfor Lukas' kritik.
·
Denne test er dog svær at lave fordi disse modeller ofte er svagt identiceret.
Ved at have en økonomi med kun én agent følger økonomien kun ét sæt af mål, hvilket må siges at være
en dårlig beskrivelse af nationaløkonomien.
Skulle man kunne opnå disse eftertragtede dybe parametre er der heller ikke noget der indikerer at disse
skulle være invariante overfor strukturelle skift i økonomien.
∗
Desuden kan denne repræsentative agent ikke håndtere at rige og fattige reagerer forskelligt på
eksogene chok og strukturelle knæk i økonomien
35
Derfor kan man ikke med sikkerhed sige, at makromodeller baseret på et mikroøkonomisk fundament undviger
Lucaskritikken.
•
De er stadig ikke baseret på dybe invariante parametre, da:
Det vises, at de antagelser, der i mikroøkonomien pålægges den enkelte agent, ikke pålægger den repræsentative agent tilsvarende eller blot aedede restriktioner, hvorfor det er umuligt at påstå, at denne f.eks.
maksimerer en kriteriefunktion, der afspejler kritieriefunktionen hos de agenter, som skal repræsenteres.
•
Den repræsentative agent kan således ikke siges korrekt at repræsentere de agenter der bender sig i den
mikrofunderede økonomi.
Det betyder dog ikke, at man ikke kan benytte disse modeller til at forklare makroøkonomiske relationer. MEN
man bliver nødt til at vise deres værd at teste dem empirisk. Der er dog intet der umiddelbart indikerer at de skulle
være bedre til at analysere policy ændringer jf. at de ikke lever op til Lucaskritikken.
Vi kan altså konkludere at makroteori baseret på et mikroøkonomisk fundament ikke er uden for
Lucas kritikkens domæne, da de opstillede modeller, med udnyttelse af den repræsentative agent,
ikke er dybe nok, og invariante overfor politiske tiltag, da der stadig skal opstilles a priori antagelser
for modellens parametre.
•
Fra Svend: Der er selvfølgelig ikke noget, der forhindrer, at man opstiller og anvender makromodeller, hvor
der er nogle få optimerende ktive agenter, som illustrerer beslutningstagningen i modellen.
Om sådanne
modeller er anvendelige må imidlertid afgøres på sædvanlig vis ved, at de forklarer udviklingen i de relevante
makrodata, ud over at de selvfølgelig skal kunne anvendes til det, en makroøkonomisk model skal.
Indtil videre er dette i hvert fald tilfældet. Det kan være at der i fremtiden bliver videreudviklet på disse idéer,
men problemet er at modellerne bliver så komplekse at idéen om simpliceringer forsvinder og modellerne bliver
om muligt endnu svagere identiceret.
•
Svend mener ikke DSGE løser Lukaskritikken. Han kritiserer hovedsagligt 2 ting:
1. Selvom en gruppe af rationelle optimerende agenter med en nedadgående kompenserende efterspørgselskurve er populationen for modellen, betyder det IKKE at gruppens kompenserede efterspørgselsfunktion
er nedadgående
(a) Dette er det der kaldes aggregationsproblemet
2. Yderligere siger han, at man sætter en masse parametre a priori uden at estimere disse. Dette medvirker
til at det bliver nemt at snyde og selvfølgelig skal parametre i en model estimeres.
(a) Ydermere betyder dette at hvis man skal publicere eks. 2 artikler om året er det nemt at anvende
en DSGE model; man sætter bare parametrene så modellen passer og så kan man nemt få udgivet
sine to artikler.
Diskusion
Lucas' kritik har været utroligt indydelsesrig, da den generelt ses som udgangspunkt for det paradigmeskift,
hvor makroøkonomisk teori blev mikro-baseret.
Den mikro-baserede tilgang kommer ud fra antagelsen om at
ændringer i den makroøkonomiske policy ikke påvirker de mikro-økonomiske dybe parametre.
Brugen af den
repræsentative agent er også udsprunget fra kritikken, som en løsning på det aggregeringsproblem, der opstår som
følge af mikro-fundamentet. Der er, som Lucas har udtalt ved mange lejligheder, ikke længere behov for at skelne
mellem mikro- og makroøkonomi. I stedet er det mere relevant at diskutere økonomi som et mere generelt begreb.
En sikker sten at betræde i diskussionen af Lucas-kritikken er at den om ikke andet har slået fast, at økonomisk
analyse af politiske interventioner er behæftet med stor usikkerhed, så længe vi ikke kan lave modeller, der er stabile
overfor netop disse interventioner.
36
• Elster (1982) kritik af Marx:
I Elsters (1982) kritik af Marx' funktionelle forklaringer anvendes metodologisk individualisme.
En af Marx påstande var, at kapitalisterne holder en reservearmé af arbejdsløse med det formål at holde
lønnen nede.
∗
Indebærer, at den enkelte arbejdsgiver ikke, som vi normalt antager, ansætter arbejdskraft indtil det
punkt, hvor grænseomsætningen er lig med grænseomkostningerne.
∗
For at opretholde en reservearmé af arbejdsløse, må den enkelte arbejdsgiver ansætte færre, og til et
punkt hvor grænseomsætningen er større end græseomkostningen.
∗
Herved mister arbejdsgiveren prot. Den enkelte arbejdsgiver har således et stærkt incitament til
at free ride for at maksimere sin prot. Dvs. han vil betale en højere løn og ansætte ere, indtil
grænseomsætning er lig grænseomkostningerne.
∗
MEN det gælder jo alle arbejdsgivere, men herved forsvinder reservearméen, medmindre man er i
stand til at opretholde en kartellignende situation, så arbejdsgiverne overholder kartellets bestemmelser om ikke at ansætte op til det optimale. Og det er ikke sandsynligt i det lange løb.
37
Opgave 13.
Diskuter Paul Romer, What Went Wrong in Macro
1) Oversigt:
Romers artikel behandler den strid som af nogle kaldes striden mellem saltvandsøkonomerne på østkysten (Harvard,
MIT, Yale, Princeton) og vestkysten Berkeley, UCLA, Stanford og ferskvandsøkonomerne i Chicago og Minnesota.
•
Indlægget af Paul Romer fra 2016 redegør for hvad der gik galt i makroøkonomien samt en diskussion om,
hvordan tingene kom så langt ud, og hvad vi kan lære heraf.
Romer påstår, at problemerne ikke kun kan
tilskrives Robert Lucas og hans tilhængeres vedholdenhed, som mente, at de eksisterende Keynesianske modeller var alvorligt mangelfulde. Romer mener ikke, at den forkerte drejning i makroøkonomien hverken skyldes
Lucas eller hans modstandere, dog mener han, at de bør holdes ansvarlige for at miste deres forpligtelse til
Feynman integritet , som er en af videnskabens grundsten. (Det at man opgiver alle oplysninger, også negative
om sine teorier osv)
Den generelle konklusion, som Romer drager, er, at alle økonomer ville have det bedre, hvis de stoler på videnskaben.
Ifølge Romer, har Solow og Lucas overbevist sig selv om, at for at gøre fremskridt på den vej som de fulgte, måtte
de tage en genvej, der afveg fra videnskabens normer. Men i begge tilfælde gav genvejen bagslag;
1. Solows afvisende kritik endte med at give den værste type af ny klassisk makroøkonomi, som forstyrrede en
god politik, og
2. Lucas og Co.' isolering underminerede den forpligtelse til videnskab, der var central for Lucas' arbejde, da
han startede. Derfor mener Romer, at det er bedre at forpligte sig til videnskabens normer.
2) Historiske detaljer:
Efter Romers opfattelse (han k sin ph.d.
fra Chicago efter studier også ved MIT) stammer denne konikt fra
Solows (MIT), afvisning af Lucas og Sargents teorier i 1970'erne om at agenternes optimerende adfærd og deres
rationelle forventninger ville medfører at de økonometriske makromodeller, der var baseret på empiriske estimerede
relationer ikke ville kunne anvendes til policysimulationer, dels at økonomisk konjunkturudjævnende politik som
sådan ville være vanskeliggjort. At det skulle være Solows afvisning af lucasteorien, der skulle have fået
Lucas m. til at reagere som de gjorde og isolere sig, er Svend meget skeptisk overfor. Lucas og
mange andre har fået mindst ligeså hård og arrogant kritik i Chicago, hvor Friedmann og Stigler var
kendte hårde debattører. Baggrunden for opsplitningen er snarere en mere grundlæggende divergens
i opfattelsen af samfundet, som også var der før Lucas.
Lucas og Sargent var ig. Romer godt på vej ind i den Samuelsonske lejr (generel ligevægtsteori), men ig. Romer
betød Solows britisk lignende arrogante kritik, en kritik som ig. Romere mere skyldes Solows frygt for at konjunkturpolitikken ville få dødsstødet end for videnskabelige hensyn, at Lucas blev fornærmet og trak sig tilbage til
Chicago, hvor han blev fanget ind af Stigler. Romer kritiserer således såvel Lucas som Solow (og selvfølgelig Stigler)
for ikke følge Feynmans anbefalinger for god videnskabelig adfærd. Men hovedkritikken retter sig dog mod Lucas,
idet tilbagetrækningen betød, at Chicago og Minnesota (RBC) udviklede sig til et sted hvor videnskabeligheden
har ringe kår i et miljø, der nægter at diskutere med andre end sig selv.
3) Solows valg:
Adskillige økonomer har kommenteret på, hvordan makroøkonomi udviklede sig i de sene 70'ere. Lucas og Sargent
havde ret i, at der var noget galt med de store makrosimulationsmodeller, men tog derimod fejl, da de hævdede, at
den nye type model, som de tilbød som et alternativ, allerede til-bød rådgivning til beslutningstagere.
38
Ved at springe for tidligt til politisk rådgivning, underminerede de deres videnskabelige dagsorden. Solow valgte at
reagere med sarkastisk benægtelse. Hans hårde og defensive reaktion bunder sandsynligvis i, at han var bekymret
for muligheden for, at folk, der havde en indvirkning på politik, ville acceptere det politiske råd, som Lucas og
Sargent tilbød.
Solows reaktion til Lucas og Sargents tidlige spring til politik, gjorde to typer af skader. For det første satte
det videnskabens dynamik tilbage, og for det andet underminerede det kvaliteten af den politiske
rådgivning, som Solow var bekymret for. Han gik glip af muligheden for at omfavne SAGE-modeller som
et værktøj til at skabe indsigt om udsving.
Han kunne nemlig have benyttet en SAGE-model til at skabe det
intellektuelle fundament for den type politik, som han støttede. Det vil sige, at Solow begik samme fejl som Lucas
og hans tilhængere, nemlig at springe for tidligt ind i politikområdet, og derved ikke give videnskabsdynamikken
tid til at udføre sit arbejde. Ifølge Romer, bør Solow have anerkendt, at der var problemer med de eksisterende
modeller i stedet for, således at økonomer ville være bedre stillet
Holde sig til videnskab:
Afslutningsvis konkluderer Romer, at de este udkast til SAGE-modeller, som økonomer udforsker, viser sig at
være forkerte. Viden akkumuleres gennem en proces med at være fjollet nok til at være præcis og derefter udslette
de fjollede modeller, der ikke passer godt til fakta. Processen er rodet og tager sin tid, men den fungerer. Ifølge
Romer, kræver det et par sund fornuft- principper for at kunne holde sig til den sociale vi-denskabsproces. Disse
inkluderer blandt andet vericering og at fakta trumfer modeller. Disse er gode pointer, da de sikrer at man ikke
bruger upræcise modeller til politiske beslutninger, men derimod at modellerne skal passe til den anvendte data og
dermed give et korrekt billede.
Diskussion:
•
Romer har nogle gode pointer om, at det er problematisk at Lucas opgav videnskabens principper om Feyman
integritet
Videnskaben har brug for at man forholder sig kritisk overfor egne og andres teorier
Samt at det er vigtigt at forholde sig til fakta, så modellerne rent faktisk kan forklare data
•
Argumenter om at den hårde kritik skulle få Lucas til at isolere sig er svagt. Man modtager kritik alle steder
i videnskaben
•
En bedre forklaring på opslitningen indenfor makroøkonomi ligger nok nærmere i den mere gundlæggende
divergens i opfattelsen af samfundet. (Hvilket også fandtes før Lucas).
39
Opgave 14.
Diskuter publikationsbiases.
Der er stor forskel på den forskning som bliver droppet og den forskning der ender med at blive
publiceret. Denne forskel ses blandt andet på:
•
Hypoteser som bliver afvist er typisk ikke så interessante som det modsatte, hvorfor de ofte bliver kasseret.
•
Forskningsresultater som ikke stemmer overens med den herskende opfattelse bliver ofte kasseret.
Men hvad er det her publikationsbias sådan helt konkret?
•
Konkret går publikationsbias ud på at ønsket fra forskerens side om at publisere sin forskning, afhænger af de
resultater man opnår i sin forskning.
Typisk vil man se, at forskning med signikante resultater, har en meget større sandsynlighed for at blive
publiceret, end forskning der viser insignikante resultater.
Det handler i stor grad om at chancen for at blive publiseret i tidsskrifter, er større når ens resultater
viser sig at være signikante, og eventuelt bidrager med helt nye resultater til den akademisk verden.
Når man snakker om publikationsbiases, kan man tage udgangspunkt i en udtalelse af Harvard professoren
Robert Rosenthal, der siger: For any given research area, one cannot tell how mant studies have been
conducted but never reported. The extreme view of the 'le drawer problem' is that journals are lled
with the 5% of the studies that show Type I errors (forkaste en sand nul hypotese), while the le drawers
are lled with the 95% of the studies that show non-signicant results.
Dette synspunkt fra Robert Rosenthal kan godt virke ekstremt, men der er næppe nogen tvivl om, at
der er en ikke ringe sandsynlighed for, at resultaterne, der publiceres i tidsskrifter, er forskellige fra de
resultater, der ikke er publiceret, og som nu ndes i arbejdspapirer, som tidligere samlede støv i skuer
og skabe og nu optager lagerplads på computere.
∗
Problemet er at mange muligvis informative resultater aldrig ser dagens lys, da de ikke er interessante
nok til at blive publiceret.
Dette er et problem fordi publiceret forskning dermed ikke er repræsentativt for alt forskning
på området.
Den publicerede forskning er ikke udelukkende et udtryk for niveauet (kvaliteten) af undersøgelsen, men
også blot et udtryk for et uhensigtmæssigt bias.
∗
Dette ekstra pres på at få publiceret artikler gør, at der er incitamenter til at justere
/manipulere
sine resultater til at vise bestemte resultater i retning af det, man som forsker subjektivt ønsker.
∗
Desuden gør dette pres også at man kun udgiver noget, der har en reel chance for at blive publiceret,
hvilket kræver at man kommer med interessante resultater.
•
Incitamentsstrukturen for forskere og tidsskriftsredaktører der bl.a. er baseret på citationsresultater gør at
resultater der blot bekræfter eller svagt afviser eksisterende resultater ofte havner i skuen.
Og derfor kræver det revolutionerende resultater for at det kan blive publiceret i de rigtige tidsskrifter
som folk læser.
40
Derfor må man forvente at publiceret forskning ikke blot er kvalitetsmæssigt bedre, men også er et opgør
med eksisterende forskning.
•
Hvis man tager de kritiske briller på og ser det fra et kritisk synspunkt så kan man sige, at det er forståeligt
nok at forskere ikke ønsker at publicere åbenlyse og måske endda kedelige resultater (når hovedhypotesen
bliver afvist).
Et nyskabende resultat er alt andet lige mere interessant, hvis det modsiger tidligere statistiske signikante resultater.
Det er naturligt nok at forskere skal prøve sig frem, når de tester hypoteser, og
derfor giver det måske god mening, at alle resultater ikke bliver publiceret, og slet ikke de, der ikke er
nævneværdige.
Alligevel mener jeg også at der måske kan være noget galt med den eksisterende incitamentsstruktur
der er blandt forskere, da selvom man måske får et kedeligt resultat som ikke understøtter noget af
det andet, så er disse resultateter med til at underbygge den eksisterende forskning, samt at nogle af
resultaterne der ikke publiceres kan være informative resultater, som andre forskere ville kunne bruge,
hvilket vil styrke det faglige miljø.
Men med den stigende digitalisering og bedre computer er der en god mulighed for, at den, der søger,
kan nde frem til mange resultater, der ikke er publiceret i de kendte tidsskrifter. Problemet er dog her,
at tidsskriftspubliceringen optræder som et kvalitetsstempel på resultaterne, og dermed reelt kan afholde
søgningen i at nde alt relevant.
Kim and Ji (2015) om publikationsbias:
•
Af artiklen fremgår det at hvis man kigger på alle de artikler, de har undersøgt, så er der tydeligt bevis for
publikationsbias, hvor man ser at der kun er 2 undersøgelser (ud af mange), som rapporterer insignikante
resultater (på 10% signikansniveau).
•
Dette viser en klar bias for hvilke undersøgelser der bliver publiceret, hvor det (næsten) kun er de undersøgelser
som kan bekræfte/forkaste noget der bliver publiceret, hvilket gør at forskere der har lavet en undersøgelse
som ikke kan konkludere noget, ikke bliver publiceret.
•
Det har den betydning at man kan tro at der er stor evidens for at tro H0 er falsk når den i virkeligheden
er sand, hvis der er nogen som har kunne fremvise det en gang, men der i virkeligheden er lavet mange
ere undersøgelser, der ikke har kunnet sige noget om H0, men ikke er blevet publiceret pga.
manglende
Det er altså et kæmpe problem! - Da forskningen kan
blive kraftigt biased, hvis man har problemer med at få publiceret insignikante resultater, på
baggrund af den eksisterende litteratur viser signikante resultater.
forkastning.
(De Long and Lang, 1992).
41
Opgave 15.
Diskuter Homo Oconomicus modellen.
•
Homo Oeconomicus er kort sagt en rationel agent. Dette er et begreb der er vidt deneret. I McDowell et.
al. (2012) deneres en rationel person som en person, der forsøger at opfylde sine veldenerede mål på bedste
måde. Denne denition kan formaliseres ved:
Først ved beslutningsproblemet, der er karakteriseret ved tre forhold:
∗
Handlinger > alle alternative, som agenten kan vælge at udføre, herunder køb af en vare A (chokolade) og købe af en anden vare B (chips).
∗
Udfald > alle mulige konsekvenser af disse handlinger, som spisning af x chokolader og spisning er
y chips.
∗
Præferencer > beskriver agentens rangordning af alle mulige udfald.
Dernæst ved en præference relation, som er givet ved:
∗
∗
Præferencerelation: x er mindst lige så god som y, der skrives
Præferencerelationen er komplet: hvis vi for to udfaldt x og
lige så god som y eller
x y, for mængden af alle alternativer.
y har, at x y , det vil sige x er mindst
y x, det vil sige y er mindst lige så god som x eller begge, hvilket indebærer,
at vi har en præference relation over alle mulige alternativer i denne verden.
∗
Præferenceraltionen er transitiv: hvis x er mindst lige så god som y,
midst lige så god som z,
•
y z,
x y, i det
x z.
tilfælde hvor y er
og så vil x være mindst lige så god som z,
Rationel præferencerelation: er en præferencerelation der både er komplet og transitiv.
Given en sådan relation kan vi opstille en pay-o funktion eller en nyttefunktion. Denne angiver nytten
af alle de udfald, som agenten har valgt.
En pay-o funtion
u(.)
repræsenterer således en præference relation, hvis og kun hvis den tildeler højere
værdier til højere rangerede udfald i præference relationen.
Diskussion af Homo Oeconomicus
•
Derfor er Homo Oeconomicus således en agent, der har rationelle præferencer og er rationel, givet at vedkommende forstår alle aspekter af beslutningsproblemet.
•
Agenten vælger den handling, der giver det største payo af mængden af mulige handlinger.
Dog er det tydeligt, at mange af ovenstående antagelser er temmelig strenge og kan skabe problematikker.
1. At præference relationen er komplet, (Agenten har præferencer over alle mulige udfald) er givetvis
ikke tilfældet > Alle mulige udfald er sjældent kendt.
2. Transitivitets antagelse er der ligeledes blevet sat spørgsmåltegn ved. Bl.a. ved en række eksperimenter omfattende økonomiske agenter.
3. Antagelsen om at agenterne fuldt ud forstår alle relevante aspekter af beslutningsproblemet er også
problematisk.
•
Det postuleres typisk at Homo Oeconomicus er egoistisk. Dette kan der også sættes spørgsmålstegn ved.
42
Som beskrevet har Homo Oeconomicus en pay-o funktion, som ofte betegnes ved en nyttefunktion.
Denne kan dog indeholde argumenter vedrørende andre personers forbrug mv. Dvs. at påstanden kun
er korrekt, hvis man postulerer, at jeg er egoistisk, selvom min nyttefunktion afhænger af forhold, som
vedrører andre, eg. mine venner, kærester, forældre etc. > Dette vil i så fald være en pudsig denition
af egoisme.
•
En anden kritik:
Agenternes valg er afhængigt af den kontekst, hvori valget skal tages.
Beslutningen er afhængig af den sociale kontekst, hvilket kan udtrykkes ved agentens humør osv. Dette
kan give begrænsninger for anvendeligheden af pay-o funktionen, hvis disse kontekst-afhængige forhold
skal medtages. Fx handler jeg når jeg er sulten, eller når jeg er mæt?
Det er altså problematisk, hvis folks beslutninger afhænger af den sociale kontekst og de derved ændrer
præferencer afhængigt af situationen
Det er vigtigt at påpege at Alle modeller, også økonomiske modeller, er simplikationer af virkeligheden,
og når den rationelle valgmodel, som ovenfor beskrevet, bygger på en række antagelser som synes at være
nærmest ubegribeligt omfattende og strenge, og dermed også forekommer helt urealistiske, er spørgsmålet,
om man ikke kan løsne disse antagelser uden at det i praksis får den store konsekvens for de resultater,
som teorien giver
•
Spørgsmålet er således, om forudsætningen om at præference relationen er komplet, kan erstattes af en
forudsætning om, at præference relationen er komplet for en gruppe af agenter, der agerer på et givet marked,
og i forhold til det informationssæt, som markedets agenter har?
•
For så vidt angår betingelsen om, at præference relationen er transitiv, er spørgsmålet også, om den f.eks. er
transitiv og rimelig stabil over tiden for en gruppe af væsentlige valg. Væsentlige i den forstand, at valgene
har stor betydning for den relevante mængde af agenter.
•
Sådanne spørgsmål kan i realiteten kun besvares af empiriske studier af relevante og realistiske situationer.
(Laboratorieeksperimenter kan også benyttes, dog med forbehold).
As if argumenter for ubegrænset rationalitet
•
Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange
argumenter
Agenterne handler ikke ubegrænset rationelt, da agerer bare som om. Dette argument er et
betinget argument, der kan undersøge empirisk og her er der varierende resultater jvf. tidligere.
∗
Bare en model der skal forklare deres handlinger. Man agerer som om man har lavet matematiske
ligninger (billiard)
Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden.
Også dette
argument kan afprøves empirisk, og også her er der varierende resultater.
Agenter der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument
gælder formentlig i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men
bemærkningerne ovenfor gælder også her.
∗
Måden man lærer på i virkeligheden er 'trial and error' > Derfor giver det ikke mening at sige folk
går konkurs i det lange løb > Man kan godt agerer rationelt med den information der er tilgelig >
Men er den information begrænset kan man godt agere rationelt og stadig gå konkurt > Argumentet
beskriver ikke virkeligheden.
43
Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accpeterer, at økonomi
er en succes, er spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller
med f.eks.
en mere begrænset rationalitet.
Herudover kan det anfægtes, at det er den optimerende
adfærdsantagelse, der er skyld i successen. Og her har de undersøgelser, der er foretaget i overvejende
grad testet mod et alternativ, der var urealistisk, som f.eks. at der ingen eekt er i retning af optimering.
En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Hvis agenten ikke følger denne model, går man glip af indtægt.
Ja, men det kan også være at man undgår
nogle omkostninger, som man f.eks. pådrager sig ved at skabe et grundlaf for, at beslutningen kan være
rationel.
Hernæst beskriver Thaler sone 6 prognoser om Homo Oeconomicus(HO):
1.
HO vil tabe IQ i modsætning til udviklingen de sidste 50 år (set fra år 2000). Thaler påstår
at HO er blevet mere intelligente fordi HO i stigende grad har fået evne til at se ind i fremtiden (rational
expectations), i stigende grad er blevet mere optimerende (Lucas kritik), maksimerer deres forventede nytte.
I fremtiden vil økonomiske modeller have agenter, der tænker bredere og både mere eller mindre sostikeret
end tidligere. > Relevant at inkludere i modeller. Individer er klart blevet mere komplekse.
2.
HO vil blive langsommere til at lære. Når modellerne bliver mere komplicerede med agenter, der ikke
nødvendigvis er ens, må man forvente at det tager længere tid og kræver en sostikeret læringsprocesser for
de økonomiske agenter. > Overvejende rigtigt. Hænger sammen med 1 givet den øget kompleksitet.
3.
Agenterne bliver mere heterogene > Overvejende rigtigt. Generel trend i de ny udviklende modeller.
4.
Økonomer vil begynde at studere menneskelig læring og erkendelse. Det er givet, at hvis man skal
forbedre den økonomiske teori ved at anvende mere komplicerede og forhåbentlig mere realistiske modeller
for den økonomiske adfærd, bliver man nødt til at studere den menneskelige adfærd og få opstillet nogle
modeller, der i langt højere grad er formaliserbare end det, der gælder for mange af de psykologiske modeller.
Psykologer, hvis hovedopgave er at hjælpe enkeltpersoner har ikke nødvendigvis brug for en model til den
typiske person > men det har økonomer. Enig. Trial and error = læring? > adaptive markeder. Evolution
generelt. Erkendelse?
5.
Økonomer vil begynde at skelne mellem normative og deskriptive teorier. Thaler påstår her, at da
økonomer bliver mere som psykologer, vil de også være nødt til at foretage denne skelnen. I økonomi foretager
man den også, men her smelter modellerne mere sammen, i hvert fald på nogle områder. Dette skyldes, at
modellerne er baseret på optimerende agenter.
Virkelighed/empiri vs.
teori.
Bygges teori på empiri eller
omvendt? Optimerede agenter > bliver til begrænset optimere > adaptive markeder. Lærende mekanisme.
6.
HO vil blive mere følelsesladet. Homo Oeconomicus vil blive mere følelsesladet i den forstand, at økonomer
vil begynde at studere følelser som bestemmende for adfærd. > Given mening i forhold til basal behavioral
economics teorier. Min nyttefunktion afhænger også af `Simones forbrug' da jeg `care' for hende. Risk-aversion
(tab betyder mere end en gevinst.)
44
Opgave 16.
Diskuter rationelle valg under risiko
I den økonomiske litteratur anvender man to begreber:
Risiko og usikkerhed.
Begreberne blev introduceret af
Frank Knight (1921)
I
beslutningstagninger under risiko står man overfor en situation hvor udfaldsmulighederne er kendte og
man kender eller man kan estimere sandsynligheden for hver af de mulige udfald.
I
beslutningstagninger under usikkerhed kender vi ikke (alle) udfald, og vi kender ikke deres sandsynlighed.
I en del af litteraturen skelner man ikke mellem risiko og usikkerhed, og de modeller der diskuteres, er som ofte
beslutningsmodeller under risiko, også selv om de benævnes beslutningsmodeller under usikkerhed.
Her fokuserer vi på valg under risiko
St. Petersburg paradokset.
En umiddelbar løsning kunne være, at man erstattede det sikre udfald med den forventede værdi af udfaldet. Men
som det fremgår af det såkaldte St. Petersburg Paradox vist i Bernoulli i 1738 givet dette problemer.
Antag at vi kaster en mønt og som i Nicholson et al. (2012) udbetaler
2i
kr., hvis krone først viser sig i det
i0 te
kast. Det betyder at den forventede værdi af spillet bliver uendelig, men det beløb kan og vil ingen betale for at
deltage!
von Neumann-Morgenstern indekset
John von Neumann og Osker Morgenstern (1944) foreslog i stedet for en løsning til problemet ved at konstruere et
nytteindeks, der senere er blevet kaldt von Neumann-Morgenstern indekset (vNM indekset).
•
Dette vNM indeks konstrueres ved at sætte forbrugeren i en spilsituation, hvor spilleren skal vælge mellem et
sikkert udfald og et spil, hvor man får den største gevinst med sandsynlighed
sandsynlighed
1 − π.
Det valg foretages for en række værdier af
Når vores forsøgsperson vælger
π,
f.eks.
π∗ ,
og den mindste gevinst med
ved at erklære sig indierent mellem det sikre udfald og spillet,
tildeles det sikre udfald et vNM indeks med værdien
•
π
π.
π∗ .
Dette medfører at valget nu ikke bliver et valg mellem eksempelvis vare- og tjenestekombinationer, men bliver
et valg mellem spil ofte kaldet lotterier, idet man vil vælge det lotteri, der giver den største vNM indeks.
Aksiomer i den forventede nytteteori.
•
A. Præferencerelationen
%
•
B. Præferencerelationen
%
deneret over mængden af lotterier er komplet og transitiv.
deneret over mængden af lotterier er kontinuert, hvilket indebærer, at en lille
ændring i sandsynlighederne ikke ændrer rangordningen mellem to lotterier.
•
% deneret over mængden af lotterier er uafhængig dvs. at det for alle lotterier gælder,
L2 blandes med et tredje lotteri L3 vil blandingen θL1 + (1 − θ)L3 %
L1 % L2 og 0 ≤ θ ≤ 1. Man kan således blande hver af to lotterier med ethvert andet
C. Præferencerelationen
at når et lotteri
L1
θL2 + (1 − θ)L3 ,
og et andet lotteri
hvis
lotteri i mængden af lotterier, og opretholde rangordningen mellem de to lotterier i de blandede lotterier, hvis
præferencerelationen er uafhængig.
Det forventede nytteteorem.
Hvis Axiom A, B og C Gælder, kan præferencerelationen
%
45
repræsenteres af
•
En payo-funktion (nyttefunktion) af formen
•
hvor
•
og
πj,i
er sandsynligheden for udfald
i
Pn
i=1
i lotteri
πj,i ui (xi ),
j, j = 1, 2
ui (xi ), i = 1, 2, ..., n er et sæt af tilknyttede tal, kaldet nytten, således at
hvis og kun hvis L1 (π1,1 , π1,2 , ...., π1,n ) % L2 (π2,1 , π2,2 , ...., π2,n ).
Bemærk at
Pn
i=1
π1,i ui (xi ) ≥
Pn
i=1
π2,i ui (xi ),
ui = ui (xi )
Fortolkning:
•
Det er således vist at man i tilfælde af beslutningstagning under risiko,
hvor man kender udfaldsmuligederne og deres sandsynligheder,
har komplette og transitive præferencer over lotterierne,
hvor en lille ændring i sandsynligheder ikke ændrer præferencerelationen (kontinuitet),
og hvor man kan blande to lotterier med et tredje lotteri uden at ændre rangordningen (uafhængighed)
•
kan konstuere et von Neumann-Morgenstern nytteindeks, som den forventede værdi af nytterne af udfaldene,
dvs.
•
Pn
i=1
πi ui (xi )
Dette resultat er et meget stærkt resultat, men ser vi på de opstillede betingelser, er det også givet, at den
kritik, der blev rejst mod teorien om rationelle valg under usikkerhed, også kan rejses her. At præferencerne
er komplette og transitive, og at agenter helt kan forstå alle valg og alle muligheder er selvfølgelig stærk kost
Indierenskort
•
Eksempel: Et tilfælde med tre udfald
Da
Pn
i=1
πi = 1
bliver
x1 < x2 < x3
π2 = 1 − π1 − π3 .
π1
større end
π3
x1 .
π3
for
x3
x1
dvs.
π1
afsat ud af
er afsat ud af orinataksen (y-aksen).
π3 , sker dette på bekostning af en lavere π2 = 1 − π1 − π3 , hvilket
x2 .
konstant og forøger
er at foretrække idet
Holder man
π1 , π2 , π3
I gur 3 med sandsynligheden for
abscisseaksen (x-aksen), mens sandsynligheden
Hvis man holder
med sandsynligheder
x3
er større end
konstant og formindsker
π1 ,
hvorved
46
π2
forøges, er dette også at foretrække, idet
x2
er
•
Vi ser således at bevægelser mod nordvest, hvorved
π3
forøges og
π1
formindskes, indebærer en forøgelse af
udbyttet og bevægelsen indebærer således en nytte-forbedring målt ved vNM indekset.
Allais paradoks
Allais-paradokset er et valgproblem designet af Maurice Allais for at vise en inkonsekvens af faktiske observerede valg med forudsigelserne af den forventede brugsteori.
Betragt følgende 4 lotterier
L1 = (0, 1, 0)mod L2 = (0.01, 0.89, 0.1)
L3 = (0.9, 0, 0.1)mod L4 = (0.89, 0.11, 0)
•
Under teoremet om forventet nytte, hvor der er uafhængighed vil man vælge
47
L1
fremfor
L2
og
L4
fremfor
L3 ,
hvis hældningen på indierenskurverne er som hældningen på
mellem
•
og
Man vil vælge
IB ,
på
•
L1
L2
L2
og mellem
frem for
L4
L1
og
og
IA ,
idet
IA
er stejlere end linjestykkerne
L3 .
L3
frem for
L4 ,
hvis hældningen på indierenskurverne er som hældningen
hvis hældningen ikke er så stejl som linjestukkerne mellem
L1
og
L2
og mellem
L4
og
Allais opnår imidlertid resultater i eksperimenter, der synes at vise, at man ofte foretrækker
for
L4 ,
L3 .
L1
for
L2
og
L3
hvilket er i modstrid med de resultater, der kommer fra vNM indekset
vNM holder ikke > kan kritisere forventet nytteteori
As if argumenter for ubegrænset rationalitet
•
Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange
argumenter
48
Agenterne handler ikke ubegrænset rationelt, da agerer bare som om. Dette argument er et betinget
argument, der kan undersøge empirisk og her er der varierende resultater jvf. tidligere.
∗
Bare en model der skal forklare deres handlinger. Man agerer som om man har lavet matematiske
ligninger (billiard)
Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden. Også dette argument kan
afprøves empirisk, og også her er der varierende resultater.
Agenter der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument gælder formentlig i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men bemærkningerne
ovenfor gælder også her.
∗
Måden man lærer på i virkeligheden er 'trial and error' > Derfor giver det ikke mening at sige folk
går konkurs i det lange løb > Man kan godt agerer rationelt med den information der er tilgelig >
Men er den information begrænset kan man godt agere rationelt og stadig gå konkurt > Argumentet
beskriver ikke virkeligheden.
Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accpeterer, at økonomi er en succes,
er spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller med f.eks. en
mere begrænset rationalitet. Herudover kan det anfægtes, at det er den optimerende adfærdsantagelse,
der er skyld i successen. Og her har de undersøgelser, der er foretaget i overvejende grad testet mod et
alternativ, der var urealistisk, som f.eks. at der ingen eekt er i retning af optimering.
En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Hvis agenten ikke følger
denne model, går man glip af indtægt. Ja, men det kan også være at man undgår nogle omkostninger,
som man f.eks. pådrager sig ved at skabe et grundlaf for, at beslutningen kan være rationel.
49
Opgave 17.
Diskuter forudsætningerne for den rationelle præferencerelation.
Kort introduktion
•
Rationelle præferencer indebærer:
1. Præference relationen: Vi kan skrive at x er mindst lige så god som y, for mængden af alle alternativer.
2. Præference relationen er komplet, hvis vi for to udfald x og y, har at x er mindst ligeså god y eller y er
mindst lige så god som x eller begge, hvilket indebærer, at vi har en præference relation over alle mulige
alternativer i denne verden.
3. Præference relationen er transitiv, hvis
A>B
og
B > C,
så må det gælde at
A>C
4. Kontinuitet: hvis A over B er en lille ændring i A stadig foretrukket over B
Hvis præferencerelationen er komplet og transitiv
→
Kaldes det en rationel præferencerelation. Vi har således at
forudsætninger for den rationelle præferencerelationel er at agenterne har en præference over alle valgmuligheder i
denne verden og at agentens interne valg er konsistente. Dette kan ses som strenge forudsætninger i det det ikke
nødvendigvis er tilfældet at agenterne har en præference over alle alternativer i verden, men samtidig kan det også
være at agentens præferencer ændres over tid, hvilket påvirker transivitets antagelsen.
Dette bringer os videre til pay-o funktioner (nyttefunktioner):
•
En pay-o funktion eller en nyttefunktion, der angiver nytten af alle de udfald, som agenten har valgt,
præsenterer præferencerelation
≥,
hvis det for ethvert udfaldspar
x, y
gælder at
u(x) ≥ u(y),
hvis og kun hvis
x ≥ y.
•
Payo funktionen repræsenterer præferencerelationen
≥, hvis og kun hvis den tildeler højere værdier til højere
Bemærk, den siger intet om hvilke værdier funktionen
tildeler, blot at foretrækker man æbler over pærer, så har nyttefunktionen en større værdi for
æbler
rangerede udfald i præferencerelationen.
•
Tadelis (2013) viser at hvis mængden af udfald er
endelig, kan enhver rationel præference relation repræsen-
teres af en pay-o funktion.
•
I forlængelse af dette opstiller han herefter paradigmet om rationelle valg. Vi antager, at agenterne fuldt ud
forstår beslutningsproblemet, givet at agenten har:
1. Kendskab til alle mulige udfald og
2. Kendskab til alle mulige handlinger
3. Ved nøjagtigt, hvilke handlinger der fører til hvilke udfald og samtidig med, at
4. Agenterne har rationelle præferencer (payos) over udfaldene og dermed og handlingerne.
•
En agent, der står over for et beslutningsproblem med payo-funktionen
u(.),
deneret over handlingerne, er
rationel, hvis vedkommende vælger en handling, der maksimerer payo (nytten).
50
Diskutionen af forudsætningerne: Er det rimelige antagelser i håb om at opnå rationelle præference
relationer, set i relation til den virkelige verden?
•
Kognitiv begrænsning; Vi kan ikke kende eller overveje alle valg.
(Dermed bliver aksiom om komplet ikke
opfyldt, så ikke rationel præference relation)
Modargument: Alle modeller er simplikationer af virkeligheden, denne antagelse simpliciferer modelleringen.
Modargument: Måske man i mange valg godt kan overveje alle de muligheder man FORESTILLER sig
at have. Altså de beliefs.
•
Transivitetsbetingelsen holder muligvis heller ikke, valgene er ikke nødvendigvis konsistente
Regretteori, valg der afhænger af ens humør fx
•
Vores forudsætninger er derfor ikke nødvendigvis anvendelige i en virkelig verden, men yderst anvendelige i
vores økonomiske modeller med en del apriori antagelser om agenters væremåde.
•
Hvornår udvikler mennesker sin rationalitet? Et barn på 7 år er ikke rationelt - er en ung mand på 18 det?
Er en voksen mand på 50 det? Hvornår i livet sker det?
• Rationalitet er en vigtig ting at have i modeller, for ellers er det ikke til at sige, hvad agenterne ønsker.
Hvis forbrugerne ikke (egoistisk) maksimerer deres nytte, hvordan skal vi så modellere deres beslutningstagen?
Hvis rmaer ikke maksimerer deres prot, hvordan ved vi så hvor mange enheder de producerer? Selvom nogle
af antagelserne bagved rationalitet er svære at opretholde kan de betragtes som nødvendige, for at kunne få
nogle resultaterer fra modellen. OG, mon ikke disse resultater leder i den rigtige retning? Altså, selvom de
har kognitiv begrænsninger eller er i et skidt humør, vil en agent så ikke oftest tænke Hvad vil jeg få mest
glæde ud af nu?, og hvis de gør det vil de i mine øjne oftest træe det rigtige valg.
Revealed preferences
•
Modsvar til præference relationer: `Revealed Preference' teorien, formuleret af Samuelson(1938).
Formål: at undgå, at man skal anvende `noget så luftigt' som præferencer, dvs. opstilling af en nyttefunktion med tilhørende indierenskurver. Han skriver at sådanne præference relationer er noget, der
ndes i hovedet på folk og ikke noget, der kan/skal observeres. Men det, man kan observere, er de valg,
der foretages. Man åbenbarer sine præferencer. Mas-Colell (1995) digger det her.
•
Sen (1973) og Hausman (2012) kommer dog begge med et stærkt angreb på den opfattelse af betydningen af
revealed preferences. Hausman (2012) har især to pointer.
1. Hvis præferencer er deneret ved valg, kan man ikke have præferencer for noget, man ikke kan vælge.
Man kan således ikke have præferencer for en alderdom uden sygdom, for det kan man ikke (selv) vælge.
Det eneste økonomi kan sige noget om i så fald er, at man blandt de mulige valg vælger den, man
foretrækker, hvilket blot siger, at man handler konsistent.
2. Det andet punkt kan illustreres ved Shakespeares historie om Romeo og Julie.
Svend skriver således:
Her nder Romeo en øjensynlig død Julie, og han begår derefter selvmord, fordi han ikke ønsker at leve
uden Julie. Men Julie er ikke død og han kunne have løbet bort med hende, og giftet sig med hende
> Romeos valg mellem at begå selvmord eller at løbe bort med Julie afhænger af hans overbevisning
(belief ) om, at hun er død. Havde han haft en anden overbevisning, f.eks. at hun blot var bevidstløs,
var valget blevet et andet. (Kan også beskrives ved vandrensningsanlægget i Kenya).
51
•
Således kan præferencer ikke blive deneret ved hjælp af valg, fordi disse afhænger af agents `belief '. Man kan
ikke identicere hverken præferencer eller overbevisning ud fra valg, men valg er en konsekvens af præferencer
og overbevisning.
`As if ' argumenter for ubegrænset rationalitet
Økonomer har gennem tiden forsvaret Homo Oeconomicus modellen, om ubegrænset rationalitet med mange argumenter. Svend skriver nedenstående (Semi vagt)
1. Agenterne handler ikke ubegrænset rationelt, de agerer bare som om. Dette argument er et betinget argument,
der kan undersøges empirisk, og her er der varierende resultater jvf. tidligere.
2. Agenterne handler ikke rationelt fra starten, men de lærer det efterhånden. Også dette argument kan afprøves
empirisk, og også her er der varierende resultater.
3. Agenter, der ikke handler ubegrænset rationelt, går konkurs i det lange løb. Dette argument gælder formentlig
i højere grad for virksomheder i et kapitalistisk samfund end for forbrugere, men bemærkningerne ovenfor
gælder også her.
4. Økonomi er en succes, som man derfor ikke skal betvivle. Selvom vi accepterer, at økonomi er en succes, er
spørgsmålet om det ikke kunne være en større succes, hvis man også inddrog modeller med f.eks. en mere
begrænset rationalitet. Herudover kan det anfægtes, at det er den optimerende adfærdsantagelse, der er skyld
i successen. Og her har de undersøgelser, der er foretaget, i overvejende grad testet mod et alternativ, der var
urealistisk, som f.eks. at der ingen eekt er i retning af optimering.
5. En model med ubegrænset rationalitet forudsiger agentens sandsynlige handling. Og hvis agenten ikke følger
denne model, går man glip af "indtægt". Ja, men det kan også være, at man undgår nogle omkostninger, som
man f.eks. pådrager sig ved at skabe et grundlag for, at beslutning kan være rationel.
52
Opgave 18.
Diskuter Simons teori om menneskelig adfærd.
Modeller baseret på begrænset rationalitet er da også i stigende grad blevet en fast bestanddel af den økonomiske
teori, og man kan måske, som Richard Thaler (2000) påstå, at økonomisk teori er på vej fra Homo Economicus
(economic man) til Homo Sapiens (human). Udviklingen startede 1950'erne med Herbert A. Simon (1955), og vi
vil indlede gennemgangen med hans teori om "Satiscing".
Herbert Simon og satiscing:
•
Simons opgør med Homo Oeconomicus ved introduktion af begrænset rationalitet.
•
Simon (1955) skriver i sin indledning Bredt sagt, opgaven er at udskifte den globale rationalitet af den
økonomiske agent med en type af rationel adfærd, der er kompatible med adgangen til information og den
beregningsmæssige kapacitet der faktisk er tilgængelig for agenten, i det miljø som agenten eksisterer i
Individers beslutningstagning må baseres på den information, de har til rådighed (begrænset i forhold
til den information, Homo Oeconomicus forudsættes at besidde)
Menneskets evne til at beregne den optimale løsning er begrænset i forhold til den kognitive kapacitet
agenterne faktisk besidder. - Modsat Homo Oeconomicus der kan gennemskue alle muligheder og agerer
optimalt ud fra det.
•
Simon stiller spørgsmål ved hvor langt man skal gå, og hvilke omkostninger man skal pådrage sig, for at
indsamle endnu mere information og foretage endnu ere beregninger.
Det er et trade-o imellem at agenten opnår mere information og foretager ere beregninger, og hvor
godt et grundlagt agenten skal kunne træe sine beslutninger på. (Nogle tilfælde har man måske ikke
brug for yderligere beslutningsgrundlag, selvom man ikke har ALLE informationer)
•
Simons agent optimerer således ikke til det globale optimum, men forsøger at nærme sig så tæt som det kan
betale sig til det optimum, agentens informationssæt og evner rækker til.
Det vil sige at forskellige agenter vil ende forskellige steder, da de har forskellige informationer og forskellige kognitive evner. (Det giver jo meget god mening i den virkelige verden også)
Dette kaldes satiscer (satisfy og suce)
• Simons argumenter mod fuld rationalitet og den klassiske optimerende rationelle model:
Kritiserer Friedman for at hævde at økonomiske agenter maximerer den forventede nytte eller prot,
dvs.
opfører sig som den klassiske teori kræver, mens de økonomiske teoretikere, herunder Friedman,
(De økonomiske teoretikere satiscer altså også, de
forsøger at nærme sig optimum, så længe det kan betale sig ud fra ens informationer og
evner)
kun satiscer, når det gælder deres teori.
Simon nævner en lang række forhold, der gennem tiden er blevet anvendt som argument for den klassiske
optimerende teori som er forkerte eller ligesåvel kan bruges til satiscer modellen:
∗
At efterspørgselskurverne generelt har negativ hældning kan være en eekt af såvel optimerende
adfærd som andre adfærdsteorier herunder satiscing.
53
·
Becker (1962) skriver at modeller uden fuld rationalitet også vil have nedadgående efterspørgselskurver, på grund af eekten af ændringer i priser på forbrugermuligheder.
∗
De klassiske antagelser er tilstrækkelige betingelser for at produktionsfunktionerne er homogene af
første grad eller ofte synes at være det, men betingelserne er ikke nødvendige, og produktionsfunktioner med sådanne egenskaber kan være resultatet af andre adfærdsmæssige antagelser end de
klassiske.
∗
At langtids omkostningskurven er U formet, hvis ligevægten skal være stabil under fuldkommen
konkurrence er et krav, der gælder under de klassiske antagelser, men ikke under begrænset rationalitet.
Heldigvis -mener Simon for langtids omkostningskurven synes ikke generelt at være U
formet.
Man kan opfatte Simons "satiscing model" som en model, der opfatter agenterne som værende optimerende, men på grund af deres begrænsede kognitive evner og begrænsede muligheder for at kende deres
valgmuligheder og disses sandsynligheder i en verden med usikkerhed er deres valg i en vis udstrækning
formentlig forskellig fra de optimerende agenter i den klassiske model.
∗
I nogle tilfælde, hvor de kognitive og informationsmæssige begrænsninger er delvis uskyldige (små)
vil agenternes handlinger blive som i den klassiske model, men i tilfælde med mere komplicerede dynamiske sammenhænge vil den klassiske model med rationelle agenter, der besidder fuld information
kunne give helt skæve analyser og prædiktioner.
• Diskussion
Simons antagelse om at individers beslutningstagning må baseres på den information, de har til rådighed.
Og den information er normalt begrænset i forhold til den information, Homo Oeconomicus forudsættes
at besidde, kan være mere virkelighedsnær end den i homo oeconomicus modellen. Vi ser i den virkelige
verden og i mikro teorien at det at skulle indhente information har en omkostning og det er således et
tradeo mellem at ville indhente mere information i beslutningstagningen mod en højere omkostning end
ellers.
Simons agenter optimerer således heller ikke til det globale optimum, grundet begrænset kognitiv kapacitet, men forsøger at nærme sig så tæt på det, som det kan betale sig, til det optimum agentens
informationssæt og evner rækker til.
Det er ifølge Second Best Teoremet det bedste valg under be-
grænset information.
Det antydes klart at Simon ikke er fan af den klassiske optimerende teori og prøver således med sin
satiscing model, at opstille en model, der opfatter agenterne som værende optimerende, men på grund
af deres begrænsede kognitive evner og begrænsede muligheder for kende deres valgmuligheder og disses
sandsynligheder i en verden med usikkerhed er deres valg i en vis udstrækning formentlig forskellig fra
de optimerende agenter i den klassiske model.
Det kan langt hen af vejen forsvares at den klassiske optimerende teori skal reformuleres idet den ikke
stemmer overens med empiriske resultater til dags dato og her kan Simon's teori være et skrift i den
rigtige retning.
•
Opsummering:
Simons satiscer teori kan opfattes som det indledende opgør mod den rationelle agent.
Dette opgør er efterfulgt af mange og for at kunne besvare det må der foretages test på baggrund af
empiri eller laboratorieeksperimenter.
54
I princippet er formål at modellere virkeligheden eller at forsøge at forudsige og forklare den. Om dette
gøres bedst med Simons satiscer, den rationelle agent eller en helt tredje metode er op til empirien.
Gigerenzer:
•
Arbejder videre på Simons idéer
•
Under usikkerhed, hvor man ikke har mulighed for at kende alle mulige udfald og deres sandsynligheder, skal
man alligevel træe beslutninger.
Dette sker ifølge Gigerenzer bedst på baggrund af en heuristics beslut-
ningsmodel, der allerede blev introduceret af Simon. Modellen siger:
En heuristic er en strategi der ignorer dele af informationen, med det formål at lave beslutninger mere
hurtigt, mere simpelt og/ eller mere præcist end mere komplicerede metoder
•
Heuristics: En heuristik eller heuristisk metode er en metode, som hjælper en til eller tillader en at udforske
og lære ting på egen hånd, eller at løse et problem ved at evaluere de erfaringer, man har gjort sig, og derved
prøve sig frem, til man har en løsning.
•
Ligesom Simon siger: Beslutninger om konkrete handlinger sker ofte ud fra overvejelser vedrørende få elementer
blandt de mange mulige forklarende faktorer og udfald.
Dette sker, fordi man ikke har mere information til rådighed her og nu, og det koster at indsamle mere
information samtidig med, at man har begrænset intellektuel kapacitet, og endvidere måske har nogle
erfaringer, som fortæller, at det plejer at gå godt, hvis man anvender den information man får fra disse
få elementer.
•
Gigerenzer og Gasmaier (2011) starter med kritik af den forventede nytteteori og postulerer, at heuristics, der
er en form for tommelngerregler, både giver hurtigere og bedre beslutninger. De fremkommer derefter med
4 resultater:
1. Den bedste beslutning under risiko er ikke (nødvendigvis) den bedste beslutning under usikkerhed.
2. Heuristics er nødvendige for gode beslutninger. De er ikke et resultat af et mangelfuldt tankesystem.
3. Komplekse problemer behøver ikke (nødvendigvis) komplekse løsninger.
4. Mere information, mere tid og ere beregninger er ikke altid bedre.
55
Opgave 19.
Diskuter Gigerenzers teori om menneskelig adfærd, herunder diskussion om beslutningstagning under usikkerhed og risiko
•
Arbejder videre på Simons idéer
Herbert Simon og satiscing:
Simons opgør med Homo Oeconomicus ved introduktion af begrænset rationalitet.
Simon (1955) skriver i sin indledning Bredt sagt, opgaven er at udskifte den globale rationalitet af den
økonomiske agent med en type af rationel adfærd, der er kompatible med adgangen til information og
den beregningsmæssige kapacitet der faktisk er tilgængelig for agenten, i det miljø som agenten eksisterer
i
∗
Individers beslutningstagning må baseres på den information, de har til rådighed (begrænset i forhold
til den information, Homo Oeconomicus forudsættes at besidde)
∗
Menneskets evne til at beregne den optimale løsning er begrænset i forhold til den kognitive kapacitet
agenterne faktisk besidder. - Modsat Homo Oeconomicus der kan gennemskue alle muligheder og
agerer optimalt ud fra det.
Simon stiller spørgsmål ved hvor langt man skal gå, og hvilke omkostninger man skal pådrage sig, for at
indsamle endnu mere information og foretage endnu ere beregninger.
∗
Det er et trade-o imellem at agenten opnår mere information og foretager ere beregninger, og hvor
godt et grundlagt agenten skal kunne træe sine beslutninger på. (Nogle tilfælde har man måske
ikke brug for yderligere beslutningsgrundlag, selvom man ikke har ALLE informationer)
Simons agent optimerer således ikke til det globale optimum, men forsøger at nærme sig så tæt som det
kan betale sig til det optimum, agentens informationssæt og evner rækker til.
∗
Det vil sige at forskellige agenter vil ende forskellige steder, da de har forskellige informationer og
forskellige kognitive evner. (Det giver jo meget god mening i den virkelige verden også)
∗
Dette kaldes satiscer (satisfy og suce)
Gigerenzers teori tager sit udgangspunkt i Simon og udfra en opfattelse af at beslutninger i økonomi er beslutninger under usikkerhed og ikke under risiko, videreudvikler beslutningstagning ved hjælp af heuristics eller tommelngerregler, som det kan oversættes ved. Gigerenzer, der med en vis ret betragter sig som en arvtager til Simon,
skelner som også Knight (1921) skarpt mellem begreberne risiko og usikkerhed.
• Under risiko:
hvor man har kendskab til de mulige udfald og deres sandsynligheder, har agenterne en
mulighed for at forstå beslutningssituationen, beregne alternativer og træe en beslutning baseret på rationelle
overvejelser.
• Under usikkerhed:
hvor man ikke har mulighed for at kende alle mulige udfald og deres sandsynligheder,
skal man alligevel træe beslutninger. Dette sker ifølge Gigerenzer bedst på baggrund af en heuristics beslutningsmodel. Modellen siger:
En heuristic er en strategi der ignorer dele af informationen, med det formål at lave beslutninger mere
hurtigt, mere simpelt og/ eller mere præcist end mere komplicerede metoder.
56
•
Heuristics: En heuristik eller heuristisk metode er en metode, som hjælper en til eller tillader en at udforske
og lære ting på egen hånd, eller at løse et problem ved at evaluere de erfaringer, man har gjort sig, og derved
prøve sig frem, til man har en løsning.
•
Ligesom Simon siger: Beslutninger om konkrete handlinger sker ofte ud fra overvejelser vedrørende få elementer
blandt de mange mulige forklarende faktorer og udfald.
Dette sker, fordi man ikke har mere information til rådighed her og nu, og det koster at indsamle mere
information samtidig med, at man har begrænset intellektuel kapacitet, og endvidere måske har nogle
erfaringer, som fortæller, at det plejer at gå godt, hvis man anvender den information man får fra disse
få elementer.
•
Gigerenzer og Gasmaier (2011) starter med kritik af den forventede nytteteori og postulerer, at heuristics, der
er en form for tommelngerregler, både giver hurtigere og bedre beslutninger. De fremkommer derefter med
4 resultater:
1. Den bedste beslutning under risiko er ikke (nødvendigvis) den bedste beslutning under usikkerhed.
2. Heuristics er nødvendige for gode beslutninger. De er ikke et resultat af et mangelfuldt tankesystem.
3. Komplekse problemer behøver ikke (nødvendigvis) komplekse løsninger.
4. Mere information, mere tid og ere beregninger er ikke altid bedre.
Eksempler:
∗
Basketball eksemplet: Meget tillæring (de siger at heuristik også kan læres) og øvelse før man kan;
børn kan ikke gribe bolden
∗
Hudson River (ylanding)
·
Gigerenzers påstand om at piloterne brugte Heuristics kan diskuteres. De er trænede, og noget
af træningen er baseret på meget komplicerede beregninger.
·
Der blev dog nævnt at piloten brugte en slags tommelngerregel om, højde forskelle fra yet og
de nærliggende byninger, og derfor vidste han at han ikke kunne nå tilbage til lufthavnen.
∗
Ofte i økonomi forsøger man at transformere beslutningstagning under usikkerhed til en tilpasset
model for beslutningstagning under risiko, dvs. man overvejer, hvilke udfald der er de mest sandsynlige, og hvilke sandsynligheder disse udfald har. Så kan det godt være, at man ikke får alle udfald
med. Hvis man forlanger, at summen af sandsynlighederne skal summe til 1, kan man have et residualudfald, der medfører, at dette krav er opfyldt. Sandsynligheden for residualudfaldet bør selvfølgelig
være relativ lille.
·
Om denne model er bedre end Gigerenzers er et empirisk spørgsmål, dvs. det bør testes videnskabeligt.
Gigrenzers generelle idé er The science of Heuristics der indeholder:
∗
The adaptive toolbox. Hvilke heuristics anvendes? Hvad består disse heuristics af og hvilken kapacitet har de?
∗
∗
Ecological Rationality. Hvilke heuristics virker i hvilke omgivelser?
Intuitive Design. Beslutningsmodeller, som brugerne umiddelbart forstår.
Her sammenligner Gigerenzer en beslutningsmodel for en hjerteafdeling, der er baseret på en række
statistiske undersøgelser og logistiske regressioner, og som i Gigerenzers version giver en forholdsvis
57
kompliceret beslutningsmodel, med et intuitivt design baseret på Gigerenzers teorier. At forestille sig,
at man ikke kan præsentere den konkurrerende model, som Gigerenzer kritiserer, i en simpel udgave som
selv hjertelæger kan forstå, er svært at tro, så mon ikke Gigerenzer er lidt biased.
• Diskussion
Han kan således have ret i at mange beslutningsprocesser kan tages ved hjælp af heuristics, men
spørgsmålet er om det bliver for simpel en beslutningsmodel således at den kan forklare alle alternative
valg. Her argumenterer gigenrenzer at man ikke behøver at løse et komplekst dierentialligningssystem,
men løber til bolden, mens man ser på bolden i den rigtige vinkel. Gigenrenzer påstår således at agenter
anvender heuristics til at gribe bolden i luften.
•
Forskellen på Simon og Gigerenzer:
Simons metode gør man må gå på kompromis med det globale optimum pga. manglende information.
Ved Gigerenzers metode ignorerer bevidst information grundet heuristikken og træer i høj grad beslutninger på grund af erfaringer.
58
Opgave 20.
Diskuter Kahneman-Tversky teorien om menneskelig adfærd og Gigerenzers kritik af denne teori.
Kahneman og Tversky (psykologer): Prospektteori
•
Kritiserer den forventede nytteteori, de anså at den var forkastet af mange eksperimenter, herunder deres egne
Specielt kritiserer de at præferencerelationerne er komplette og transitive, og dermed udgør en rationel
præferencerelation > De foreslår i stedet Prospektteori som er brugt til forklaring af irrationel adfærd,
som er baseret på eksperimentielle studier, hvor mennesker deltager i spil og præsenteres for valgmuligheder
Prospektteorien:
•
•
= (x1 , p1 ; x2 , p2 ; ....; xn , pn )
p (xi ), i = 1, 2, ..., n
Et prospekt
lighed
er deneret som en kontrakt der giver et udbytte på
xi
med sandsyn-
2 faser:
Første fase = Editering: Der foretages en indledende analyse af de eksisterende prospekter
∗ Kodning:
Et prospekts udfald sættes f.eks. i forhold til den nuværende formueposition som tab
eller gevinst
∗ Kombinering:
Man kan ofte simplicere processen ved at kombinere udfaldene. Hvis man f.eks.
har to udfald med samme gevinst, kan de kombineres til et udfald med en sandsynlighed, der er
summen af sandsynlighederne af de to oprindelige udfald. (Enten eller sandsynlighedsreglen).
∗ Segregering:
Hvis man kan segregere et prospekt i en sikker del og en usikker del skal man gøre
det. For eksempel kan prospekt
prospekt
(300, 0.8; 200, 0.2)
deles i et sikkert prospekt
(200, 1)
og et usikkert
(100, 0.8).
∗ Sletning: Sletning af dele, der er fælles mellem alle prospekter.
∗ Simplifcering: Afrunding. Man bruger ikke tid på at anvende
sandsynligheder som 0.495, men
bruger 0.5 og lignende. Og man fjerner helt usandsynlige udfald og prospekter, der klart domineres
af andre prospekter.
Anden fase = Evaluering: De editerede prospekter værdisættes og man vælger det prospekt med den
højeste værdi
∗
I evalueringsfasen opstilles en værdifunktion, der adskiller sig fra vNM indekset
pi
Pn
i=1 u (xi ) pi , hvor
er sandsynligheden for den i'te udfald, ved at indføje en vægtning af sandsynlighederne med en
vægtfunktion
π (pi )
og erstatte nyttefunktionen u(xi) med en værdifunktion v(xi).
spørgsmål bliver således, hvilke former værdifunktionen v(.) og vægtfunktionen
π (.)
Det afgørende
har.
Værdifunktionen
∗
∗
∗
Deneret som en afvigelse fra et referencepunkt (ofte den initiale formuesammensætning)
Konkav for gevinster og konveks for tab
Stejlere for tab end for gevinster
Vægtfunktionen
∗ π(p) < p
for store værdier af p (høje ssh) og
59
π(p) > p
for små værdier af p (små ssh)
∗
Begrundelse: Eksperimenter har vist, at små sandsynligheder ofte overvægtes, mens store sandsynligheder omvendt undervægtes.
∗
Herved får man, hvad Kahneman og Tversky (1979) kalder subcertainty, hvor det for
gælder, at
·
0 < p < 1
π(p) + π(1 − p) < 1.
Man vægter et spil mindre end en sikker hændelse.
Analysen skelner (af KT) mellem såkaldt regulære prospekter (et udfald er et tab, et andet er en gevinst
samt
p + q < 1)
på den ene side og strengt negative eller strengt positive prospekter (alle udfald er enten
gevinster eller tab) på den anden side.
∗
Dette skyldes, at man ordner udfaldene i forhold til en initialsituation, og således har positive udfald
kaldet gevinster og negative udfald kaldet tab.
∗
Det er muligt at få resultaterne fra den forventede nytteteori. Denne teori er således et specialtilfælde
af prospektteorien.
> Hvis man har streng positiv/negativ kan man seggregere prospektet i en
risikofri del og en risikofyldt del
• Diskussion
Ideen om at man tillægger lave sandsynligheder mere vægt end høje kan jeg godt se ideen i; det er vel lidt
det vi ser i lotto? Det forventede outcome er så lavt, at 50 kr ikke kan svare sig, men da man tillægger
en højere vægt på ideen om at vinde de mange millioner spiller man stadig.
∗
Hvordan nder man vægtfunktionen præcist?
∗
Det kan vises at den forventede nytteteori er et specialtilfælde af prospektteori.
·
Ideen om høje vægtfunktioner til lave sandsynligheder er god
Gigerenzers kritik af denne teori
•
Kahneman og Tversky har udført et eksperiment kaldes Linda eksperimentet.
Linda blev beskrevet som
{C} =
30 år gammel, single, klog, har læst loso og som studerende gik hun
meget op i problemer med diskrimination og social retfærdighed
Forsøgspersoner blev så spurgt om hvilken af følgende udsagn de fandt mest sandsynlige
1.
2.
{A} =Linda er bankkasserer
{A ∩ B} =Linda er bankkasserer
Logisk ville man sige at
og feminist, hvor
P {A ∩ B} < P {A},
{B} =Linda
er feminist
da der ndes ere bankkasserer end bankkasserer der også
er feminister. K og T's eksperiment viste dog at givet
{C},
altså informationerne om Linda, så fandt
forsøgspersonerne at sandsynligheden størst for at Linda var bankkasserer og feminist.
P {A | C}.
Dette sker fordi de fejlagtigt sætter
Kahneman og Tversky (1974) bruger dette eksempel
system 1 anvender tommelngerregler (heuristics) ud
den karaktseristik i beskrivelsen af Linda. Derudover
man ikke var blevet oplyst C om Linda, ville man nok
•
P {A ∩ B | C} >
P {A ∩ B | C} = P {C | A ∩ B}.
til at vise at beslutningstagere ofte i
fra Representativeness, altså ud fra
spiller availability ind, så altså hvis
have sagt hun bare var bankkasserer.
Gigerenzer mener at det er forkert at tale om sandsynligheder i dette eksempel, når man snakker om en enkelt
stående begivenhed, hvor Linda er udvalgt og konstrueret.
•
Gigerenzer argumenterer for, at det er en dårlig idé at anvende statistiske regler uden at opstille den relevante
model. Og denne model kan kun opstilles, hvis man tager udgangspunkt i det problem, der skal belyses. At
undlade det, kalder Gigerenzer at anvende content-blind norm.
60
Figure 5:
61
•
Gigerenzers kritik er, at Kahneman og Tversky ikke opstiller en detaljeret model for den kognitive proces,
der forklarer, hvorfor kognitive illusioner forsvinder og hvornår, men i stedet nøjes med svage heuristics, som
forklarer alting og ingenting.
Thinking, fast and slow (EKSTRA)
•
I bogen "Thinking, Fast and Slow"af Kahneman (2011) anføres, at menneskets mentale aktiviteter kan inddeles
i to grupper. Den første gruppe kaldet System 1 er "Tænke hurtig, intuition"og den anden kaldet System 2
er "Tænke grundig, logisk, kalkulation".
•
Begge systemer er nødvendige. Der er nogle ting, man ikke kan nå at reagere på, og som kræver System 1,
og der andre ting, hvor man gør bedst i at tænke sig om. Bruger man det forkerte system, kan man komme
galt af sted. Der er også forskel mellem personer. Nogen, specielt de trænede personer, anvender System 2,
hvor andre bruger System 1.
62
Opgave 21.
Diskuter Sugdens teori of menneskelig adfærd og hans kritik af libertarian paternalism og nudging.
Den forventede nytteteori udgør det nytteteoretiske grundlag i hovedparten af de økonomiske analyser af rationelle
beslutningstagen under risiko, det vil sige i beslutninger, hvor der er knyttet en sandsynlighed til de mulige udfald.
Ifølge den forventede nytteteori vil en beslutning under usikkerhed være rationelle, såfremt beslutningstagerens
nyttefunktion altså at præference relationen opfylder aksiomerne
•
Præferencerne er komplette (altså over alle mulige valg)
•
Præferencerne er transitive (valgene er konsistente)
•
Kontinuitet (små ændringer påvirker ikke ens valg)
Den forventede nytteteori forsøger således både at beskrive, hvordan individer faktisk handler, men også hvordan
de bør handle, for at agere rationelt. Empirisk har det dog vist sig, at der ikke handles i overensstemmelse med
antagelserne i den forventede nytte teori. Prospektteorien og regretteorien er to teorier, der forsøger at forklare,
hvorfor empirien ikke understøtter den forventede nytteteori
Regretteori
•
Regretteori blev introduceret af Bell (1982) og uafhængigt af Loomes og Sugden (1982)
• Regretteori generaliserer den forventede nytte ved, at nytten, der opnås ved et valg, også
påvirkes af det, man mister, i forhold til den situation, hvor man har foretaget et andet valg
Et alternativt valg, der viser sig at være mere protabel (regret, beklagelse), eller som viser sig at være
ringere (rejoice, fryd), end det man har valgt
•
Man maksimerer ikke altid bare den forventede nytte - Man bør måske overveje hvordan resultaterne og
missede muligheder påvirker din nytte
•
Eksempel med 100 bolde:
Spil A: Kugle 1-10 = 5mill, kugle 11-99 = 1 mill, kugle 100 = 0
Spil B: Alle kugler = 1 mill
•
De nder at man Sugden nder at man oftest vælger spil B (hvilket kræver at grænseværdien af de ekstra 4m
er meget lille.
Hvis man spiller spil B og trækker kugle 100 tænker man YES MAN (rejoice, fryd), men hvis man
trækker kugle 1-10 bliver man lidt øv (regret), da man så kunne have fået en større gevinst ved at spille
spil A.
Ens nytte påvirkes altså ikke kun af hvad man selv får, men også af hvad man kunne have fået under
alternativet
Dette bør man implementere i modeller og tage højde for det i sin beslutningstagen
• Regretteori kan vise at valg ikke altid opfylder transitivetsbetingelsen, da folks nytte kan
påvirkes af regret/rejoice
63
•
Loomes og Sugden (1982) viser, at man kan udlede
Q[·],
ligesom man udleder vNM indekset
U (·)
i forventet
nytteteori ved at sætte forsøgspersoner i en spilsituation og observere deres valg.
•
I regretteori indføres den såkaldte regret-rejoice function,
Q[U (·)],
som inkorporerer alle mulige handlinger og
hvorvidt de forøger ens nytte, fordi man fryder sig over, man ikke valgte handlingen (rejoice) eller reducerer
ens nytte, fordi man beklager sig over, man ikke valgte handlingen (regret).
Koblingen mellem klassisk nytteteori og regretteori er, at hvis regret-rejoice function,
Q[U (·)]
er lineær,
så vil den repræsentere den forventede nytteteori, hvorimod hvis funktionen ikke er lineær, så ændres
agentens adfærd.
•
Diskussion:
Regretteori er ligesom den forventede nytteteori, en teori der forsøger at beskriver agenters valg ud fra
forskellige valgmuligheder. I denne teori anvendes der således en regret, da man medtager alternative
valg og deres gevinst. Man kan således ærge sig (regret) eller glæde sig (rejoice) hvis det pågældende
udfald falder til ens fordel eller ej.
Denne antagelse er helt sikkert mere virkelighedsnær, end den forventede nytteteori og giver muligvis et
mere nuanceret billede på folks interne beslutninger og at man muligvis ikke opfylder præferencerelationen. Det vises dog også at eksperimenter der forsøger at forklare agenters valg, kan påvirke udfaldet på
den måde hvordan det er opstillet på.
Enig i regret, vi føler det meget. Hvordan skal det modelleres? En faktisk funktion for den regretfunktion
En form for kritik af den forventede nytteteori; man kan godt følge idéen med teorien.
Forskelle mellem teorierne
∗
Prospektteori og regretteori er matematiske generaliseringer af forventet nytteteori. Førstnævnte er
en fuldstændig generalisering, som etablerer et nyt begrebsapparat, mens sidstnævnte blot foretager
en analytisk modikation på den eksisterende teori.
Med rette kan det mere præcist postuleres,
at prospektteori ved et tilfælde har forventet nytteteori som et specialtilfælde (ligesom Newtons
tyngdekraftsformel ved et tilfælde er indeholdt i Einsteins generelle relativitetsteori).
Hvorimod
regretteori bygger direkte på fundamentet.
∗
Satiscing og heuristik er ikke generaliseringer af eksisterende rationalitetsteori. Heuristik kan opfattes som en videreudvikling af satiscing og Gigerenzer betragter også sig selv som en arvtager til
Simon. Fælles for de to, og modsat regretteori, er udgangspunktet, at det fundament der tilbydes af
de eksisterende rationalitets- modeller er rådent og ikke værd at bygge på.
∗
Egen kommentar: Rationalitetsmodellernes raison d'être hviler på as if argumenter, hvis empiriske
støtte er meget svag. Mængden af arbejde indenfor adfærdsøkonomi er derfor betryggende, om end
meget af det stadig tager udgangspunkt i traditionel optimering. Dog er der ipso facto intet i vejen
hermed, men det store spørgsmål er, om der i brønden af videnskabelig sandhed gemmer sig en optimerende beslutningsmodel med bibetingelser om kognitiv kapacitet og begrænset information, som
har de traditionelle rationalitetsmodeller som specialtilfælde når bibetingelserne fjernes.
Adfærd-
søkonomernes grundproblem er dermed en omvendt Newton-Einstein: Hvad sker der, når tingene
ikke foregår med lysets hast. Hvis den agenda ikke lykkes ender mikroøkonomien formentlig som
operationaliseret psykologi. Hvilket på sin vis er tragisk. For dét burde have været udgangspunktet
snarere end destinationen.
64
Diskussion af libertarian Paternalism
•
Hvem skal vurdere hvad der er bedst for en?
Er det choice arkitekten? I så fald er vi jo tilbage til det argument, der i historiens løb er blevet brugt
til at argumentere for enevælde, diktatur osv., nemlig, at der er nogen, den benevolente diktator, som
ved bedst, hvad der er godt for befolkningen, og derfor skal have lov til at bestemme.
Her står Thaler og Sunstein (2008) af og skriver p.5 "a policy is paternalistic if it tries to inuence choices
in a way that will make choosers better of, as judged by themselves".
∗
Er de altid i stand til det?
Sugden's kritik siger
∗
For det første, hvordan afgør man om agenterne selv føler, at de er blevet bedre stillet ved at blive
nudged.
∗
Og for det andet, at Thaler og Sunstein implicit antager, at der indeni en HUMAN er en ECON,
der er som den neoklassiske økonomi antager, er en person, der maksimerer sin forventede nytte, og
har alle mulige egenskaber som fuld opmærksomhed på maksimeringsproblemet, fuld information,
opfører sig konsistent, har tilstrækkelige kognitive evner osv.
65
Opgave 22.
Diskuter Andrew Lo's teori om adaptive markeder.
•
Andrew Lo antager at agenter hverken er fuldt rationelle eller psykologisk ustabile
•
Men de tager beslutninger ved at anvende en trial and error proces. Hvis en investeringsstrategi mislykkedes
prøver de en anden, og hvis den holder anvender de den indtil det evt. går galt.
Da omgivelserne ændres bestandigt, vil enhver strategi på et tidspunkt mislykkedes, og så må man lære
af det. Men læring er omkostningsfuld.
•
Lo mener at markederne ikke er eektive i EMH forstand, men agenterne er konkurrencemindede
•
Med andre ord afviser Andrew Lo, at de nansielle markeder afspejler rationelle, komplette forventninger fra
dens agenter.
I hans bog Adaptive Markets viser han i stedet, at markedseciens ikke er forkert - den er
bare ikke komplet. I stabile miljøer kan de traditionelle, rationelle investeringsstrategier være optimale. Men
i adaptive markeder, er virkeligheden en anden.
Mennesker laver fejl, de lærer af de fejl, og de adapterer
og udvikler sig og i sidste end er det den måde hvorpå mennesker adapterer og måden vi interagerer med
hinanden som bestemmer de nansielle markeders dynamikker. > Trial and error process
•
A. Lo's eksempel med dyr:
Hypotetisk dyr kaldet en trible. Triblen lever i et område bestående af en dal og en højslette. Triblen
får 3 unger og dør. Hvis det regner, opstår der en odbølge, der dræber alle tribler, som har bosat sig i
dalen, og er der solskin, dræbes alle tribler bosat på højsletten af den ulidelige varme.
Hvis således alle tribler bosætter sig på højsletten, vil arten vokse indtil den første solskinsdag, hvor
alle bliver udslettet. Hvis alle tribler bosætter sig i dalen, vil arten vokse indtil den første regnvejrsdag,
hvor alle bliver udslettet. De klimamæssige forhold er således, at solen skinner i 75 % af tiden, mens det
regner i 25 % af tiden.
Systematisk risiko
∗
I ovenstående eksempel er risikoen systematisk, dsv. alle er udsat for den samme risiko. Når det
regner, bliver alle tripler udsat for regnvejr, og opholder man sig i dalen, bliver man udslettet. Når
solen skinner, bliver alle udsat for solskin, og er man på højsletten, dør man. Derfor er det optimalt
at probability
·
matche. Dvs. at matche sandsynlighedsforholdet mellem solskin og regn.
75% bor i dalen og 25% i højsletten
Ideosynkratisk risiko
∗
Lad os nu ændre denne forudsætning og se på en situation, hvor hver enkelt triple lever i sit eget
mikroklima, hvor der er 25% sandsynlighed for regnvejr og 75% sandsynlighed for solskin. Her er
der således en individualiseret type af risiko. Dem, der lever i dalen og bliver udsat for regnvejr i
sit mikrokosmos, dør, og det er der gennemsnitligt 25% af dem, der lever i dalen, der gør, mens de
resterende 75% tripler i dalen bliver udsat for solskin og overlever. Denne type af individualiseret
risiko kaldes ideosynkratisk risiko.
Og bemærk forskellen.
Selv om alle i gruppen bosætter sig i
dalen, er der således kun 25%, der gennemsnitligt bliver udslettet.
∗
Her er det således ikke hensigtsmæssigt at probability matche istedet er det optimalt at alle bosætter
sig hvor der er højst sandsynlighed for at overleve, nemlig i dalen. Man kan derfor konkludere, at
det for gruppen er helt afgørende for resultatet af triplernes beslutninger, hvilken form for risiko der
eksisterer, og hvilken heuristik der anvendes.
66
Intelligens
∗
Forestiller vi os nu, at disse tripler kan lære ud fra deres erfaringer, vil vi se, at triplerne bevæger
sig hen mod adfærden i Gruppe ( f = 0.75), hvis vi har at gøre med systematisk risiko (75% i dalen,
da gruppen stiger mest der), og mod Gruppe (f = 1.0) (altså 100% i dalen), hvis vi har at gøre med
ideosynkratisk risiko.
·
Men da læring er kostbar, kan det være, at den optimale løsning er forskellig fra den, man ville
nde uden omkostninger.
·
Individ
i
fra generation
t
har en form for intelligens.
Der opstår dermed også en form for
idiosynkratisk risiko i dette tilfælde, da individer med forskellig intelligens vælger forskelligt.
·
·
Individer med maksimal intelligens (dem der er bedst til at foretage det rigtige valg) dominerer.
Opnåelse af "intelligens" koster.
Man kan således anføre, at rationaliteten (intelligensen) be-
grænses af de omkostninger, der er forbundet med at opnå den nødvendige viden. Vi har således
her et eksempel på bounded rationality. > Bounded rationality indebærer at intelligensen (rationaliteten) er begrænset af de omkostninger, som er forbundet med at opnå den nødvendige
viden.
· Læring er kostbar - hvorfor løsning fundet uden omkostninger kan være forskellig
fra den fundet med. > Da læring er kostbart, vil der være agenter på markedet der ikke
har fuld information men agerer rationelt men på baggrund af forskellig information > Derfor
handler de forskelligt
•
Gennem tribel eksemplet ses at adaptive markeder (→intelligens
→lærdom →adaptiv) gør en væsentlig forskel,
derfor inkluderes tankegangen fra adaptive markeder til det traditionelle investeringsparadigme.
•
EMH siger at alle er 100% rationelle givet information - Det slækker man på her.
Man kan stadig godt
have rationelle agenter, med forskellige information - men de er stadig rationelle hver for sig. F.eks. vil en
privatperson, en lille virksomhed og en stor virksomhed have forskellig adfærd, men de vil stadig kunne agerere
rationelt.
Det traditionelle investeringsparadigme og adaptive markeder.
•
Ig. Lo (2017) har den eciente markedshypotese medført, at det traditionelle investeringsparadigme består
af 5 principper. Disse principper må imidlertid revideres under "adaptive markets"(AM). De 5 principper er
med AM kommentaren i kursiv
1. "The risk/reward trade-o". Der er en positiv sammenhæng mellem den risiko man påtager sig og den
prot man opnår.
(a) Dette er også gældende under AM, men investorpopulationen kan undertiden blive domineret af
individer, der står over for ekstrem risiko, og som kan handle i samklang og irrationelt, i hvilket
tilfælde risiko straes.
Ikke alle står overfor alle risiko/prot forhold
2. "Alpha, Beta og CAPM, se Bodie et.all. (2017)". Det forventede udbytte af en investering er lineært
forbundet til risiko og styret af CAPM modellen.
(a) Denne model hviler på nogle økonomiske og statistiske forudsætninger, der kan være ringe approksi-
mationer til situationen på visse markeder. At kende den eksisterende situation og de dynamiske
forhold på dette marked kan være mere optimalt end at anvende en faktormodel som CAPM. >
Bedre at kende markedet end CAPM
67
3. "Portfolio optimization and passive investment". Ved anvendelse af de statistiske estimater og CAPM
fra Princip 2, er man i stand til at konstruere diversicerede porteføljer i lange papirer, der tilbyder
investorerne risikotilpassede protter til lave omkostninger.
(a) Disse portfolio optimerende redskaber er kun anvendelige under forudsætning af stationaritet og ra-
tionalitet. Og forholdene for passive investeringer ændres som følge af teknologiske ændringer. Risk
management bør have højere prioritet selv for passive indekserede fonde. >
deret - prioritér det højere både for lange og korte fonde
Risk er undervur-
4. "Asset allocation". At vælge, hvor meget man skal investere i brede klasser, er vigtigere end at vælge
det enkelte papir, for at allokeringsbeslutningen er tilstrækkelig til at styre risikoen ved en investors
opsparing.
(a) Grænserne mellem aktivklasser bliver mindre og mindre skarp, efterhånden som makrofaktorer og
nye nansielle institutioner skaber forbindelser og smitte mellem tidligere urelaterede aktiver. At
styre risiko gennem allokering mellem aktivklasser bliver mindre og mindre eektiv.
5. "Stocks for the long run". Investorer bør overvejende holde aktier som langsigtede investeringer.
(a) Aktier giver attraktive udbytter i det lange løb, men få investorer har råd til at vente så længe. Over
realistiske investeringshorisonter er tabsmulighederne betragtelige. Investorerne bør derfor være mere
proaktive. > Husk Keynes We are all dead in the long run
Diskussion
Lo's teori om adaptive markeder er baseret på den eektive markedshypotese (der antager at markederne er eciente) og benytter sig af principperne om evolution til nansielle interaktioner. Han argumenterer at de modstridende eksempler på økonomisk rationalitet - såsom loss aversion, overcondence mm. faktisk er konsistent med en
evolutinær model af individer der tilpasser sig det ændrende miljø ved brug af simple heuristics.
Lo udbygger således den eektive markedshypotese ved brug af behavioural economics og forsøger således at muliggøre beskrivelsen af grådighed i de nansielle interaktioner. Er det således rimelig antagelser at de evolutionære
principper, er forklaringen på hvorfor nogle ikke rationelle beslutninger træder i kraft? Det kan helt sikket være
en mulig grund, i det vi som mennesker lærer af tidligere generationer (hvad end det er familie, virksomheder mv.)
og dermed kan have forskellige personlige håndteringer. Som han nævner, fastholder mange agenter deres strategi
indtil den mislykkedes, så hele beslutningsproccessen, som der sker ved en trial and error process kan retfærdiggøres. Det tilføjer ligeledes en forklaring af beslutningstagningen under risiko/ usikkerhed, som kan være med til
at forklare rationalet bag en persons valg.
•
Kan godt lide ideen om tribles - mennesker lærer af deres fejl og adapterer sig til nye forhold
•
Kan godt lide ideen om at investorer ikke kan investere på tilstrækkelig lang sigt, så de bør være mere proaktive
i forhold til hvad man investerer i, men også i hvilken risiko man vil påtage sig, da man ikke har tid til at
være ultra langsigtet.
68
Opgave 23.
Diskuter den eektive markedshypotese.
Beskrivelse af den eektive markedshypotese
•
Den eciente markedshypotese (EMH) udgør en central del af enhver fremstilling af de nansielle markeder,
og det har den gjort igennem mange år
•
Den eciente markedshypotese er en investeringsteori, der siger, at den relevante information altid vil være
inkluderet i kursen på markedet, hvorved det at slå markedet er `a fool's errand' - eller det troede man i al
fald indtil nanskrisen. Teorien yder støtte til ideen om, at markedet er eektivt og at markedet med stor
sikkerhed vil prisfastsætte nansielle aktiver korrekt og at eventuelle afvigelser kun vil være af kort varighed.
•
Der ndes i BKM tre former for EMH:
1. "The weak-form hypothesis asserts that the stock prices already reect all information that can be derived
by examining market trading data such as history of past prices, trading volume, or short interest"
(a) Prisen reekterer al info der kan udledes fra historisk data på markedet.
2. "The semistrong-form hypothesis states that all publicly available information regarding the prospects
of rms must be reected in the stock prices".
(a) Prisen reekterer al info der kan udledes fra historisk data på markedet og som er oentlig tilgængelig.
3. "The strong-form hypothesis version of the ecient market hypothesis states that stock prices reect all
information relevant to the rm, even including information available only to company insiders.
Prisen reekterer al info der kan udledes fra historisk data på markedet, som er oentlig tilgængelig
og det der kun er tilgængelig for insiders.
I 2013 blev Fama tildelt Nobelprisen i Økonomi for hans bidrag til EMH teorien. Han understreger dog, at test på
den eciente markedshypotese altid er et fælles test på EMH hypotesen og en model for markedsligevægt. Det er
således en fælles hypotese om EMH og markedets virkemåde der testes, og aldrig blot EMH.
•
Tiltroen til EMH i den nansielle sektor var indtil nanskrisen meget stor. Markeder ville med stor sikkerhed
prisfastsætte nansielle aktiver nogenlunde korrekt, og afvigelser kunne kun være af kort varighed. At prøve
at slå markedet var "a fool's errand".
Kritik af EHM
•
Men allerede inden (nanskrisen) var der økonomiske forskere, der satte spørgsmålstegn ved EMH og de
konsekvenser denne teori har:
Grossman og Stigligtz (1980) gjorde således opmærksom på, at hvis kurserne indeholder alle informationer
er der ingen grund til at indsamle informationer. Hvorfor ingen vil gøre det. Hvis det skal kunne betale
sig for informerede investorer, at handle må der være noget at tjene. Og det betyder, at der må være
information, der ikke er i markedet.
∗
MIG: I mine øjne er der forskel på at indsamle information og analysere information.
Så selvom
alle som udgangspunkt har adgang til samme information har de forskellige analysemetoder, de har
forskellige historiske afkast på porteføljer og generelt bare andre fornemmelser, hvorfor man altså
godt kan se nogen der måske kan slå markedet.
69
I De Long, Schleifer, Summers og Waldmann (1990) argumenters der for, at de såkaldte noise traders
dvs. mange almindelige investorer, der ikke helt forstår markedet, kan opføre sig så irrationelt, at de
informerede og rationelle investorer ikke kan nansiere, at spekulere imod indenfor en passende tidshorisont.
En omfattende kritik af EMH er også kommet fra adfærdsøkonomer, som Shiller og Thaler, der bygger
på at agenterne ikke er så rationelle endda, jvf. afsnit 3 nedenunder om begrænset rationalitet. men som
også anført af såvel Scholes som Fama har adfærdsøkonomerne, selvom de kan have ret i at agenterne
ikke er så rationelle som EMH tilsiger, ikke formået at fremkomme med en testbar teori.
Alle er dog enige om, at der er behov for en bedre forståelse for systemisk risiko, dvs. en risiko for
at et helt økonomisk system bryder sammen.
En af dem der har forsøgt at bygge bro er Andrew Lo
(disposition 22) > Inkorperere asymetrisk information og begrænset rationalitet (man lærer sig frem til
hvad det bedste var)
Selvom der således kan stilles spørgsmålstegn ved de nansielle markeders eektivitet, har man i høj grad
set disse som noget nær idealet for, hvordan et marked skal se ud. Der er typisk et stort antal agenter
på begge sider af markedet, og handlerne foregår på en egentlig markedsplads.
∗
Denne opfattelse er utvivlsomt også hovedårsagen til, at der i de seneste 30 år er sket en omfattende
liberalisering af kapitalbevægelserne indenfor lande og mellem lande, og samtidig er der i 90'erne
foretaget ændringer i reguleringssystemet, og i reglerne for regnskabsopgørelser, som skulle gøre det
lettere at opnå et internationalt kapitalmarked for hele verden. (Sket bl.a. pga EMH)
∗
Mange af disse ændringer er foretaget for at forbedre de internationale kapitalmarkeders eektivitet
og sikre, at kapitalen blev ført hen, hvor den i størst mulig udstrækning ville forbedre produktiviteten
og forøge væksten.
At de nansielle markeder kan gå i selvsving uden, at der er nogen grund til det ud fra fundamentals, er
der ere eksempler på.
∗
Stiglitz bygger sin argumentation på det forhold, at mange svingninger, der indtræer på de nansielle markeder, ikke kan forklares af ændringer i de såkaldte "fundamentals" i den reale økonomi,
men som Keynes udtrykte det mere er skabt af opfattelsen af dem, man har omkring sig, således at
følelser af optimisme og pessimisme kan være smitsomme.
·
Man kunne forsøge at inkorporere noget begrænset rationalitet i modellen om de nansielle
markeder (Andrew Lo, regretteori måske)?
Liberaliseringen og globalisering af kapitalmarkedet synes i de seneste 30 år at have medført, at volatiliteten
i de nansielle markeder, herunder i valutakurserne, er blevet stærkt forøget.
∗
Men en sådan voksende volatilitet, der samtidig er global, har utvivlsomt også haft negative eekter
på virksomheder, forbrugere og arbejdstagere, der bestandigt må tilpasse sig til de svingninger, der
foregår på de nansielle markeder, uanset årsag, og uanset, om årsagen var ændringer i den reale
økonomi.
Fra det første og det andet velfærdsteorem ved vi, at fuldkomne konkurrencemarkeder er Paretoeciente,
men vi ved også, at hvis der er asymmetrisk information, dvs.
hvis relevante agenter i markedet har
forskellig information, eller andre former for ikke perfekt information, mistes Paretooptimaliteten. Og
selvom kontrakter er protable, måske endog meget protable for den enkelte, behøver de ikke at være
til gavn for samfundet.
70
Alle disse argumenter leder i retningen af at EMH altså ikke kan være korrekt i den virkelige verden
•
Bemærk, at dette ikke indebærer, at en investor er i stand til at slå markedet i det lange løb, hvilket ofte er
det, man har testet.
•
Under alle omstændigheder gælder det, at hvis man ikke kan opnå en Paretooptimal situation, siger second best
teoremet, at man heller ikke nødvendigvis bør stræbe efter at komme så tæt på opfyldelse af forudsætningerne
for den Paretoeciente tilstand.
•
Efter Stiglitz opfattelse er der således gode grunde til at indføre restriktioner på kapitalbevægelser og regulere
den nansielle sektor, så man får fjernet i hvert tilfælde nogle af eksternaliteterne af de volatile korttids
kapitalbevægelser for den reale sektor.
Et af argumenterne mod at indføre restriktioner på kapitalbevægelserne er, at man herved ødelægger
prisopdagelsesmekanismen og reducerer markedets likviditet.
Et andet argument mod begrænsninger af aktiviteten på de nansielle markeder er, at det vil formindske
likviditeten, og derved begrænse de reale investeringer og forbrug.
Men her er det vigtigt at gøre sig
klart, hvad likviditet er.
•
Stiglitz (2014) p.14 skriver på den baggrund, at Selvom der ikke er nemme svar, så er det plausibelt at
træde på bremsen: Mindre aktive markeder kan ikke kun være sikre markeder, de kan også bedre udføre den
samfundsmæssige funktion, som de er tiltænkt at udføre.
Diskussion
•
Ig.
EMH burde det derfor være umuligt at outperform det samlede marked gennem valg af aktiver eller
markedstiming og den eneste måde en investor kan opnå højere afkast, er ved at købe mere risikofyldte
aktiver
Dog er der eksempeler såsom Warren buet der konsistent har slået markedet over længere perioder,
hvilket ikke burde være muligt i EMH. Ligeledes ved nanskrisen sås det at aktiver faldt meget og at de
derfor godt kan uktuere væk fra deres forventede værdi. Dog er det særtilfælder hvori investorer slår
markedet hvilket betyder at EMH godt kan have noget i sig alligevel.
71
Opgave 24.
Diskuter "revealed preference" teorien.
Revealed preferences
•
Modsvar til præference relationer: `Revealed Preference' teorien, formuleret af Samuelson (1938).
Formål: at undgå, at man skal anvende `noget så luftigt' som præferencer, dvs. opstilling af en nyttefunktion med tilhørende indierenskurver. Han skriver at sådanne præference relationer er noget, der
ndes i hovedet på folk og ikke noget, der kan/skal observeres. Men det, man kan observere, er de valg,
der foretages. Man åbenbarer sine præferencer.
•
Så altså i revealed preference teorien kigger man på de valg der kan observeres. Et eksempel kan være, at hvis
man alt andet lige vælger at købe en Bourgogne vin frem for en Bordeaux vin, er det jo fordi man foretrækker
en Bourgogne vin frem for en Bordeau vin. (Man har altså åbenbaret sine præferencer).
Nytteteori: (Modsat af revealed preferences)
•
Dette kan illustreres på følgende vis:
Når Bourgogne vin stiger i pris og prisen på Bourdeaux vin er uændret, vil man forbruge mindre Bourgogne
vin og mere Bordeaux vin, dvs. man substituerer Bourgogne vin med Bordeaux vin. Bevægelsen fra A til C
i Figur 1.
Samtidig er man dog blevet fattigere, købekraften af ens indkomst er faldet, hvilket normalt vil få
forbruget af såvel Bourgogne vin som Bordeaux vin til at falde. Dette benævnes indkomsteekten og ses
som bevægelsen fra C til B i gur 1.
Hvis man i B kompenserer for faldet i indkomsten, så man bender sig på den samme indierenskurve
som før prisændringen, får man den rene substitutionseekt, dvs. bevægelsen fra A og C.
Vi har således vist, at substitutionsvirkningen ikke er positiv, se Figur 2.1. Når prisen stiger på Bourgogne
vin, bruger vi mindre af denne vin, hvis vi kompenseres for realindkomstfaldet, således at vi opretholder
det samme nytteniveau
Revealed preference theory:
•
Kan det samme resultat opnås uden at postulere eksistensen af en nyttefumktion og dermed et indierenskort,
og således udelukkende basere resultatet på de præferencer, agenterne har åbenbaret ved deres valg af vin.
• Revealed preference teorien baseres på to aksiomer:
Axion 3 Weak revealed preference: Hvis A er revealed preferred til B, må B aldrig blive revealed
preered til A.
Axiom 4 Strong revealed preference: Hvis A er revealed preferred til B, B revealed preferred til preference C, ......., S revealed preferred til T, må T aldrig blive revealed preferred til A. Dette skal gælde for
alle mulige ordnede valg.
Hvis disse to aksiomer er opfyldt, kan det vises at hvis nytten af to valg C (Bourgogne vin) og B (Bordeaux
vin) er den samme, vil en højere pris på C end B være kombineret med en lavere efterspurgt mængde af
Bourgogne vin end af Bordeaux vin, dvs. substitutionseekten er ikke-positiv. Dette resultat fås således
på baggrund af aksiomerne og uden, at vi har postuleret eksistensen af en nyttefunktion, endsige dens
egenskaber.
72
Figure 6:
Fortolkning og kritik
•
Revealed preference teorien har en del økonomer opfattet som betydende, at man kunne undvære noget så
luftigt som præferencer og nøjes med at observere folks valg, f.eks. af forbrugsvarer.
•
Mas-Colell (1995) p. 5 skriver således: Den valg-baserede tilgang har ere attraktive features. Den efterlader
i princippet mere rum til mere generelle former for individual adfærd, end det er muligt med den præferencebaserede tilgang. Den laver også antagelser om objekter der er observerbare, i stedet for ting man ikke kan se,
altså preferencer. Måske vigtigst, gør den det klart at teorien om individuel beslutningstagning ikke behøves
at handle om hvad der foregår inde i os, men i stedet kan baseres på vores adfærd (det vi viser).
•
Dette synspunkt er blevet imødegået meget overbevisende af bl.a. Hausman (2012), men allerede Sen (1973)
indeholdte et stærk angreb på den opfattelse af betydningen af revealed preference teorien.
•
Sen (1973) p.
243 skriver Jeg vil derfor hævde, at påstanden om at forklare adfærd uden henvisning til
andet end adfærd er ren retorik, og hvis teorien om revealed preferences giver mening, gør den det ikke, fordi
der ikke bruges psykologiske antagelser, men fordi den psykologiske anvendte antagelser er fornuftige valgt.
•
Sen (1973) og Hausman (2012) kommer dog begge med et stærkt angreb på den opfattelse af betydningen af
revealed preferences. Hausman (2012) har især to pointer.
1. Hvis præferencer er deneret ved valg, kan man ikke have præferencer for noget, man ikke kan vælge.
Man kan således ikke have præferencer for en alderdom uden sygdom, for det kan man ikke (selv) vælge.
Det eneste økonomi kan sige noget om i så fald er, at man blandt de mulige valg vælger den, man
foretrækker, hvilket blot siger, at man handler konsistent.
73
2. Det andet punkt kan illustreres ved Shakespeares historie om Romeo og Julie.
Svend skriver således:
Her nder Romeo en øjensynlig død Julie, og han begår derefter selvmord, fordi han ikke ønsker at leve
uden Julie. Men Julie er ikke død og han kunne have løbet bort med hende, og giftet sig med hende
> Romeos valg mellem at begå selvmord eller at løbe bort med Julie afhænger af hans overbevisning
(belief ) om, at hun er død. Havde han haft en anden overbevisning, f.eks. at hun blot var bevidstløs,
var valget blevet et andet. (Kan også beskrives ved vandrensningsanlægget i Kenya).
•
Således kan præferencer ikke blive deneret ved hjælp af valg, fordi disse afhænger af agents `belief '. Man kan
ikke identicere hverken præferencer eller overbevisning ud fra valg, men valg er en konsekvens af præferencer
og overbevisning.
74
Opgave 25.
Giv en beskrivelse af randomiserede kontrollerede forsøg (RCT) og deres anvendelse i økonomi,
herunder sammenlign RCT med økonometriske metoder.
Hvad er RCT
•
Helt basalt er RCT en type af vidensakbelige forsøg, hvor man sammenligner middelværdier mellem en behandlingsgruppe og en kontrolgruppe.
•
I naturvidenskab, især indenfor medicin, er RCT'er den traditionelle måde at undersøge eekten af en behandling.
•
En RCT består af
1) Randomisering #1: En tilfældig stikprøve fra en population.
2) Randomisering #2: En tilfældig opspiltning af stikprøven i to grupper.
3) Gruppe B (behandlingsgruppen) udsættes for en behandling. GruppeBÌ„ (kontrolgruppen) udsættes
ikke for behandlingen, men i stedet f.eks får en placebobehandling; heraf at forsøget er kontrolleret.
4) Efter behandlingen evalueres den kvantitative forskel på den relevante egenskab i de to grupper
statistisk. (Altså man sammenligner middelværdien)
•
Hvis stikprøven er tilstrækkelig stor, opsplitningen mellem de to grupper tilfældig, og den samlede stikprøve
tilfældigt udtaget, vil en sådan metode kunne anvendes i en videnskabelig undersøgelse, idet stikprøven kan
antages at være repræsentativ for populationen, og eekten af andre faktorer kan anses for at være neutraliseret.
•
Den kvantitative forskel betragtes da som et godt estimat på eekten af at behandle hele populationen, idet
det kan vises at dierencen mellem middelværdierne af eekten i behandlingsgruppen og i kontrolgruppen er
et unbiased estimat af eekten af behandlingen.
•
Randomisering #2 foretages for at balancere forskellene på andre egenskaber mellem de to grupper.
Hvis
randomiseringens kvalitet er tilstrækkeligt høj er disse forskelle balancerede i forventning og en relevant
estimator vil være unbiased.
•
Ved at sikre at den eektive stikprøvestørrelse er tilstrækkeligt stor kan variansen på estimatoren reduceres
tilfredsstillende, men der vil altid være stikprøvefejl i det enkelte RCT fordi forskelle i egenskaber (resultatforklarende faktorer) i de to grupper confounder estimatet. (fx hvis den ene landmand har bedre jord)
•
Det gælder dermed at:
Hvis betingelserne 1-3 ikke er opfyldt er estimatet uanvendeligt.
Selv hvis betingelse 2 er opfyldt, men randomiseringens kvalitet er utilstrækkelig, kan estimatoren være
biased fordi øvrige egenskaber ikke er balancerede mellem grupperne.
Selv hvis betingelserne er opfyldt kan et RCT lede til dårlige policyanbefalinger fordi gennemsnittet er
følsomt overfor outliers. (Hylleberg, 2018)
• Eksempel med økonomi; ændring i arbejdsudbuddet som følge af en lønstigning
75
Betragt en gruppe (population) af arbejdere
∗
Giv en RANDOM delgruppe af disse en lønstigning og en anden bliver lønnen som den er
·
·
Se på hvordan disse gruppers arbejdsudbud ændrer sig.
Vigtigt at kontrollere for mange variable; køn, alder, antal børn, hustru/mand, uddannelse
Problem med dette: Svært at give nogen en lønforhøjelse men ikke andre - det skal jo gerne være i samme
sektor og folk snakker sammen
•
Ydermere består en række praktiske problemer/udfordringer ved udførelsen af et RCT:
Self-selection i stikprøven, så den ikke er tilfældig. (At man altså selv vælger om man vil være med i
stikprøven, gør at den ikke er tilfældig)
Self-selection mellem grupperne, så opdelingen ikke er randomiseret. (Man fx ønsker at være med i
behandlingsgruppen)
Store omkostninger ved tilfældig stikprøveudtagning.
Manglende blinding af stikprøvemedlemmer og forskerne. (Så altså stikprøvemedlemmerne og forskere
ved hvem der får behandling og hvem der får placebo)
RCT forklarer ikke den kausale mekanisme bag et estimat, så det kræver yderligere teoretisk argumentation at overføre et resultat til policy.
Deaton & Cartwrights væsentligste kritikpunkter
•
a) Randomiseret opsplitning (RO) i grupper er ikke tilstrækkeligt til at korrigere for alle forskelle på tværs af
grupperne.
•
b) RO er ikke tilstrækkeligt for et præcist estimat af average treatment eect (ATE). Estimatet har som
udgangspunkt kun intern validitet.
•
c) RO er ikke tilstrækkeligt for at kunne se bort fra confounders.
(altså ting der forvirrer i forhold til
kausaliteten)
Det kunne være at man fandt en sammenhæng mellem issalg og druknedød, men grundet til ere drukner
når der sælges ere is, skyldes at ere bader når de køber is og dermed drukner ere i gennemsnit.
Heckmans væsentligste kritikpunkter
•
Fra Svend:
Evalueringsproblemet (nogen observeres i en tilstand, hvor de har fået behandling, men ikke i en situation,
hvor de ikke har fået en behandling, og omvendt) og selektionsproblemet (hvad nu hvis nogen i den gruppe,
der har fået tilbudt behandlingen har valgt ikke at modtage den):
∗
Evalueringsproblemet er i dette RCT eksperiment forsøgt løst ved hjælp af randomiseringen, hvor
man under de ideale forudsætninger regner med at behandlingsgruppen og kontrolgruppen er identiske på alle relevante parametre.
∗
Selektionsproblemet ødelægger randomiseringen (selektionsproblemet) og i realiteten er en sammenligning af middelværdier i de to stikprøver kun muligt ved at forudsætte, at dem der har valgt, ikke
at lade sig vaccinere, er kloner af dem der har valgt at modtage vaccinen i alle relevante forhold
(hvilket virker urimeligt).
76
•
Praktiske begrænsninger:
Placebo er svært at give i økonomi
∗
∗
Forsøgspersoner accepterer ikke deres placering (SELEKTIONSPROBLEM)
Man kan ikke trække tilfældigt fra populationen.
·
Dette kan skyldes etiske forhold, som f.eks. at der kan komme uønskede bivirkninger af behandlingen, men man kan også være nødt til at spørge og få tilsagn om deltagelse, hvorved en del
af populationen vælger sig bort.
∗
Praktiske og omkostningsmæssige årsager medfører ofte, at man vælger en stikprøveudtagning, som
f.eks. at gå alfabetisk frem, hvorved man i realiteten fjerner randomiseringen, og dermed helt eller
delvis ødelægger undersøgelsen. I forsøg i økonomi og andre samfundsvidenskaber er det meget svært
at foretage såkaldte "blindede"forsøg, dvs. dels sikre, at forsøgspersonerne ikke ved, hvilken gruppe
de tilhører, behandlingsgruppen eller kontrolgruppen, dels at dem, der udfører selve behandlingen
ikke ved det. Disse krav om "blinding" ofte i ere lag stilles som regel i medicinsk forskning. Og
selv om det ofte er svært også der, er det utvivlsomt lettere end i samfundsvidenskabelige forsøg
Selvom RCTs kan forudsige, at noget virker eller ikke virker, kan forsøgene i al deres
enkelthed ikke forklare hvorfor, hvilket medfører, at vi ikke nødvendigvis har tilstrækkelig
med viden til at implementere en politik. Dette er da også et problem for andre metoder.
Pas på med RCT'er: Man kan på baggrund af resultatet af et RCT anbefale en behandling
der er katastrofal for mange og kun til fordel for få
Behrens-Fisher problem: Statistikken ikke har en kendt fordeling, men en fordeling, der kun approksimativt er students t med et antal frihedsgrader (vanvittig ligning). Spørgsmålet om at balancere mellem
usikkerhed OG præcision på den ene side og egenskaben unbiased på en anden > en metode til at skabe
balance er stratikation.
•
Brug RCT til at pege i en retning: RCTs can play a role in building scientic knowledge and useful predictions
but they can only do so as part of a cumulative program, combining with other methods, including conceptual
and theoretical development, to discover not what works, but why things work.
•
Landmænd eksempel: (til at belyse en beskrivelse af RCT)
Population: Alle landmænd i DK
Gruppe A får en ny traktor, gruppe B gør ikke
Ser på forskellen i eektiviteten af de to grupper
∗
For at vi kan bruge dette til at snakke om ATE (Average Treatment Eect) kræver det at A og B er
tilstrækkeligt store
∗
Og det kræves at randomiseringen er af god kvalitet
·
Hvad er god kvalitet af randomisering?: At alle landmænd har lige stor sandsynlighed for at
blive udtrukket
∗
For at kunne se på forskellen i de to grupper skal man kontrollere for alle andre faktorer; jordkvalitet,
jordmængde, regn, gødning osv
Ekstra:
•
Rubin-Neyman modellen indikerer at randomisering er en form for guldstandard hvilket Heckman og
Deaton og Cartwright ikke mener.
77
RCT er brugbart, men kræver at man indser/anerkender svaghederne
∗
Kan udelukkende benyttes til svar af P1 (intern validitet).
Kritiserer RCT's eksterne validitet: resultater gælder ikke uden for stikprøve
RCT fungerer som Black Box, hvor man ikke kan identicere eekten af de enkelte dele
∗
RCT fokuserer på eekten af årsagen og dykker ikke ned i de underliggende årsager til eekten
RCT udnytter ikke prior knowledge RCT kan kun fungere som byggesten til videre undersøgelser.
∗
Fordel og ulempe:
·
∗
Den er ikke baseret på nogen forudindfattede holdninger/restriktioner.
Svaghed ved RCT, at den udelukkende kigger på gennemsnitlige eekter
·
Modsat den økonometriske model, der kan identicere fordelinger over eekter
78
Opgave 26.
Beskriv laboratorieeksperimenter i økonomi, og angiv evt. begrænsninger i deres anvendelighed.
Beskrivelse
•
Området er vokset de senere år ikke mindst grundet neuroøkonomi og hjerneforskning.
Inspireret af psykologien, hvor det er meget udbredt.
Er blandt andet blevet anvendt af Kahneman & Tversky (1979) til at undersøge menneskets begrænsede
rationalitet.
Og Smith (1982) anvender nyudviklet eksperimentel teknik til at undersøge, hvordan markeder fungerer.
I en vis udstrækning viser disse to eksempler, at eksperimenter i økonomi kan være både evaluerende,
dvs. forkaster en antagelse, eller kreative, dvs. giver anledning til nye teorier, der så kan evalueres.
• Beskrivelse af laboratorieeksperimenter
Normalt i økonomi bruger vi data til at teste vores hypoteser.
I laboratorieeksperimenter genererer vi data. Vi tager en ok mennesker ind og spørger dem om nogle
ting, som vi så analyserer på.
Fordel ved dette kan være at vi kan søge at få svar på præcist det vi søger svar på - hvis vi vil teste
transitivitet kan vi bare give dem 3 spørgsmål: vil du have A over B? Vil du have B over C? Vil du have
A over C? Dog er der også problemer med det
Praktisk:
Lukker en person inde i et rum/lokale, hvor man kan kontrollere omgivelserne, så man er klar over hvilke
faktorer agenten/forsøgspersonen bliver udsat for.
Herefter foretager man det ønskede eksperiment, og noterer sig resultaterne.
Eksperimenterne kan foretages i laboratorier, hvor det i en vis grad er muligt, at holde de for undersøgelsen
irrelevante faktorer konstante.
Men man kan ikke undgå, at agenterne evt.
påvirkes af den kunstige
situation. Samtidig kan det være svært indenfor rammerne af de sædvanlige forskningsbudgetter, at gør
eksperimenterne realistiske og tilstrækkelig seriøse for deltagerne.
Typisk eksempel på et laboratorie eksperiment i økonomi:
•
Transitivitetsforudsætningens synes ikke at holde efter de eksperimenter (transitivitet:
A > B, B > C
så må
A > C)
mange tilfælde kan der imidlertid stilles spørgsmålstegn ved, om den givne fortolkning af eksperimenterne
er korrekt, eller om der er andre årsager til, at transitivitetsforudsætningen ikke synes at holde. Man kan
f.eks. forestille sig, at præferenceordningen ikke er stabil over tid, og at det er den manglende stabilitet,
der indebærer, at præferenceordningen ikke synes at være transitiv. I de este situationer vil mangel på
tidsmæssig stabilitet dog være et lige så stort problem som manglende transitivitet.
•
Begrænsninger ved eksperimenter
79
At det i et design af et eksperiment kan være vanskeligt eller umuligt, som hævdet af Duhem i 1906
og forstærket af Quine i 1951, se Bardsley et al.
(2010) p.
95 .
og Rees (2013) p.
185, at isolere
eksperimentet til test af en hypotese, er ovenstående et godt eksempel på. Under alle omstændigheder
lider eksperimenter, også eksperimenter foretaget i laboratorier, af, at man i bedste fald kun kan tage
hensyn til faktorer, som man ved eller har mistanke om, kan påvirke forsøgsresultatet.
•
Der er af mange eksempler på, at ganske vist er eksperimenter i økonomi blevet langt mere almindelige, men
der mangler stadig en del i at få metoderne tilpasset og fornet, så de faktisk kan anvendes og blive accepteret.
Binmores (1999) krav om, at tre betingelser skal være opfyldt før man kan tage eksperimentel økonomi helt alvorlig, synes rimelig. De tre betingelser er:
∗
∗
∗
1. Det problem, forsøgspersonerne stilles overfor, skal være rimelig simpelt.
2. Incitamenterne skal være passende.
3. Der skal være tilstrækkelig tid til at forsøgspersonerne kan prøve sig frem (trial and error).
Mens betingelserne 1) og 3) i en vis grad hænger sammen og blot udtrykker, at man ikke kan anvende
forsøgsopgaver, som de deltagende personer ikke kan forstå, og her hjælper det nok at prøve sig frem,
er betingelse 2) mere kontroversiel og nok mere et udtryk for økonomers opfattelse end for psykologers
opfattelse. Men dels kan der være forskel på incitamentstrukturen ved forsøg af forskellige forhold, og
dels forekommer det selvfølgelig meget rimeligt at sikre sig, at forsøgspersonerne tager forsøget alvorligt.
•
Problemer med intern vs.
ekstern validitet (dvs.
generalisere resultaterne ud af den kontekst de er blevet
foretaget i)
Ovennævnte problemer har at gøre med den interne validitet.
Nedenunder er nævnt problemstillinger vedr. ekstern validitet. Den eksterne validitet omhandler muligheden for at generalisere resultaterne fra et eksperiment til at gælde uden for "laboratoriet".
∗
F.eks. kan man forestille sig, at den uselviske optræden i Fehr og Schmidts forsøg nævnt ovenfor
skyldes, at deltagerne føler sig overvåget i "laboratoriet"og derfor vælger at agere som "gode"mennesker.
∗
Denne undersøgelse viser med al ønskelig tydelighed, at det kan være forbundet med stor unøjagtighed at generalisere fra eksperimenter, hvor forsøgspersonerne er studenter og til befolkningen
som helhed.
Under alle omstændigheder er der et trade o mellem den interne validitet og den eksterne validitet.
Desto mere man sikrer, at eksperimentets resultater ikke påvirkes af ikke relevante faktorer, set i relation
til undersøgelsen, desto større er risikoen for, at eksperimentet sker i et kunstigt miljø, som ikke ligner
det, der foregår uden for laboratoriet, hvorved man kan mindske den eksterne validitet
• Begrænsninger i anvendelighed
Levitt og List siger således følgende:
Det mest fundamentale spørgsmål i eksperimentiel økonomi er om de resultater fra laboratoriet er
sandsynlige og pålidelige uden for laboratoriet (ifm. om det er for kunstige forhold man har i eksperimentet).
Den eksterne validitets sikkerhed er således i fare, da laboratoriet så systematisk er forskellig fra de mest
naturlige hændelser i miljøet, at disse eksperimenter ikke kommer frem til resultater der kan generaliseres.
80
Specielt argumenterer de at laboratorie eksperimenter generelt udøver en speciel type af granskning, i en
kontekts der placerer ekstrem vægt på processen hvor beslutninger og allokeringer er opnået og en bestemt
selektions mekanisme for deltagere. I modsætning, til mange virkelige markeder der er speciceret ved
forskellige typer af granskning og lidt fokus på processen og meget forskellige former for selv-selektion af
deltagere.
De anbefaler således 3 vigtige konklusioner:
1. En kombinering af laboratorie analyse med en model af beslutningstagning, ligesom den model de fremviser,
udvider potentialet af laboratorie eksperimenters rolle. Vi kan således minimere typerne af de alm. biases,
vha. at designe dem rigtigt.
2. Ved at adoptere eksperimentielle designs der anerkeder den potentielle svaghed af laboratoriet, kan brugbarheden af lab. studier blive forhøet.
3. Ved at anerkende de begrænsninger der eksisterer i laboratorie generet data og data fra naturlige omgivelser,
vil en økonomisk vinkel der kombinerer begge være bedst.
Samtidig kan det være svært indenfor rammerne af de sædvanlige forskningsbudgetter, at gør eksperimenterne
realistiske og tilstrækkelig seriøse for deltagerne.
81
Opgave 27.
Diskuter neuroøkonomi og dens anvendelighed.
Beskrivelse af neuroøkonomi
•
En form for sammensmeltning af adfærdsøkonomi og studiet af hjernens funktioner
Eksempel: Anchoring
•
Den (første) information man får, f.eks. et pristilbud, bliver ofte udgangspunktet for forhandlingerne, selvom
prisen burde være en helt anden. Med andre ord får man først plantet et tal i hovedet på modparten, har
denne en tendens til at holde fast ved dette tal. Investorer synes ofte at springe på vognen efter, at toget er
kørt. De forventer yderligere stigninger efter, at der i en periode har været stigninger, og de skal først se en
periode med fald, før de reagerer og forventer yderligere fald. Kursstigninger bliver ankret.
Colin Camerer denerer her neuroøkonomisk teori ved: Den neuroøkonomiske teori af individet erstatter
den (bestandige brug) af ktion af en utility - Maksimerende individer som har et mål, med en detaljeret beretning af
hvordan komponenterne af individets, hjerneregion, kognitiv kontrol og neurale baner - interagere og kommunikere
til at bestemme et valg.
•
Neuroøkonomi udvider adfærdsøkonomien på to måder.
Den første rolle er at anvende modelleringsteknikken og matematik fra økonomi dvs. maksimering under
bibetingelser og ligevægtsanalyser til at modellere indkapslede funktionelle dele af hjernen. Dette kaldes
"Neurocellular economics"eller NE af Ross (2008).
∗
Giver god mening at anvende modeller fra økonomi, der på mange andre områder har vist sig, at
være ret succesfulde.
Den anden rolle kaldet "Behavioural economics in the scanner"eller BES af Ross (2008). Den rolle består
i at anvende målinger af aktiviteter i hjernen til forklare de psykologiske reaktioner, der forklarer de
økonomiske agenters adfærd, og som i nogen grad også er det, der danner grundlag for megen forskning
i adfærdsøkonomi.
∗
Kritik består dels af en begrundet tvivl om sådanne målinger, i hvert fald fornærværende, kan tilføje
væsentlig ny viden, dels om økonomi overhovedet har brug for at beskæftige sig med hvad der foregår
i hovedet på folk, men kan nøjes med at studere de handlinger disse foretager sig.
·
Store usikkerheder forbundet med målinger af disse (ikke fuldtudviklet teknologi).
Kritik
•
Gul & Pesendorfer siger: what goes on in the brain do not automatically enhance (forbedre) economics".
Gul og Pesendorfers (2008) forsvar af den klassiske økonomi mod hvad de kalder neuroscience, kan også
opfattes som et forsvar af økonomi overfor psykologi, og dermed adfærdsøkonomi.
Gul og Pesendorfers hævder at neuroøkonomi er baseret på følgende påstande (assertions)
∗
Psykologi er direkte relevant for økonomiske teorier. Især det faktum at det kan benyttes til at støtte
eller afvise nuværende modeller
∗
What makes indviduals happy ('true utility') diers from what they choose.
Economic welfare
analysis should use true utility rather than utilities governing choice ('choice utility')
82
Ifølge Gul og Pesendorfer beskæftiger disciplinerne med forskellige ting: Neuroscience kan ikke forkaste
økonomiske modeller, fordi de ikke siger noget om hjernen, og hjerneforskning kan ikke sige noget om
økonomi, fordi den ikke kan sige noget om de forhold økonomi beskæftiger sig med. Dvs at denitioner
og mål er forskellige. (De mener altså ikke at neuroscience og økonomi hænger sammen)
∗
Denitioner og mål er forskellige.
· Standardøkonomi
fokuserer på agenternes valg og bruger det som angivelse af "revealed pref-
erences". Men man har ingen terapeutiske hensigter om at "forbedre"agenternes velfærd, men
analyserer hvordan agenterne interagerer i den institutionelle situation de bender sig i.
· Neuroøkonomi har terapeutiske hensigter og forsøger at at beskrive, hvordan agenterne træer
beslutninger med den hensigt at eektiviserer disses valg for derved at opnå bedre velfærd.
∗
Økonomi og psykologi adresserer ikke de samme spørgsmål, og svar og metoder er derfor forskellige.
·
At skelne mellem komplementer og eksternaliteter er vigtig i økonomi, fordi eksternaliteter ofte
er tegn på markedsmangler, hvilket ikke er tilfældet for komplementære varer
·
·
I psykologien er er det signaleekten, der analyseres.
I økonomi er kae og cigaretter, ligesom en hamburger og pommes frites komplementære vare,
mens en tidligere narkomans tilbagefald ved at ytte til Christiania tæt på pushere, ligesom
bilkøb og forbedrede motorveje er eksempler på eksternaliteter, der ændrer efterspørgslen. At
skelne mellem komplementer og eksternaliteter er vigtig i økonomi, fordi eksternaliteter ofte er
tegn på markedsmangler, hvilket ikke er tilfældet for komplementære varer
·
For en psykolog er cigaretter, når man drikker kae, ligesom pommes frites, når man får en
hamburger, og narkotika, når man ser pushere på Christiania og bilkørsel, når vejene forbedres,
en længsel, der fremkommer, som følge af et signal. Og her er er det signaleekten, der analyseres.
Diskussion
•
Camerer, Loewenstein and Prelec (2004) anfører p. 562 . seks utilstrækkeligheder ved økonomiens præferencebegreb, som Gul & Pesendorfer besvarer.
Grundlæggende for anførslerne er at de bygger på at økonomien ikke kan forklare de tanker der beskriver
hvorfor vi observerer det man gør.
GP's svar på disse er generelt at økonomien ikke er interesseret i tankerne man i de valg der foretages
(altså det synlige outcome).
•
I sin kritik af Gul og Pesendorfer skriver Hausman (2008) i sin konklusion
I adfærdsøkonomi og neuroøkonomi ndes der utvivlsomt optimisme, også til en grad der måske er for
meget.
∗
Men det er denne optimisme der er med til at udvikle nye grene indenfor økonomien
Meget muligt at der er nogle økonomer der mener det er distraktioner
∗
Men der er gode argumenter for at det kan støtte nuværende økonomiske metoder ved at inkorporere
nye former for data (der selvfølgelig skal håndteres med forsigtighed grundet dets nye natur)
Egen diskussion
•
Neuroøkonomi kan bruges til at belyse HVORDAN vi træer beslutninger
83
Det skal i mine øjne ses som et TILLÆG til de økonomiske modeller
Økonomi og psykologi adresserer ikke de samme spørgsmål, og svar og metoder er derfor forskellige
Har økonomi overhovedet brug for at beskæftige sig med hvad der foregår i hovedet på
folk, eller kan nøjes med at studere de handlinger disse foretager sig?
∗
∗
De har ikke brug for det der foregår i hovedet, men det kan hjælpe til at belyse problemerne
Tilstande som kulde, varme, glæde og sult har en indvirkning på beslutningsgrundlaget, men hvordan
skal dette modelleres, selvom vi ved det?
Jeg føler det har en plads, men er mere tilhænger af standard økonomi.
∗
Neuroøkonomi kan anvendes til at svare på HVORFOR vi træer hvilke valg. Økonomi fokuserer
mest på de valg vi træer.
_____
Camerer, Loewenstein and Prelec (2004) anfører p. 562 . seks utilstrækkeligheder ved økonomiens
præferencebegreb. (Se side 37 og frem i begrænset rationalitet.)
1. Følelser af glæde og smerte er homeostatiske mekanismer ligesom det, at svede når man har det for varmt, og
det at ryste når man har det for koldt. Præferencer er således tilstandsafhængige og det til noget internt i
agenten
(a) Gul og Pesendorfer anfører hertil, at økonomiske modeller inter siger om kropstemperatur, blodsukkerniveau osv. Og heller ikke til hvad der får folk til at føle sig tilpas, eller om det at føle sig tilpas er hvad
agenterne sætter pris på.
2. "Revealed preferences" fortæller os ikke om agentens fravalg af et gode skyldes, at han ikke vil betale prisen
eller f.eks. er allergisk overfor godet.
(a) Gul og Pesendorfer anfører til dette, at økonomi ikke bekymrer sig om grunden til fravalget er det ene
eller det andet. Allergikeren vil ved sine valg under forskellige priser afsløre, at han ikke efterspørger
varen uanset pris.
3. Kahneman (1994) skelner mellem 4 forskellige former for nytte, der til en vis grad synes at være produceret
forskellige steder i hjernen, og som ikke altid er synkrone. De re typer er erindret nytte (det man kan huske
at kunne lide) , forventet nytte (hvad man forventer at kunne lide), valgt nytte ( det man har valgt at anskae
sig) og erfaret nytte ( det man kan lide, når det forbruges).
(a) Gul og Pesendorfer mener at velfærdsanalyser for neuroøkonomer har det terapeutiske formål, at forbedre
beslutningstagerens følelse af at have det godt, og samtidig har neuroøkonomen ikke noget i mod at være
paternalistisk12. Gul og Pesendorfer mener, at velfærdsøkonomi handler om at analyserer institutioners
evne til at distribuere fordele og ulemper mellem agenterne. Landbrugsstøttens eektivitet er et eksempel
4. Visse hjerneaktiviteter (dopaminergic neurons) i midterhjernen indtræer på lignende måde ved mad, piller
og penge. Dette tyder på, at penge har direkte nytte, hvilket er i modstrid med gængs økonomi, der hævder
at det at holde penge kun har indirekte nytte via de goder penge kan købe
(a) Gul og Pesendorfer anfører hertil, at pengeillusion, som dette kaldes i økonomi, kan afdækkes ved at ændre
på priser og lønninger, således at de mulige kombinationer af forbrug og arbejdsudbud er uændret. Man
behøver ikke at henvise til visse usikre hjerneaktiviteter, som økonomi ikke siger noget om
84
5. Nytten af indkomst afhænger af nytten af de varer og tjenester agenten kan købe for indkomsten, men ikke
fra hvilken kilde indkomsten kom.
Men det er blevet påvist, at der er større aktivitet i midterhjernens
belønningsregion kaldet striatum, når indkomsten stammer fra arbejde, end når indkomsten har andre kilder.
Dette indikerer, at man sætter større pris på indkomst indtjent ved arbejde.
(a) Gul og Pesendorfer har ikke nogen kommentar til dette punkt, men man tager næppe fejl ved at anvende
svaret i 4a.
6. Afhængighed ("addiction") specielt det forhold at den følelsesmæssige (vicseral) tilskyndelse til f.eks. narkotika
bekæmpes af den fornuftsmæssige (cortical) fornemmelse for at narkotika er skadelig, hvilket viser sig ved at
narkomaner svinger mellem forbrug og afholdenhed. Også her mener Camerer, Loewenstein and Prelec (2004)
at hjerneforskning kan hjælpe
(a) Gul og Pesendorfers argument mod dette er at økonomi ikke beskæftiger sig med aktiviteter i hjernen,
men med agenternes valg.
85
Opgave 28.
Diskuter begrebet kausalitet i økonomi.
Kausalitet
•
Kausalitet spiller en meget stor rolle i anvendt økonomi.
Mange økonomisk politiske forslag indeholder antagelser om, hvad man i loso kalder kausale sammenhænge.
∗
Når økonomer foreslår at lempe nanspolitikken for at formindske arbejdsløsheden, er det, fordi man
mener, at der en kasual sammenhæng mellem den samlede efterspørgsel i samfundet og udnyttelsen
af de tilstedeværende produktionsfaktorer, herunder arbejdskraften.
∗
På tilsvarende vis antages en kausal sammenhæng fra pengemængde til ination, når økonomer
advarer om, at Nationalbankens opkøb af obligationer vil medføre generelle prisstigninger.
Man kan erstatte ordet kausalitet med prognose og udtrykke, at strammer man nanspolitikken bør man
forvente, at aktiviteten i samfundet falder, men fortolkningen ændres ikke.
Men studerer man disse udsagn om kausale sammenhænge nærmere, vil man opdage, at de typisk er
fulgt af nogle afsvækkende forbehold, som ofte betegnes ceteris paribus eller "alt andet lige forbehold".
•
Aristoteles (3-400 f.kr)
For videnskab var kausalitet og spørgsmålet om "hvorfor" afgørende.
Kausalitet og en teori om kausalitet er afgørende for forståelse af naturen og hvad der sker omkring os,
eller kort sagt nødvendig for at vi kan svare på spørgsmål om "hvorfor".
Aristoteles teori om kausalitet består af 4 forklaringer eller årsager, der kan give på et spørgsmål om
hvorfor (eksempel med y):
∗
∗
∗
∗
•
Den materielle årsag: Trykket under vingen er større end trykket over vingen (Bernoullis lov).
Den eciente årsag: Flyet er designet til at yve.
Den formelle årsag: Piloten er sat til at overholde tidsplanen
Den ultimative årsag: Man forventer en prot ved at yve.
David Hume (1700 tallet)
David Hume oversatte Aristoteles tro og videnskab som forhold mellem ideer og forhold mellem fakta,
hvor forholdet mellem fakta drejer sig om hvordan verden er, mens forhold mellem ideer er sande uanset,
hvilken verden vi lever i.
∗
Hume argumenterer herefter for, at kausalitet kun vedrører forhold mellem fakta, og at kausale
analyse beror på erfaringer. Betragt følgende to påstande
·
·
Min hovedpine er hidtil altid formindsket efter, at jeg har taget en aspirintablet.
Min nuværende hovedpine vil blive formindsket hvis jeg tager en aspirintablet.
Den første påstand opsummerer mine erfaringer, mens den anden forudsiger, hvad
der vil ske i fremtiden. At argumentere for en forbindelse mellem (1) og (2) som et
forhold mellem ideer, har ig. Hume ikke nogen gang på jorden, idet der ikke er nogen
kontradiktion i at hævde, at aspirin ikke vil have nogen virkning på min nuværende
86
hovedpine, selvom den har virket i fortiden. Man må således anvende probable reasoning
(sandsynlig begrundelse) for forholdet mellem fakta. Men her løber man så ind i det problem, at en
sådan argumentation må forudsætte at fremtiden bliver som fortiden. Men for at vi med rimelighed
kan hævde det, må vi have erfaringer med at aspirin hjælper på hovedpine. Hvilket i realiteten er
en påstand om en association mellem aspirin og mindre hovedpine.
∗
Reiss (2013) p. 90 sammenfatter Humes kausalitetsdenition, som, at X forårsager Y , hvis
·
·
·
∗
X og Y er universelt associerede.
Y følger efter X i tid.
Y og X er tilgrænsende i tid og rum.
Men som også anført af Reiss, er er der ere problemer med Humes kausalitetsanalyse. Den slappe
økonomiske politik, ikke mindst uviljen til at pålægge højere grundskatter, uhensigtsmæssige dereguleringer og nogle nansielle institutioners jagt efter prot m.v. var formentlig årsag til nanskrisen
i 2008, men vi har haft nanskriser, der havde andre årsager.
∗
I økonomi er der desuden mange eksempler på, at kausaliteten går begge veje i hvert fald inden for
det tidsinterval, vi kan måle på.
•
John Stuart Mills (1843)
Han denerede kausalitet ved hjælp af tendenser, der
1. er en slags årsager,
2. som giver en karakteristisk eekt, når den opererer uden forstyrrende faktorer,
3. men som fortsætter med at bidrage til eekterne, selv når der er forstyrrende faktorer.
Denne denition af kausalitet svarer i høj grad til den, der anvendes i eksemplet med kvantitetsteorien.
MV = PT
> forøges pengemængden, så vil der være en tendens til, at prisniveauet stiger.
Et af de interessante spørgsmål er herefter, hvordan man kan adskille de forskellige faktorer, de kausale
faktorer af interesse, og de forstyrrende faktorer.
Mills' svar på dette er et princip kaldet "Composi-
tion of Causes", som han hævder i økonomi bedst beskrives som mekanikkens faktorer, som eksempelvis
tyngdekraft og centrifugalkraft, og ikke som det, der sker, når man i kemien blander stoer, hvor sammensætninger får en anden karakter end de enkelte dele. Brint og ilt kan således give vand, der er helt
forskellig fra såvel brint som ilt.
∗
Dette svarer helt til den fremstilling, man anvender i den i økonomi ofte anvendte regressionsanalyse.
Alfred Marshall var ikke helt enig med Mill, selvom han godkender, at mekanikkens model kan anvendes
i hvert fald i laboratoriet. Marshall mener heller ikke, at kemiens model er særlig anvendelig. I stedet
henviser Marshall til biologien, der også "deals with a matter, of which the inner nature and constitution,
as well as the outer form, are constantly changing"
•
Korrelation, herunder spuriøse korrelationer og kointegration
I hvilket omfang korrelation er udtryk for kausalitet, er et af de emner, der altid bliver diskuteret, når
begrebet kausalitet er på dagsordenen. At x forårsager y angiver en retning for kausaliteten. Men et blik
på formlen for en korrelationskoecienten fortæller umiddelbart, at den er symmetrisk i y og x, hvilket
indebærer, at den per denition ikke umiddelbart kan sige noget om kausalitet.
∗
Korrelation er symmetrisk
ρ=
87
σxy
σx σy
Regression, der jo tager udgangspunkt i den betingede fordeling for y givet x er ikke symmetrisk, og
regressionsmodellen giver derfor et bedre grundlag for kausalitetsanalyser end korrelationer.
∗
Kausalitet er assymetrisk (β1 fra en helt normal regression y på x)
β1 =
σxy
σx2
Men problemet, at såvel y som x kan være frembragt af en tredje faktor, eksisterer stadig, ligesom der
også kan forekomme "spurious regressions", se Granger og Newbold (1974), Granger (1981).
∗
∗
Eksempel på brødpriser og vandstand i Venedig
Men som anført af Granger og Newbold (1974), er dette et typisk eksempel på en "spurious"regression.
Da antallet af observationer er begrænset, er det ikke muligt at anvende yderligere test for "spurious", som f.eks. test for positiv autokorrelation. Men er regressionen valid, vil der formentlig også
være en sammenhæng mellem de årlige ændringer (dierens af første orden).
∗
At man nder spurious regressions skyldes ofte, at man har at gøre med ikke stationære tidsserier,
og fejlagtigt anvender sandsynlighedsmodeller, herunder en statistik som korrelationskoecienten og
den ovenfor anvendte regression, der kræver stationaritet.
∗
Ikke-stationære tidsserier er tidsserier, der har en trendkomponent, som indebærer, at sandsynlighedsfordelingen for serien ikke er den samme i begyndelsen af observationsperioden som i slutningen af perioden.
·
Deterministisk eller stokastisk trend (kan lede til kointegration) kan løses ved introduktion af en
trend eller tage første dierenser.
Hoover (2008) opstiller følgende tabel for at beskrive de forskellige tilgange til kausalitet:
Structural
Process
A priori
Cowles Commisson: Koopmans (1953); Hood and Koopmans (1953)
Zellner (1979)
Inferential
Simon, Hoover, Favero and Hendry, Natural experiment: Angrist and Krueger
Granger, Vector Autoregressi
Det er disse tilgang vi normalt ser til kausalitet.
Først og fremmest må tilgangene enten have struktur eller proces. Dernæst må de enten være lavet på baggrund
af a priori eller også må de forsøge at skabe inferens fra data.
•
Cowles Commission (A priori structural)
Økonomisk teori giver information om hvilke variable, der er endogene, hvilke variable, der er eksogene,
og hvilke restriktioner modellen er pålagt, for at den er identiceret. Hermed er den kausale struktur
også fastlagt. Altså kausaliteten er fastlagt ud fra økonomisk teori, og ikke ud fra data.
•
The inferential structural approach (Rekursive strukturer)
Simon siger at X forårsager Y, fordi X er rekursiv ordnet foran Y. Man ved alt om X uden at vide alt
om Y, men man må kende værdien af X for at bestemme værdien af Y. Hvis man ikke kan afgøre om
X forårsager Y eller om Y forårsager X, må man indhente mere information, siger Simon. Det kan man
gøre ved at foretage eksperimenter.
•
The inferential process approach (Granger)
Omfatter Grangers kausalitetsmodeller
88
Grangers kausalitetsanalyse - I praksis fortolkes Yt Granger forårsager
skab til
Yt
værdier af
dvs.
nutdige og tidligere værdier af de varaible i
Yt
Xt som et udsagn om, at kend-
hjælper med at forudsige fremtidige
Xt
Sammenfattet kan man sige at Xt Granger forårsager Yt+1 hvis P (Yt+1 |all information dated
•
t
and earlier)6=
The a priori process approach (Zellner)
Zellner baserer sin denition af kausalitet på Feigl, der skriver at The claried (puried) concept of
causation is dened in term of predictability according to a law Dette indebærer at Zellner ikke er helt
enig med Granger, som ikke medtager according to a law og Simon der ikke lægger så meget vægt på
prædiktabilitet og tidsmæssig forskel
• Hvad synes jeg?
Ceteris paribus: Hvis vi holder alt andet lige og varierer den variabel må den forårsage ændringen
∗
Kritik: Det er svært (næsten umuligt) at holde alt andet lige
Økonomisk teori til at bakke empirisk kausalitet/korrelation op
∗
Vi skal således ikke kun kigge på enten teori eller empiri, men forsøge at kombinere begge i et forsøg
på at forstå hvorvidt vi har en egentlig kausalitet eller om det kun er en spuriøs regression der foregår.
Her skal den økonomiske teori kunne gå ind og sige at brødpriserne og vandstanden i Venedig ikke
har en kausal eekt.
•
Fra Svends guldkorn: Rubin og Holland, og dvs. tilhængerne af RCT, at den eneste måde man kan afgøre om
en variabel er kausal for en anden er ved hjælp af et randomiseret kontrolleret forsøg. De hævder eksempelvis,
at man ikke kan afgøre om køn er kausal for intelligens eller indtjening, fordi der er umuligt at randomisere
køn. Dette afviser Heckman, der anfører, at det at denere kausalitet ikke er det samme som at identicere
kausalitet og teste kausalitet.
•
Det er vigtigt at en kausalitet model ingen varians har, for på den måde er outputs nemlig stabile, fra
ændringer i de to input variabler.
den simple all cause model har 2 inputs variable
deep structural modellen. denne inkluderer en tredje input variabel
89
en anden version er
P (Yt+1 |all
Opgave 29.
Diskuter libertarian paternalism og nudging herunder Sugdens kritik af disse. (Se disp 21 for Sugden's kritik)
•
Generelt
Thaler & Sunstein har udvidet området og gjort det populært indenfor adfærdsøkonmi.
Nudging: At pue adfærd i en bestemt retning
Libertarian Paternalism: En model der nudger folk i en retning som choice architect vil.
∗
Lidt sjovt: Modstridende navn.
Libertarian: Frie valg.
Paternalism: Bedrevidende/faderlige råd
ish.
∗
∗
Det går ud på at: pue befolkningen i den "rigtige" retning.
Thaler og Sunstein (2008) argumenterer for, at folk i almindelighed skal have lov til at gøre hvad de
vil og at de skal have ret til at vælge. Men det er ikke desto mindre legitimt for choice arkitekten, at
forsøge at inuere på folks adfærd for at gøre deres liv længere, sundere og bedre. Og dette kalder
de "libetarian paternalism".
Nudging er en afvigelse fra rational choice teoremet (som tilsiger, at man vil undersøge alle muligheder,
inden man foretager et valg, der giver dem størst forventede nytte)
Eksempel med placeringen af salat og kage i skolens kø
∗
∗
Ved kantinedamen (choice architect) hvad der er bedst for eleverne?
Behavioral economics forklarer med kontektsafhængighed > en afvigelse fra rational choice teoremet
siden det ikke er nytten, der maksimeres, men placeringen der bestemmer valget.
Diskussion af libertarian paternalism
•
Problemstilling:
Hvem skal vurdere hvad der er bedst for en? Hvad er den rigtige retning?
Det etiske problem: Opstår først og fremmest i forbindelse med at fastlægge den adfærd mod hvilken man
skal pue agenterne, men også spørgsmålet om gennemsigtigheden i nudgingen kan give etiske problemer.
Alle vil gerne have et bedre liv, men hvem afgør, hvad der er kendetegnet ved et bedre liv?
arkitekten?
choice
sammenfald med diktatur
Her står Thaler og Sunstein (2008) af og skriver p.5 "a policy is paternalistic if it tries to inuence choices
in a way that will make choosers better of, as judged by themselves".
∗
Så de mener at en politik er paternalistisk, hvis choice arkitekten forsøger at påvirke ens valg i en
retning der gør personen i fokus bedre stillet, vurderet af dem selv.
Dette citat kritiserer Sugden på to fronter:
∗
For det første, hvordan afgør man om agenterne selv føler, at de er blevet bedre stillet ved at blive
nudged.
∗
Og for det andet, at Thaler og Sunstein implicit antager, at der indeni en HUMAN er en ECON,
der er som den neoklassiske økonomi antager, er en person, der maksimerer sin forventede nytte, og
har alle mulige egenskaber som fuld opmærksomhed på maksimeringsproblemet, fuld information,
opfører sig konsistent, har tilstrækkelige kognitive evner osv.
90
∗
Påstanden om at der eksisterer en ECON inden i os alle, er et resultat, som ig.
Sugden (2009)
simpelthen ikke er i overensstemmelse med de opnåede resultaterne indenfor behavioral economics og
psykologi. Der er således intet belæg for at antage, at agenterne vil optræde ud fra forudsætningerne
i neoklassisk økonomi.
∗
Sugden (2004): Konkurrencemarkeder er under visse betingelser udmærket er i stand til at fungere og
frembringe resultater, der forsyner de individuelle agenter med lige muligheder, for at være ansvarlig
for de udfald agenten erfarer, selv i tilfælde af at agenterne ikke er ECONs, men HUMANs.
Hausman og Welch (2010): Kritisk over for Thaler og Sunsteins eksempler på nudges. Mange af dem de
nævner, f.eks. den information, der gives på cigaretpakker om det farlige i cigaretrygning, kan lige såvel
blive betegnet som information til det rationelle valg som et tilfælde på en nudge.
∗
∗
TS eksempler er ofte blot informative oplysninger til det rationelle valg > ikke nudging.
Sublim advertising: Påvirke vores underbevidsthed uden at vi er opmærksomme på påvirkningen.
Svend: Der er givetvis mange situationer, hvor markedet ikke fungerer, men det er formentlig en skrøne,
at nudging kan gennemføres uden, at agenterne mister en del af den personlige frihed, også selvom de
ikke opfører sig som ECONs, men som HUMANs.
∗
Kritiserer et eksempel brugt af TS om oentliggørelse af kemisk aald for virksomhederne
∗
Desuden siger HW følgende om libertarian paternalism
·
·
Dette vil nemlig have direkte økonomiske konsekvenser og derfor ikke være et nudge
Libertarian Paternalistic nudges are in many cases not paternalistic at all, but instead largely
cases of rational persuasion. When they are paternalistic and in our terminology "shape"choices,
their libertarian credentials are questionable...
Diskussion:
∗
Agenterne har stadig de samme muligheder:
∗
Personligt synes jeg nudging er nt.
·
·
·
·
∗
Under klassiske økonomiske antagelser kender de alle muligheder og maksimerer deres nytte
Så længe man ikke indskrænker folks valg er de jo ikke dårligere stillet
Organdonation: Opt-out scheme istedet for opt-in. (Meld dig ud, i stedet for at melde dig ind)
Folk har samme mulighed men man vil alligevel se en højere % der er organdonere ved opt-out
Richard Thaler og Cass Sunsteins idé om libertarian paternalisme og nudging bliver diskuteret og
kritiseret af mange. Hele ideen bag at vi kan have en person (muligvis Carolyn) der på sin vis kan
diktere/ påvirke / nudge børnene i den rigtige retning ud fra hendes egen overbevisning om hvad
der er rigtigt, er selvfølgelig ufattelig spændende på regeringsperspektiv.
∗
Men en af de mange gode argumenter i mod dette, er lige præcis Hvem ved bedst, hvad der er den
rigtige retning for samfundets individer. Vi kan umuligt have en social planner der ved bedst for
alle, idet forskellige individer har forskellige præferencerelationer, hvilket vil påvirke deres beslutningstagning.
Dog er det interessant at man indirekte kan påvirke en agents valg ved kontekt-
safhængighed som strider mod rational choice teoremet om at vi som agenter først betragter alle
mulige beslutninger (Komplette), tager internt de samme valg (transivitet) og først derfra vælger
den mad der giver den største forventede nytte.
∗
Sugdens kritik omkring at Thaler og Sunstein antager at alle agenter har en ECON og ikke en
HUMAN inde i sig, er et væsentligt kritik punkt, idet det kan vises at det ikke er tilfældet.
Ekstra som blot skal huskes:
91
•
Hvornår er nudging ikke manipulation:
1. Hvis nudging ikke ændrer beslutningsprocessen, så er det ikke manipulerende.
2. Hvis nudging ikke er en direkte intentionel påvirkning, så er det ikke manipulerende.
3. Hvis nudging ikke succesfuldt påvirker beslutningsprocessen, så er det ikke manipulerende.
4. Hvis agenten indgår i et samtykke om, hvad der ellers ville være kendetegnet manipulation, så vil det
ikke bryde med agentens autonomi > Men hvis disse overholdes så er der vel ikke sket noget og så
nytter nudging ikke alligevel?
92
Opgave 30.
Diskuter libertarian paternalism og nudging herunder Gigerenzers og Cartwright and Marc A. og
Hights kritik
•
Generelt
Thaler & Sunstein har udvidet området og gjort det populært indenfor adfærdsøkonmi.
Nudging: At pue adfærd i en bestemt retning
∗
Fra behavioral economics er eksempel kontektsafhængighed, hvor en beslutning afhænger af konteksten.
Libertarian Paternalism: En model der nudger folk i en retning som choice architect vil.
∗
Lidt sjovt: Modstridende navn. Libertarian: Frie valg. Paternalism: Bedrevidende/faderlige råd
ish.
∗
pue befolkningen i den "rigtige"retning.
∗
Thaler og Sunstein (2008) argumenterer for, at folk i almindelighed skal have lov til at gøre hvad de
vil og at de skal have ret til at vælge. Men det er ikke desto mindre legitimt for choice arkitekten,
at forsøge at inuere på folks adfærd for at gøre deres liv længere, sundere og bedre.
Og dette
kalder de "libetarian paternalism".
Nudging er en afvigelse fra rational choice teoremet (som tilsiger, at man vil undersøge alle muligheder,
inden man foretager et valg, der giver dem størst forventede nytte)
Eksempel med placeringen af salat og kage i skolens kø
∗
Ved kantinedamen (benevolente diktator, choice architect) hvad der er bedst for eleverne?
∗
Behavioral economics forklarer med kontektsafhængighed > en afvigelse fra rational choice teoremet siden det ikke er nytten, der maksimeres, men placeringen der bestemmer valget.
På baggrund af eksempler som disse anbefaler Thaler og Sustein, at staten anvender en model kaldes
liberatarian paternalism. Hvilket vil sige at pue befolkningen i den rigtige retning. Mens der er jo
næppe nogen, der kan have noget i mod at få et bedre liv, bliver spørgsmålet imidlertid om, hvem der skal afgøre
om et liv er blevet bedre. Er det choice arkitekten? I så fald er vi jo tilbage til det argument, der i historiens løb
er blevet brugt til at argumentere for enevælde, diktatur osv., nemlig, at der er nogen, diktatoren, som ved bedst,
hvad der er godt for befolkningen, og derfor skal have lov til at bestemme.
•
Thaler og Sunstein (2008): A policy is paternalistic if it tries to inuence choices in a way that will make
choosers better of, as judged by themselves
Så de mener at en politik er paternalistisk, hvis choice arkitekten forsøger at påvirke ens valg i en retning
der gør personen i fokus bedre stillet, vurderet af dem selv.
∗
Svend: Libertarian Paternalism er noget T og S har fundet på for at retfærdiggjorde nudging og
undgå konikter
93
Kritik - Gigerenzer:
Denne artikel af Gigenrenzer indeholder et stærkt angreb på nudging, libertarian paternalism, adfærdsøkonomi samt
Thaler og Sunstein og til dels Kahneman og Tversky. Gigerenzer afviser begrundelsen for at nudgingprogrammet,
om at psykologisk forskning har vist, at menneskets vurderinger ikke er rationelle og at det er ekstremt svært eller
umuligt at undervise folk ud af deres biases.
fallacies og heuristics.
Ifølge Thaler m..
skyldes dette virkninger af framing, base rate
Samtidig påviser Gigerenzer af nudging kan være skadeligt i visse situationer (eksempel
med screening for brystkræft
→
blev fremsat, at jo ere der k scanning, jo mindre havde brystkræft, hvor det
selvfølgelig betyder, at det opdages tidligere, hvis ere får denne screening).
•
Gigerenzer denerer libertarian paternalism som Libertarian paternalisme er et set af interventioner fokuseret
på at overkomme folks kognitive biases, ved at udnytte dem på en måde for at styre deres beslutninger imod
de valg, de selv ville have truet, hvis de var rationelle.
•
Gigerenzer anfører, at den politiske loso bag libertarian paternalism (og nudging) er:
Målet. En choice architect bestemmer hvad der er bedst for folk. Folk selv, er sjældent spurgt, da de jo
mangler rationalitet (se justication)
Udførslen. Et nudge er introduceret for at ændre folks adfærd i en foretrukken retning, uden incitamenter, tvang eller uddannelse
Begrundelsen. For at retfærdiggøre hvorfor regeringer skulle nudge deres borgere i første omgang, i
stedet for at uddanne dem, så trækker libertarian paternalistet på psykologisk forskning, der viser at
folk systematisk mangler rationalitet og deres manglende evne til at lære af deres fejl
•
Gigerenzer henviser til, at Thaler og Sunstein påstår, at individer ikke følger Bayes regel, og derved laver
systematiske fejl. Det sammenfatter i stor udstrækning en del af adfærdsøkonomernes kritik af neoklassikernes
Homo oeconomicus model.
Framing
Allerede Kahneman mente at have vist at framing har eekt og en af de kendte eksempler på en sådan er fremsat
af Thaler og Sunstein, der fortæller at i forbindelse med en læges oplysning til en patient, der skal gennemgå en
hjerteoperation, har det betydning om lægen vælger formen 1 eller 2.
1. Fem år efter operationen er 90% i live
2. Fem år efter operationen er 10% døde
Og her citerer de et psykologisk studium.
Ig. Gigerenzer viser psykologisk forskning, at problemet med ovennævnte er, at der mangler oplysninger, nemlig
om hvad der sker uden operation, og at patienten fortolker framingen 1. eller 2. som et bidrag til en information om
dette. Desuden kan man undgå framingeekten ved at udtrykke hele informationen som 90% af patienterne er i live
og 10% er døde. Hermed kan man ikke bruge et sådant eksempel som en argumentation for at nudging er nødvendig.
Bayes
Udover framing nævner Kahneman og Tversky og med dem Thaler og Sunstein også folks manglende evne til at
anvende sandsynligheder og Bayes regel som et argument for den manglende rationalitet.
Bayes regel der er en
formel for at opdatere sin opfattelse af hvor sandsynlig en hændelse er, anses af psykologer for at være et godt
mål for rationalitet. Samtidig viser en række forsøg dog, som Gigenrenzer og andre psykologer har lavet, at folk i
94
almindelighed har meget lettere ved at ræsonnere med hyppigheder end med sandsynligheder. Gigerenzer afviser
således Kahneman og andres påstand om manglende rationalitet med, at disses eksperimentelle resultater skyldes at
de har framet problemet ved anvendelse af sandsynligheder og ikke ved anvendelse af hyppigheder, som folk forstår.
Heuristics
Thaler og Sunstein hævder endvidere, at agenterne anvender heuristics i stedet for logik og statistik og derfor altid vil
lave fejlslutninger og opføre sig irrationelt. Dette afviser Gigerenzer selvfølgeligt ved at anføre, at langt hovedparten
af alle beslutninger sker under usikkerhed, hvor man hverken kender de mulige udfald eller deres sandsynligheder,
og ikke under risiko, hvor disse ting er kendt. At man således ofte tager fejl, skyldes at man anvender heuristics i
en situation, hvor man ikke kan andet. Desuden lærer man af sine fejl, hvilket Thaler, Sunstein og Kahneman jo
ikke tillader.
Kritik - Cartwright og Hights.
Libertarian paternalism og nudges:
Cartwright og Hight starter med at erklære, at en debat om nudgings moralske status er præmatur, fordi der er
begrebsmæssige problemer, der først skal diskuteres og løses før man kan indgå i en sådan debat.
De mener at Thaler og Sunstein mangle en begrebsmæssig afklaring af hvad det vil sige at være better o as
judged by themselves. Herefter giver de en oversigt over libertarian paternalism og nudges, derefter diskuterer de
hvad det vil sige at være bedre stillet som bedømt af en selv.
C og H følger Dworkin (2017) og denerer paternalisme som the interference of a state or an individual with
another person against their will an defended or motivated by a claim that the person interfered with will be better
of or protected from harm.
Interferences må være bevidst og med hensigt om at ændre agentens præferencer og handlinger.
Thaler og
Sunsteins libertarian paternalism udnytter agenternes systematiske og forudsigelige adfærd til at ændre deres valg
ved at ændre disse valgs arkitektur. Nudges styrer agenterne i en given retning, men tillader dem at gå deres egne
veje. Det er således vigtigt, at man ikke fratager agenterne mulige valg (som kager), og C og H understreger, at
Thaler og Sunstein ivrigt hævder, at de ikke er interesseret i at fortælle folk hvad de skal gøre. Det er dog svært af
forstå, når de forsøger at fremkomme med midlerne til dette.
Better o as judged by themselves:
I den neoklassiske verden hvor agenterne har egenskaber som homo oeconomicus, der har rationelle præferencer
og fuld forudseende hed, er situationen den, at man blot behøver at overlade det til agenterne selv at beslutte, i
hvert fald efter at der er blevet tilstrækkelig informeret og eventuelt rationelt overtalt, dvs. overtalt ved hjælp af
rationelle argumenter. En benevolent diktator vil som en sådan fastlægge den nudge, der efter diktatorens opfattelse vil stille agenten bedst. Det samme vil en leder i et demokratisk system, hvor parlamentet beslutter, hvilke
handlinger der er samfundsmæssig hensigtsmæssige. Hvis nogle agenter opfører sig på en anden måde vil parlamentet forsøge at overtale normbryderne ved rationelle argumenter eller hvis dette ikke hjælper, ved at ændre på
agenternes incitamentsstruktur ved skatter og tilskud evt. ved direkte forbud. Hvis politikerne holder sig indenfor
visse grænser kan et sådant system fungerer viser de historiske erfaringer. Selvom man kan være skeptisk overfor
at private virksomheder også nudger ud fra deres motiver.
Hvis man som Thaler og Sunstein afviser at agenterne er homo oeconomicus, men tværtimod mener at agen-
95
terne ikke opfører sig som denne model forudsiger, og ovenikøbet ikke kan lære, er det selvfølgelig noget sværere.
Ligesom man også kan have indvendinger mod at lade demokratiet bestemme. For Thaler og Sunstein, der begge
er amerikanere, og hvor den første er Chicagoøkonom er dette specielt svært, hvilket utvivlsomt er en af grundene
til at indføre begrebet Better o as judged by themselves.
Men hermed åbner de sig for den kritik som Sugden har fremført, at de på trods af deres kritik af homo oeconomicus alligevel lader agenter have en homo oeconomicus i maven.
•
C og H diskuterer tre situationer:
1. Den første er, hvor A har valget mellem at deltage i pensionsplan med tilskud fra virksomhed (eller stat) eller
ej i 25 års-alderen. A udsættes for en nudge, der skal få ham til at vælge pensionsplanen. Ville han af sig
selv vælge pensionsplanen er nudgen ligegyldig. Vælger han at stå udenfor, men fortryder, når han er 55 år,
er dette ikke et argument for at han ville være bedre stillet ig. ham selv, da han valgte. Det kræver, at han
er den samme person som 25-årig og som 55-årig og det er jo noget specielt adfærdsøkonomer, der taler om
kontekstafhængighed, benægter.
2. En anden sammenligning kan ske ved som 55-årig, at betragte A, som var nudged som 25-årig og valgte en
pensionsplan og A+, den samme A, som var nudged som 25-årig og ikke valgte en pensionsplan.
Men er
A og A+ den samme person ved 55-årsalderen, eller er de forskellige på grund af deres forskellige valg af
pensionsplan. Dvs. en sådan sammenligning kan heller ikke foretages.
3. Den sidste sammenligning er at personen P ved 55 års dagen i overensstemmelse med en standard der er
uafhængig af P, vurderer at han er bedre stillet ved en nudge, der k ham til at vælge en pensionsplan. Men
så er problemet om man så kan sige judged by themselves.
Ud fra disse tre situationer i artiklen om pensionsplaner, mener C og H ikke, at man mange år senere
kan træe beslutningen, da man ikke er den helt samme person længere på trods af, at personen er blevet
udsat for nudging. Man kan således med en ikke ringe ret hævde, at Thaler og Sunstein blot er almindelige
paternalister, der forsøger at skjule dette.
96
Opgave 31.
Diskuter Sandels og Debora Satz synspunkter om markeder.
Først Sandels synspunkter om markeder fra bogen:
•
Michael J. Sandel er en af de skarpeste kritikere af Becker og af Beckers opfattelse om at man kan og bør
markedsgøre mange ere områder end man normalt har antaget.
Sandel argumentere i en række foredrag og bøger for, at der var områder man ikke skulle overlade til
økonomerne. (Sandel (2012))
Sandel syntes økonomi/markeder skal være The study of how men choose to use scarce or limited
productive resources to produce various commodities and to distribute them to various members of
socity for the consumption.
•
Sandel (2012) starter med at nævne en række områder, hvor man nu kan betale for noget, man ikke kunne
tidligere:
Betaling for mere komfortable fængselsceller.
Rugemødre kan købes.
Soldater kan købes.
Stand in til at stå i kø kan købes
Virksomheder og forsikringsselskaber betaler for, at de ansatte taber sig.
Tilladelse til at udlede Co2 kan købes
Og meget mere
•
Sandels argumenter mod markedsgørelsen har fem ikke helt uafhængige ben at stå på.
(argumenter imod
markedsgørelse)
1. For det første er det argumenter baseret på den eksisterende skæve indkomst og formuefordeling.
De rige udnytter de fattige, fx få en hjemløs til at stå i kø
Der er jo ikke nogen tvivl om at en skæv indkomst- og formuefordeling har betydning for et markeds
eektivitet i henseende til at skabe Paretooptimale løsninger, så på det punkt må økonomer have
vanskeligt ved at argumentere imod Sandel, selvom man selvfølgelig, som Becker og Elias, kan
anvende et argument om, at den hjemløse, der står i kø for en anden, bliver bedre stillet ved at
blive betalt for at stå i kø. Men det bygger jo på den forudsætning, at man ikke på anden vis kan
eller bør bringe den hjemløse ud af den situation han er i.
2. For det andet er det argumenter baseret på en påstand om, at en kommercialisering af et produkt ændrer
produktets karakter.
97
Det er også korrekt, at mange studier af Becker og efterfølgerne ofte antager, at markedet ikke
ændrer produktets karakter. En nyre er en nyre. Men her er Sandels argument, at der er noget
der har en særlig status præcis, fordi man ikke kan købe det. Det gælder (rigtige) venskaber og en
Nobelpris.
Repugnance (frastødende markeder) - fx at man kan købe venner er frastødende
3. For det tredje er det argumenter for, at kommercialiseringen formindsker altruismen (=gøre noget godt
for andre) og samfundsfølelsen
Det bliver ikke en samfundsfølelse. Vi vil have et altruistisk (modsat af egoistisk) samfund fordi
det gør at vi står sammen.
Som et eksempel på at betaling kan erstatte, "crowde-out", altruisme og samfundsfølelse, nævner
Sandel et tilfælde beskrevet af Frey og Oberholzer-Gee (1997) vedrørende placeringen af atomaald
i en lille bjergby i Schweiz. Her havde beboerne med et snævert ertal accepteret placeringen, men
da regeringen tilbød, at give indbyggerne en årlig betaling faldt acceptraten til det halve. Årsagen
var formentlig, at man i første omgang havde accepteret, fordi man anså det som en borgerpligt.
4. For det fjerde er der argument for, at incitamenter ikke altid virker, som økonomerne forventer.
Eksempel med kemisk aald på vulkan. Uden incitament ville folk gerne fordi det var en borgerlig
pligt, med incitament har de et valg og siger de gider ikke have penge for det og de gider ikke gøre
det.
At incitamenter virker forskelligt og ikke altid virker kan ikke være nogen overraskelse for en
økonom. Og det er jo i høj grad et spørgsmål, der kræver en empirisk afprøvning (se ovennævnte
eksempel).
5. For det femte er det frastødende og umoralsk, at kommercialisere visse menneskelige forhold.
Repugnance (frastødende markeder)- dværgkast, salg af organer osv.
•
Sandel er udmærket klar over, at selvom der ikke eksisterer et marked for nyrer, ægteskaber, børn osv. er der
en (skygge)pris på sådanne forhold, men han mener, at
skyggeprisen bør holdes i skyggen og ikke blive
"oentliggjort" ved hjælp af et marked.
SKYGGEPRIS: monetær værdi, der er tildelt til i øjeblikket ikke kendelige eller vanskelige at beregne
omkostninger.
Beslutninger, der foretages i en situation med begrænsede ressourcer, har en skyggepris. En pris, der
kan være svær, at estimere medmindre man konstruerer et marked for den begrænsede ressource.
Becker har foreslået på en række områder, at en markedsgørelse af skygge-produkter kan anses af
mange, som en degradering af væsentlige menneskelige forhold > Michael Sandel er enig
Skyggepris: prisen på det sorte marked > Rugemødre ulovlige i dk > Dermed skyggepris den pris
man kunne få for at være rugemor i USA
Info:
98
•
I VM i økonomi kap. 3 afsnit 3 fremstilles diskusionen mellem Becker og Elias på den ene side og og Michael
Sandel på den anden, hvor Becker argumentere for at et marked for organer vil løse den klare mangel på
disse, samt at der dels er et ulovligt marked og dels altid vil være en skyggepris, mens Sandel understreger
det uetiske i at markedsgøre alting og den fare, der altid er for at crowde altruismen ud.
Satz syn på markeder:
•
Når man diskuterer markeder for prostitution, rugemødre osv.
tager økonomien sjældent hensyn til endo-
geniseringen forstået på den måde at varens status ændres. Dette er ikke tilfældet på et marked for æbler,
men gør sig derimod gældende på et marked for organer.
Dette er også et af Sandels argumenter, men spørgsmålet er om det er rigtigt.
∗
En person der redder livet efter at have købt et organ, vil næppe ændre sit syn på organtransplantationer på baggrund af sit køb. (i hvert fald ikke negativt).
∗
Satz har dog svært ved at vurdere betydningen af disse endogene eekter, lige som alle andre i
økonomi.
•
Satz argumenterer for at love om minimumsløn medfører, at arbejdsgiverne får et incitament til at forbedre
arbejdernes kvalitet.
Det vil sige at arbejdsgiveren vil forsøge at få sine ansatte til at levere bedre, ved blandt andet at sikre
at de har det godt.
∗
Det kan både være fysisk og psykisk, da man forventer at ens ansatte leverer bedre, hvis de har
det godt
Satz argumenterer for at arbejdsgiveren går mere op i sine ansatte, hvis der er en minimumsløn, da man
så har mere på spil i form af den højere løn
∗
Modsat vil arbejdsgivere behandle deres ansatte uden mindste løn dårligt, da de altid bare kan
ansætte en anden og måske endda til en lavere løn
•
Satz argumenterer også for at altruismen bliver crowdet out, hvis man laver et marked for fx blod og nyrer
Hvis man pludselig kan få penge for sit blod og sin nyre, hvorfor skulle man så vise storsind overfor
andre i samfundet
Eksempel: Forældre i en børnehave ville få en bøde, hvis de kom for sent til at hente deres børn.
Det endte dog med at ere valgte at komme for sent og betale bøden, da de så ikke længere følte sig
skyldige, når de betalte bøden. Dette eksempel bruger Satz til at vise at altruismen kan undermineres
af markeder.
Hun mener at markeder for blod og nyrer kan også medføre at produktet bliver af lavere kvalitet, da
folk vil have et incitament til at holde helbredsmæssige oplysninger tilbage, så de kan få penge for fx
deres blod.
SH: Argumenterne er dog svage og bygger på små historier.
• Noxious markets:
99
Eksempler er blod diamanter, altså diamanter der er minet i krigszoner og bruges til at nansiere
krigsførslen, derudover børnearbejde og prostitution bla.
∗
Disse markeder scorer altid højt på mindst et af følgende 4 parametre:
1. Weak agents
2. Vulnerable agents
3. Harmfull outcome (food markets in hunger situations)
4. Harmfull inequalities (arbejdsgiver og arbejdstager)
Spørgsmålet er dog om dette altid er korrekt. Svend mener ikke det nødvendigvis altid er korrekt.
∗
Man kan fx kigge på prostitution. Man kunne sagtens forestille sig at den prostituerede hverken er
en svag agent, eller en udsat agent, og at udkommet af prostitution ikke er skadeligt, samt at der
ikke er en skadende ulighed. Alt dette afhænger af den enkelte person. Dog dermed ikke sagt, at
der indenfor fx prostitution ikke vil være situationer der scorer højt på disse parametre, men det
er svært at generalisere til et helt marked
Tredjepartseekter:
∗
Satz argumenterer for at tilladelsen af disse noxious markets kan påvirke tredjeparter.
Fx hvis
prostitution er lovligt, kan det påvirke kønsligheden, da Satz mener at kvindesynet vil blive forværret af lovlig prostitution, hvilket hun mener kan medføre at sex med chefen kan blive en del af
jobbeskrivelsen i andre jobs. - Dette er dog meget langt ude at postulere det, i følge mig selv.
• Ingen opposition mellem stater og marked.
Markedet har brug for regler fastsat af staten.
SH: Hun har helt ret i at at marked kræver en vis form for regulering, og hvis man åbner et nyremarked
i DK, vil det givet være med reguleringer af, hvem kan levere, rådgivning af sælgerne, tilskud til køberne
så de fattige ikke udelukkes, ordentlig information om hvilke problemer man har uden den ene nyre osv.
Svends:
•
Generelt ud fra artiklen omkring Satz, så lyder hun meget fornuftigt, men hun tager ikke rigtig stilling til
skismaet (brudet) mellem et dårligt liv eller død og markedsgørelsen der formentlig vil betyde, at efterspørgselsoverskuddet kan mindskes væsentligt. (fx indenfor nyretransplantationer).
•
Hun har helt ret i at marked kræver en vis form for regulering, og hvis man f.eks. åbner et nyremarked i
DK, vil det givet være med reguleringer af, hvem kan leve, rådgivning af sælgere, tilskud til køberne så de
fattige ikke udelukkes, ordentlig information om hvilke problemer man har uden den ene nyre osv.
•
I det hele taget er mange af Satz argumenter anvendelige i samfund uden ordetlig demokratisk kontrol. Hvorfor
skulle man ikke kunne have et marked for toxic waste, hvis man har strenge regler, der sikrer en forsvarlig
opbevaring, og det samme gælder markeder for uddannelse, børnepasning osv.
•
Og Børnearbejde. Det er klart, at den slags børnearbejde med mange timer i en mine er dårlig, men hvad
med opvask, pasning af får på marken, hjælp til at stakke hø, samle kartoer, hakke roer osv. Nogen den
tidligere generation end min og mange før den er blevet sat til.
100
• For at sammenligne Sandel og Satz så lyder Satz til at være mere åbnet over for markeder end
Sandel, Satz mener at der skal være reguleringer på markederne og ETIK er en ting der skal
tænkes ind meget mere end hvad der er tilfældet nu.
101
Opgave 32.
Diskuter Marx og Piketty med baggrund i Daron Acemoglu og Jame A. Robinson , 2015, The Rise
and Decline of General Laws of Capitalism, Journal of Economic Perspectives 29, p. 328
Kort præsentation af artiklen
Daron Acemoglu og James Robinson kritiserer såvel Karl Marx som Thomas Piketty for at opstille en model for kapitalismen, der hverken levner nogen plads til en systematisk rolle for institutioner og politiske faktorer i dannelse af
samfundets ulighed og heller ikke tager hensyn til at institutionernes og politikkens udformning er endogen bestemt.
Specielt forudså Marx, at reservearméen af arbejdsløse (altså at man ville sørge for at holde en gruppe arbejdsløse,
så man kunne holde lønnen nede) ville holde arbejdslønnen på et subsistensniveau (lavt niveau), og dermed indebar,
at kapitalismen ville forhindre en stadig forbedring af arbejdernes levevilkår. Dette giver den første prædiktion
1. Den generelle lov om kapitalakkumulation:
(a) Svag form: Reallønnen stagnerer under kapitalismen
(b) Stærk form: Arbejdskraftandelen af nationalindkomsten falder under kapitalismen.
2. Den faldende protrate (r > g): Efterhånden som kapital akkumuleres falder protraten; Altså, at realrenten
overstiger vækstraten i økonomien.
3. Den faldende konkurrence (r-g > 0):
Kapitalakkumulation medfører industriel koncentration og mindre
konkurrence
Empirisk undersøgelse af disse forudsigelser, som Marx fremkom med i sidste halvdel af det 19. århundrede viser, at
disse prædiktioner ikke har holdt stik. Så langtfra. Og det forklarer Acemoglu og Robinson med at samtidig med og
som en konsekvens af industrialiseringen skete der en teknologisk udvikling og en ændring af institutioner og politik,
hvor man bekæmpede monopoler, investerede i infrastruktur og lovgivningsmæssige rammer, patentsystemer [SH:
som man dog godt kan mene giver det modsatte resultat]
Går til Piketty:
A og R angriber Piketty for blandt andet at fejlfortolke data. De skriver: Selvom Piketty's data bekræfter ndings
fra den tidligere litteratur, at udbredelsen af ulighed i de sidste årtier, hovedsagligt er drevet af en øget ulighed
i lønindkomsten (på grund af ændringer i udbud og efterspørgsel efter kvalikationer i arbejdskraften), hvorimod
Pikettys bog tegner et dystert billede af at fremtiden bliver domineret af kapitalindkomst, arvede formuer og millardærer. Det teoretiske fundament bygger på et mix af marxisme og Solows vækst model.
Pikettys generelle love:
1. Den første generelle lov: Kapitalens andel af national indkomsten
(a) Problemet med 1.
f.eks.
g
er at såvel
r,
som s og
kan få såvel opsparingskvoten
s
g
=r·
s
g
formentligt er indbyrdes afhængige, således at et fald i
og realrenten
r
til at ændre sig. Men Piketty hævder, at da
substitutionselasticiteten mellem kapital og arbejdskraft er høj vil eksempelvis
følge af et fald i væksten
g.
r
ikke ændres meget som
Men A og R indvender, at empiriske studier viser, at såvel korttids- som
langtidssubstitutionselasticiteten er under 1 dvs. lavere end forudsat af Piketty.
102
2. Den anden generelle lov:
r>g
(a) Dvs. at den reale rente
r
overstiger vækstraten
g.
Dette er ig. litteraturen tilfældet i en økonomi der
er dynamisk ecient og således ikke kan forøge forbruget i alle perioder. Men A og R bemærker at dette
er et empirisk spørgsmål, og at nogle studier viser at det ikke er tilfældet for alle OECD lande.
(b) A og R viser at
r > g
er konsistent med konstant eller faldende ulighed, hvilket modsvarer hvad at
Piketty mener at uligheden i dette tilfælde stiger.
3. Den tredje og
vigtigste generelle lov:
r−g >0
vil medføre øget ulighed
(a) A og R viser i deres appendix at denne lov kun gælder under yderligere forudsætninger.
Herunder
ingen social mobilitet mellem arbejdere og kapitalister - Yderligere forudsættes det at kapitalisterne skal
opspare hele deres indkomst og renten skal være konstant
(b) Pikettys resultat for den tredje generelle lov holder altså ikke. Hvis man ydermere tillader social mobilitet, således at arbejder kan blive kapitalist og en kapitalist kan blive arbejder, så viser A og R at den
tredje lov også bliver modsat, og en mobilitet er et empirisk faktum.
A og R underbygger deres argumenter med en række regressioner, der sætter spørgsmålstegn ved
r − g.
Der er dog
et problem i og med at de nder insignikante koecienter til de variable der er i interesse. Da modelresultaterne
kan være afhængige af den opstillede model, kan de insignifkante resultater skyldes at modellen ikke beskriver data.
Derfor er deres regressionsargumenter ikke super stærke.
Sammenligningen af Sverige og Sydafrika viser også at hvis man som Piketty koncentrerer sig om om de rigeste
1% kan man komme til at begå alvorlige fejl, og ikke forklare væsentlige ulighedsfaktorer som ændringer i Skill og
kravene hertil. Samtidig medfører den interesse for de 1% rigeste at man ikke får fat i de øvrige forklaringer på
ulighed og lighed.
•
Sydafrika:
I stedet for at kigge på top-1% af de rigeste i Sydafrika i 1900-tallet, og tænke uligheden var
faldende på grund af den nedadgående kurve, er det andre faktorer der har spillet ind.
I 1900-tallet var
Sydafrika plaget af høj ulighed blandt sorte og hvide. Det var her apartheid var på sit højeste, der gjorde at
sorte stort set ikke havde rettigheder til at eje land i landet, og skulle arbejde i guldminer og andre mindre
sikre steder.
Her var det i stedet den hvide befolkning der sad på det meste af jorden, og k andre til at
arbejde. I perioden hvor de hvide ejede 93% af jorden i landet, faldt den rigeste top-1% andel dog stødt, og
uligheden steg. (Uligheden falder efter apartheid kollaps).
•
Sverige:
I Sverige skyldes den ændring der er i udviklingen af top-1% rigeste heller ikke udelukkende en
ændring i r og g, men i stedet kan dette meget forklares ud fra, at topskatten i Sverige blev forøget fra 10%
i 1910'erne, til omkring 30% i 1930'erne, hvilken i allerhøjeste grad har været med til at skære meget af de
top-1% rigestes formuer. Desuden prøver Piketty at forklare, at det store fald i kapital i 1900-tallet kommet
fra efterspillet fra 2. verdenskrig, men da Sverige ikke var med i krigene, kan dette ikke forklare udviklingen
der var i Sverige.
A og R argumenterer altså overordnet for at Piketty har begået den samme fejl som Marx begik og undlade at kigge
på politik og institutioner. og
103
Diskussion
Det ville være en vigtig opdagelse indenfor økonomisk teori, hvis ulighed på tværs af lande og politiske
agendaer, kunne forklares ved, at hvis afkastet på kapital var større end raten af økonomisk vækst; nærmere beskrevet
som r>g. Desværre er det ikke altid tilfældet at en enkelt ligning, eller teori, kan forklare den ulighed der har skubbet
adskillige lande mod større ulighed i meget af 1900-tallet. Selvom der, for mange lande, har været høj korrelation
blandt r-g ratioen i løbet af 1900-tallet, betyder det ikke nødvendigvis, at dette er det rigtige mål for, at det
Piketty kommer med et væld af teori og ældre data omkring ulighed,
men som artiklen nævner det, viser Piketty ikke så meget som ét eneste sted der er korrelation
mellem r & g, endvidere at dette skulle påvirke uligheden. Piketty går forkert samme sted, som hans
udelukkende er hvad der er sket.
forgængere når de fremlægger en fundamental økonomisk teori: han glemmer politik, institutioner, teknologi blandt
mange andre facetter, der kan påvirke uligheden.
I sin iver for at modbevise Piketty, virker det som om Acemoglu og Robinson glemmer at forholde sig til
ligningen der ligger til grund for Piketty's teorier. Ligningen r > g, er en ligning der er brugt særdeles meget i den
makroøkonomiske teori, som et måleinstrument for eciens. Det omvendte af teorien, nemlig r < g, vil betyde at
der bliver opsparet for meget i forhold til hvad der ellers ville være ecient, og renten ville nemt kunne sættes op
til minimum r=g.
104
Opgave 33.
Er der et trade-o mellem vækst og indkomstlighed?
•
Der ndes forskellige måder at opgøre ulighed på.
En af dem er ved at kigge på Gini-koecienten.
Gini-
koecienten fortæller noget om uligheden i et land. Hvis Gini-koecienten er nul angiver det en fuldstændig
lige indkomstfordeling i et land, mens en Gini-koecient på 1 angiver en total ulighed.
koecient er steget med over 30% fra 1987 til 2016.
Den danske Gini-
Generelt har tendensen været en stigende ulighed i
Danmark og de este andre vestlige lande i de seneste årtier. En del undersøgelser opfatter ulighed som et
voksende samfundsmæssigt problem. (Fx Piketty)
•
De vigtigste årsager til indkomstulighed skyldes forskel i evner, arbejdsindsats, held og arv. Mens indkomstforskelle som følge af forskelle i arvede formuer skyldes ulige muligheder, vil indkomstforskelle som følge
af forskellig arbejdsindsats være et eksempel på, at folk med lige muligheder har udnyttet disse muligheder
forskelligt.
Spørgsmålet om indkomstlighed handler i høj grad om ideologisk ståsted og etik
Er det retfærdigt at den hårdt arbejdende virksomhedsejer skal beskattes hårdt for sin arbejdsindsats,
mens den dovne unge mand ligger hjemme på sofaen og modtager kontanthjælp.
Er det retfærdigt at man arver sig til rigdom? Og modsat er det retfærdigt at beskatte arv, da det i
forvejen er beskattet gennem indkomstskatten hos den afdøde?
• Men hvad siger økonomerne så om trade-oet mellem økonomisk vækst og lighed?
•
Arthur M. Okun skriver i bogen Equality and Eciency: The Big Tradeo fra 1975 at selvom der er et
trade-o mellem økonomisk vækst og lighed, bør hensynet til menneskelig værdighed alligevel tilsige, at man
holder uligheden i skak med progressive skatter, transfereringer, beskæftigelsesprogrammer, forbedringer af
den enkelts muligheder, eliminering af racemæssige og kønsmæssige forskellige og forbedre muligheder for lån.
•
Dog er der i de senere år sat spørgsmålstegn ved om denne trade-o mellem vækst og indkomstlighed faktisk
eksisterer af f.eks. Benhabib (2003) og OECD (2014).
•
Dan Rodrik (2014) pointerer dog at det er vigtigt at man ikke ender i den anden grøft. Han skriver således:
Det er godt, at økonomer ikke længere betragter trade-oet mellem indkomstlighed og eektivitet som en
jernlov. Vi bør ikke vende fejlen og konkludere, at større indkomstlighed og bedre økonomisk performance
altid går sammen. Der er trods alt kun en universel sandhed i økonomi: It depends.
Han mener altså at selvom der måske ikke eksisterer et tradeo mellem indkomstlighed og vækst, skal
man passe på med at tro at større lighed altid betyder en bedre økonomisk performance og vækst.
•
I Andersen og Maibom (2016) anføres det således om der er et trade-o i mellem vækst og indkomstlighed
afhænger af om man bender sig tæt på den såkaldte mulighedskurve (possibility frontier, dog kan man stille
spørgsmål ved det empiriske grundlag) eller inden for denne. Se gur 3.6
•
Hvis et land eektivt har forfulgt, en vækststrategi med en nogenlunde lige indkomstfordeling, således at
man er tæt på grænsen, punktet A i gur 3.6, så vil man ikke kunne få mere vækst uden at opgive noget
indkomstlighed.
105
Figure 7:
106
•
Er man f.eks i punktet B kan man både få mere vækst og mere indkomstlighed i området under mulighedskurven og over
•
V = v0
og til højre for
1 − G = 1 − g0
Hvis man således korrelerer vækst og lighed i lande af type A, dvs. lande på eller tæt på mulighedskurven vil
man få en negativ korrelation, og anvendes lande af type B, der ligger indenfor mulighedskurven kan man få
en positiv korrelation, og det er selvfølgelig også tilfældet, hvis man blander typerne.
•
Eksistensen af et sådant konkav mulighedsområde er selvfølgelig i sig selv et empirisk spørgsmål, men Andersen
og Maibom (2016) estimerer mulighedskurver baseret på såkaldt stochastic frontier analyses og nder at disse
har en negativ hældning.
•
et etisk problem ved at betale for en
vækst med en stigende ulighed. Og de etiske problemer vokser selvfølgelig, hvis den stigende ulighed også
Men uanset hvilket landetype man tilhører, er der selvfølgelig
indebærer en forværrelse af de dårligst stillede. Et eksempel er når selv mennesker med fuldtidsarbejde må
leve på gaden, som det er tilfældet i f.eks. et af de rigeste samfund i verden, nemlig San Fransisco, så har
samfundet et problem.
•
Atkinson (2015) giver 15 tiltag til at formindske uligheden, her kommer nogle af dem:
Proposal 3: The Government should adopt an explicit target for preventing and reducing unemployment and underpin this ambition by oering guaranteed public employment at the minimum wage to
those who seek it.
∗
Tidligere var det sådan, at man enten havde et fuldtidsjob eller var ubeskæftiget. I dag er det meget
mere almindeligt med varierende arbejdstid, beskæftigelsen og virksomhedstilknytning. Begrebet
arbejdsløs bliver derved vanskeligt at denere.
Målet bør derfor være minimering af ufrivillig
arbejdsløshed, dvs. minimering af den tid, som agenterne gerne ville bruge til at arbejde, men ikke
kan få lov til, til den givne løn.
Proposal 4: There should be a national pay policy, consisting of two elements: a statutory minimum
wage set at a living wage, and a code of practice for pay above the minimum, agreed as part of a
nationalconversation involving the Social and Economic Council.
∗
Mindstelønnen bør sættes på et niveau, der ikke bare afhænger af dens indydelse på beskæftigelsen,
men også af dens inydelse på indkomstfordelingen, og der bør også være et maximumsløn beregnet
som en mutiple af den mindste løn i den enkelte virksomhed. I Schweiz havde man folkeafstemning om et forslag om, at CEOs kun måtte tjene 12 gange så meget, som den dårligste betalte
medarbejder
Proposal 11:
There should be a proportional, or progressive, property tax based on up-to-date
property assessments.
∗
England har en regressiv ejendomsbeskatning, og den foreslås ændret til en proportional eller
progressiv ejendomsskat med hyppige ejendomsevalueringer.
Udover dette anser Atkinson det for meget væsentligt at investere i uddannelse og træning.
Disse
proposal er selvfølgelig nogle der kan skille vandende blandt politikkere og i regeringer, hvilket kan gøre
det svært at få indført, men blot det at en af vor tids bedste og mest fremtrædende økonomer drister sig
til at komme med sådanne forslag viser problemets alvor. Der vil altid være et trade-o mellem vækst
og ulighed så man skal vælge.
107
Opgave 34.
Diskuter forskellen på Beckers forslag og Roths forslag til en formindskelse af overefterspørgslen
efter nyrer til transplantation og inddrag Sandels og Satz synspunkter på organmarkeder.
• Becker foreslår: Lav organdonation til et marked
Fordel: Fjerne næsten alt excess demand.
∗
Dem der er villig til at betale får en nyre.
∗
Det kan give fattige en indtægt
Ulempe: Fattige har ikke råd til det > ulighed i hvem der får lov at leve.
∗
Fattige kan føle sig nødsaget til at donere. Er det etisk forkasteligt?
Incitamenterne er ikke altid som økonomerne forudsiger (eksempel med kemisk aald i Schweiz uden
incitament vs med incitament > uden ville folk gerne fordi de så det som en borgerpligt, med ville de
ikke fordi de følte det som et valg).
Elias og Becker argumenterer for at et marked er meget bedre middel mod overefterspørgsel end et
system baseret på altruistiske personer og kampagner for at få ere donorer.
De opremser en række punkter for hvorfor det ikke vil være forkert med et marked (Rugemødre, lejesoldater, okay indtægtskilde for fattige, man undervurdere ikke risikoen(rygning studie), tror heller ej at
antallet af altruistiske donorer skulle falde)
Øge udbuddet gennem betalinger vil eliminere ventetiden.
•
Eksempel på et marked for organer:
Becker and Elias (2007) er klar fortaler for markedgørelse af organmarkeder.
Det skal gøres legalt så vi kan få udryddet det sorte marked og organerne bliver handlet til fair priser,
som ethvert andet marked. > Dog kan det stadig være svært at sætte en global markedspris for organer,
da der formentligt i mere uciviliserede dele af verden, altid vil eksistere en skyggepris.
Becker og Elias har estimeret et efterspørgsels gap på ca. 7000 transplantation.
Hospitalomkostningerne ved en nyretransplantationer er ca. $160.000 > disse bestemmer reelt efterspørgslen. Vi ser et gap på
Q0 ' − Q0
på nedenstående gur.
Tillader man betaling kan donoreren kompenseres for:
∗
Risiko på død under transplantationer $5000
∗
Mister 4 ugers løn $2700
∗
Nedgang i livskvalitet $7500
∗
Total $175.200.
> Med den nye markedspris vil dette reducere excess demand betydeligt og
potentielt udrydde excess demand.
108
Figure 8:
• Roth foreslår: Lav et byttemarked.
Roth ser en række problemer grundet termet repugnance.
∗
Mange anser det som frastødende at markedsgøre eg. organer.
∗
Han nævner især tre forhold der er problematiske:
Objektivisering, Tvang og samfundsmæssig
glidebane.
Roth foreslår et markedsdesign for at imødegå repugnance (Som han anser som værende en ligeså stor
barriere for udvikling som eg. teknologi), så det ikke får en negativ/begrænset eekt på markedet.
Så hvis jeg mangler en nyre, har en villig donor men vi ikke er et match, kan vi søge efter nogle andre i
samme situation
∗
Fordel: Rette incitamenter (det er som at donere til en slægtning), løser NOGET af excess demand
problemet
·
Muligt problem: Hvad hvis man ikke har en, der kan donere for sig? Får man så aldrig en
nyre?
∗
•
Ulempe: Løser ikke al excess demand problemet > vil stadigvæk være basis for et sort marked.
Hvis man ikke ændrer noget ved det eksisterende system vil dem, der hverken har råd eller har nogle slægtninge,
ikke blive dårligere stillet, da de således aldrig kan få et organ ved Roths system, hvilket de godt kunne før,
da der var en venteliste.
Er det så pareto ecient at skifte til Roths system?
Hvad betyder mest? Fairness eller dem med penge/mulighed får det de vil have (samtidig med at ere
vil få organer, det er bare en skævvridning af HVEM)
109
Riges liv er ikke mere værd end fattige > Bliver det derfor et problem med et marked?
Opvejer de positive eekter af ere organdonationer og at man undgår et sort marked?
∗
Men kan man nogensinde helt undgå et sort markedet?
Eller kommer der blot en ny og lavere
markedspris, samtidig med et nyt sort marked?
•
Konklusion Repugnance af visse markeder fungerer som en begrænsning for udviklingen af disse, samt
en hæmmer for økonomien generelt.
Man kan se på frastødelse af markeder, som hvilket som helst anden
begrænsning for udvikling, såsom en svær teknologisk barriere. De kan sammenlignes på den måde, at det er
et marked vi kan se for os, men muligvis ikke kan opnå.
Spørgsmålene er:
∗
Hvilke løsninger er mulige og ønskelige, hvordan kommer vi dertil, hvad er tidshorisonten, med
hvilke omkostninger og til hvem samt hvad skal der sket i mellemtiden?
Et markedet for salg af organer er og vil fortsat være en gråzone. Der vil altid være to modsatrettede
argumenter i sagen. Chancen for udnyttelse af de mest ressourcesvage i samfundet samt de resterende
etiske perspektiver versus muligheden for at redde ere menneskeliv. Spørgsmålet er hvad der vægtes
højest?
Sandel:
•
Sandels argumenter mod markedsafgørelsen har fem ikke helt uafhængige ben at stå på:
1. Argumenter baseret på den eksisterende skæve
indkomst og formuefordeling.
(a) Der er jo ikke nogen tvivl om at en skæv indkomst- og formuefordeling har betydning for et markeds
eektivitet i henseende til at skabe Paretooptimale løsninger, så på det punkt må konomer have vanskeligt ved at argumentere imod Sandel, selvom man selvfølgelig, som Becker og Elias ovenfor, kan anvende
et argument om, at den hjemløse, der står i kø for en anden, bliver bedre stillet ved at blive betalt for
at stå i kø. Men det bygger jo på den forudsætning, at man ikke på anden vis kan eller bør bringe den
hjemløse ud af den situation han er i.
(b) I dette tilfælde kan man snakke om, at fattige måske føler sig tvunget til at sælge deres nyre for at
'overleve' eller få mad på bordet.
2. Argumenter baseret på en påstand om, at en
kommercialisering af et produkt ændrer produktets karakter.
(a) Det er også korrekt, at mange studier af Becker og efterfølgerne ofte antager, at markedet ikke ændrer
produktets karakter. En nyre er en nyre. Men her er Sandels argument, at der er noget der
har en særlig status præcis, fordi man ikke kan købe det. Det gælder (rigtige) venskaber og
en Nobelpris. Det er måske nok rigtigt, at man ikke kan købe rigtige venskaber, men at falske venner
falder fra, når formuen forsvinder. Men har nogen opdaget, at de ikke var sande venenr før det sker?
Mht. Nobelprisen er det selvfølgelig også rigtigt, at man ikke kan købe en Nobelpris. Der er dog ikke
nogen tvivl om, at forskningsteams der har en rig onkel, universitet, medicicalrma eller anden sponsor
bag sig har en større sandsynlighed for at høste en Nobelpris end mindre heldige teams. (Bitter Svend
over AU funding?).
110
(b) Vil man pludselig bare anse en nyre som et hvilket som helst andet produkt? - Måske bliver det helt
mainstream at sælge sin nyre for fx unge mennesker for at nansiere deres ungdom?
3. Argumenter for, at kommercialiseringen
formindsker altruismen og samfundsfølelsen.
(a) Hvis man pludselig kan få penge for at sælge sin nyre, fremfor at donere sin nyre, vil ere nok vælge at
sælge den i stedet for. Det mindsker altruismen!
4. Argument for, at incitamenter ikke altid virker, som økonomerne forventer.
(a) At incitamenter virker forskelligt og ikke altid virker kan ikke være nogen overraskelse for en økonom.
Og det er jo i høj grad et spørgsmål, der kræver en empirisk afprøvning. Sandel er udemærket klar over,
at selvom der ikke eksisterer et
marked for nyrer, ægteskaber, børn osv. er der en (skygge)pris på
sådanne forhold, men han mener, at skyggeprisen bør holdes i skyggen og ikke blive oentliggjort ved
hjælp af et marked.
5. For det femte er det frastødende og umoralsk, at kommercialiserer visse menneskelige forhold.
(a) Sandel vil helt sikkert argumentere for at det er umenneskeligt at kommercialisere nyretransplantationer.
Debra Satz
Debra Satz bliver spurgt ind til markedet for nyrer. Hertil siger hun, at hvis man lukker markedet for nyrer, kan
det føre til mere frihed for mennesker overordnet set, selvom man har lukket for lige denne form for frihed. Hendes
kommentar liger Titmuss' argument omkring markedet for bloddonation. Titmuss påpeger, at der vil være mindre
frivillig bloddonation og blodt vil doneres vil have en dårligere blodkvalitet, da folk vil have ere incitamenter til at
skjule eventuelle sygdomme. Titmuss havde ingen mekanismer til at bevise, hvorfor hans resultater ville holde. Der
er nu en del mere support, som støtter op om, at man ved at tilføje endnu en mulighed vil gøre de andre muligheder
mindre tilgængeligt.
Konklusion: Satz er enig i Sandel på det punkt, at et marked for nyrer fortrænger altruismen. Derudover er der et
kvalitetsproblem og problematikken om ufrivillig donation (mad på bordet for fattigere).
111
Opgave 35.
Diskuter udviklingen i indkomst- og formuefordelingen i Danmark og verden og inddrag John
Cochrane og Michael Roberts synspunkter på evt. løsninger.
Udviklingen i indkomst- og formuefordeling for Danmark og resten af verdenen:
•
I bogen så vi at indkomstuligheden har været kraftigt stigende både i USA og DK de sidste 30 år.
Ginikoecienten er steget ca 30% for begge lande, hvor den amerikanske i forvejen dog er ca. 50% større
end den danske, hvilket indikerer en meget større ulighed i USA end i DK.
•
I forhold til formuefordelingen så man at den var blevet markant skævere i USA over de sidste 30-40 år. I
USA udgør formuen fra de 10% rigeste 73% af den samlede formue
•
Det samme billede gør sig dog gældende i DK, hvor de 10% rigeste ejer 69% af den samlede formue
Det er dog vigtigt at pointere at formuer i kollektive pensionsfonde ikke er medtaget i DK, derfor skal
man tage disse tal med et vidst forbehold.
John Cochranes synspunkt:
•
Kort om Cochrane:
John Cochrane er en amerikansk økonom med speciale inden for nansiering samt
makroøkonomi. Han er tidligere professor ved University of Chicago, og er idag Rose-Marie and Jack Anderson
Senior Fellow ved Hoover Institution ved Stanford University.
•
I artiklen sætter Cochrane spørgsmålstegn ved, hvorvidt økonomisk ulighed for det første er et problem og
for det andet, hvorvidt der ndes en løsning herpå. Venstreøjen i USA mener at ulighed er et reelt problem
og at løsningen herpå er økonomisk omfordeling gennem indkomst- og kapitalskatter.
•
Cochrane sætter sig dog kritisk overfor omfordeling ved at benytte argumentationsteknikker som stråmænd
og analogier.
Eksempelvis argumenterer han for, at der meget simpelt ikke er penge nok til en global real omfordeling
- derfor er omfordeling ikke en løsning i Cochranes øjemed.
•
Derudover skildrer Cochrane, at økonomisk ulighed har fået pedistalplacering i økonomisk forskning.
Han mener ikke, at ulighed er roden til de problemer, som hans opponenter skitserer.
Derved foreslår han altså et mere nuanceret syn på problematikkerne, ulighed bringer med sig: Fever
is a problem. So medicine shall consist of reducing fevers.
Cochrane argumenterer for at selvom the 1 percent bliver rigere og at uligheden i samfundet stiger,
så sker det på baggrund af at personer som Steve Jobs og lignende skabte deres formuer ved at tage en
tusindedel af det consumer surplus de har skabt.
112
•
Samtidig argumenterer Cochrane for at en anden årsag til den stigende ulighed er stigningen i returns to skill,
som især skyldes dårlige folkeskoler, lærernes fagforeninger og begrænsninger på højtuddannede immigranter.
Han mener dog ikke at mere uddannelse i sig selv er ubetinget godt, hvis befolkningen foretager de forkerte
Han mener altså at der skal være et incitament til at vælge at læse til f.eks.
computerprogrammør frem for at læse kunsthistorie og at dette incitament forsvinder hvis man
indfører gratis uddannelse. På denne måde vil det sågar føre til endnu højere skill premiums.
uddannelsesvalg.
•
Cochrane peger på, at ulighed omhandler mere end de tal, der indrapporteres til skattemyndighederne. Han
pointerer at forbrug er meget mere ligeligt fordelt/atter end indkomst/formue, samt at de rigeste i befolkningen for det meste reinvesterer eller giver væk af deres formue. Han har svært ved at se, hvordan dette
skulle kunne betragtes som værende et problem.
•
Cochrane argumenterer for at større skatter på indkomst og formue ikke løser sociale problemer, hvilket er
korrekt. - Men hvis pengene nu bruges fornuftigt, ville det måske kunne løse nogle af problemerne.
•
Cochrane argumenterer for at de super-rige har gjort sig fortjent til deres rigdom. Den rigdom har de fået
fordi de har været bedre end andre og nogle gange mere heldige end andre. De riges rigdom er ikke kommet
på baggrund af nepotisme og lobbyisme.
•
Cochrane mener at den måde man får løst uligheden i samfundet på, er ved at give de fattige mere uddannelse
og ikke beskatte de rige yderligere.
Cochrane mener dog samtidig ikke at man skal sørge for at give folk mulighed for frit at uddanne sig
ved f.eks. at tilbyde gratis uddannelse, fordi det vil ende ud i at folk vil uddanne sig til ubrugelige ting
som kunsthistorikere, fremfor nyttige positioner i det kapitalistiske samfund som f.eks. økonomer.
Derudover mener han at den uddannelse der skal tilbydes skal tilbydes til en bestemt del af samfundet,
han mener har størst chance for at gøre brug af uddannelsen, det indebærer f.eks.
ikke kriminelle,
narkomaner og enlige mødre.
∗ Min holdning:
Det er et kæmpe problem, da man så risikerer at de aldrig nogensinde kommer
videre. Mange ville i disse sårbare situationer måske også udnytte tilbudet om uddannelse til at
komme ud af problemer og starte en fornuftig tilværelse. - Uden en uddannelse kan man frygte, at
man forbliver i de dårlige miljøer.
Det er et generelt argument fra Cochrane at man skal sørge for at give økonomiske incitamenter til dem
der allerede er rige nok til at det kan svare sig for dem at f.eks. arbejde mere, hvor økonomisk bistand
som f.eks. gratis uddannelse og sundhedspleje er spildt på fattige mennesker. Cochrane argumenterer
også for at de rige giver ere penge tilbage til samfundet, så derfor sørger de rige også at give til dem
der er fattige, hvilket yderligere kan forsvare hvorfor det ikke er nødvendigt at hæve indkomstskatten.
(Lidt voldsomt)
Michael Roberts synspunkt:
•
Kort om Roberts: Michael Roberts er en engelsk marxistisk økonom og forfatter, der har skrevet en række
bøger om kapitalisme fra en marxistisk synsvinkel.
•
I Michael Roberts blogindlæg The Waltons, John Cochrane and the road to serfdom præsenterer han forskellige rapporter, der kaster lys på uligheden i verden i dag.
Samtidig introduceres keynesianernes, samt de
neoklassiske økonomers syn på ulighed, inden han præsenterer sit eget synspunkt på uligheden.
113
En af de rapporter Roberts fremhæver er en rapport fra Oxfam International (Oxfam International er
en organisation der forsøger at bekæmpe fattigdom og ulighed internationalt), der har fundet at de 85
rigeste personer i verden, har en lige så stor kombineret formue som de 3,6 milliarder fattigste.
En anden rapport Roberts fremhæver er lavet af OECD. OECD skriver i deres rapport at uligheden er
tilbage på det niveau fra 1820. De konkluderer at det er fra 1980'erne at uligheden igen er steget og
det er sket fordi globaliseringen, tog sit indtog i den periode. Under nanskrisen var det bolig boblens
brist der mest påvirkede den gennemsnitlige husstand i USA, hvorimod de rigeste 400 blev påvirket af
de faldende aktiekurser.
I forløbet efter nanskrisen falder rigdommen for den gennemsnitlige husstand med yderligere 2% (20102013), hvorimod de rigeste 400 bliver hele 45% rigere.
Dette skyldes bl.a den store stigning som ak-
tiekurserne havde efter nanskrisen.
Den gennemsnitlige husstand er siden 1992 ikke blevet rigere, da de i reale termer har samme mængde
rigdom.
Forbes 400 rigeste har en rigdom på hele 2,1 trillioner dollars hvilket svarer til 60% af den
nederste del af amerikanske familiers rigdom.
•
Roberts er ikke enig i Cochranes argumenter, først og fremmest pointerer han at den eneste grund til at de
rige giver tilbage til de fattige er fordi de kan få et skattemæssigt fradrag eller fordi de vil støtte ting som de
godt kan lide, som f.eks. universiteter hvor de selv studerede.
•
Roberts argumenterer også imod Cochranes argument om at det er ikke et problem at uligheden stiger så
længe at alle samfundsklasser bliver rigere, et problem hertil er også ifølge Roberts at grådigheden fra banker
og investeringsfonde rammer også de fattige, bl.a. så man det under nanskrisen, hvor det gik ud over de
fattige også, hvor de havde lånt penge de ikke kunne betale tilbage, når husmarkedet kollapsede og deres huse
ikke længere var det værd som der var forventet.
•
Cochrane mener ikke at man skal være bange for at de fattige går imod de rige. Han kommer med et eksempel
om en Thomas Jeersons farm hvor at uligheden var ret stor, men her var det Jeerson selv der startede en
revolution imod uligheden, og ikke slaverne i sig selv. Han mener derfor at de fattige aldrig har prøvet at
overstyre de rige.
•
Roberts mener dog ikke dette er rigtigt og kommer med eksempler som den franske revolution og bøndernes
oprør i det 1381 England. Han er dog enig i, og stiller spørgsmålstegn til Walton, for hvis Walton ikke har
noget at frygte fra de fattige, hvorfor prøver de så at stoppe protester osv. Roberts konkludere at de rige er
mere bekymrede end Cochrane mener.
Opsummering på løsningsforslag:
•
I forhold til Cochrane er en løsning i forhold til DK det her med at man decideret skal vælge de lukrative
uddannelser da disse giver de bedst betalte jobs og ikke er ligegyldige. Da DK er et forholdsvist rigt land i
forhold til gennemsnittet i USA hvilket kan ses på indkomstuligheden samt vi i DK har gratis (endda betalt)
uddannelse så vil man ifølge ham altså muligvis kunne formindre uligheden. Som Cochrane hentyder til, så
skal man ikke tage ere penge fra de rige men decideret sørge for at de fattige bliver vejledt i en anden retning
i forhold til de valg de tager. Grundet de midler vi har tilgængelige i DK i forhold til USA så vil det være
nemmere at snævre indkomstuligheden i DK fremfor i USA.
•
I forhold til Roberts argumenter om at man skal beskatte de rige mere så de vil have mindre penge til overs
efter skat, så vil det betyde at indkomstuligheden efter skat selvfølgelig vil mindskes. Men igen så gør dette
ikke decideret noget ved dem med lav indkomst da de hverken får ere penge eller bliver beskattet mindre.
114
Roberts argumenterer også for at planøkonomi er vejen frem, da man så kan planlægge ud fra ens behov
og ikke ud fra tanken om prot, hvilket han mener er det bedste incitament for alle.
∗
Problemet er bare at planøkonomi aldrig har været en succes, tanken er smuk, men i praksis kan
det bare ikke fungere.
• Min holdning:
Roberts og Cochrane er to modpoler i denne diskussion. Det optimale vil nok være et punkt i mellem
de to, hvor man sørger for at uligheden ikke bliver for ekstrem, hvilket for eksempel kan løses med progressive beskatninger, højere skatter på gevinster på boliger osv. I mange samfund vil bedre uddannelse
også gøre meget ved problemet.
Det gør sig især gældende i for eksempel USA, hvor der er en høj
grad af brugerbetaling, hvilket må tænkes at holde mange tilbage fra at studere på universitet.
Det
bliver selvfølgelig en ond spiral af negativ socialarv, fordi man ikke kan bevæge sig ud af sine forældres
samfundslag.
Andre argumenter: Arveskat? > Nedbringer uligheden af formuefordelingen, men er det etisk i orden
at dobbeltbeskatte arv?
- Jeg synes ikke, men hvis alternativet er højere skat på arbejde, så vil jeg
hellere beskatte arv.
115
Download