Artikel: Richtlinie für umfragebasierte monetäre Bewertungsstudien von Johnston et al. (2017)

Ulrich Morawetz

Zwei weit verbreitete Methoden zur monetären Bewertung von öffentlichen Gütern sind die Contingent Valuation (CV) Method  und Discrete Choice Experimente (DCE). Bewertet werden könnte etwa der Wert der (Wieder)Ansiedelung einer Tierart oder der Wert einer (Nicht)Veränderung in der Landschaft. Beide Methoden basieren auf Umfragen. In der CV Methode wird den Befragten ein Projekt für die Bereitstellung eines öffentlichen Guts und dessen Kosten beschrieben. Anschließend werden sie gefragt ob sie in einem Referendum für das Projekt stimmen würde. Bei DCE werden mehrere Projekt und deren Kosten beschrieben und anschießend müssen die Befragten entscheiden welches der Projekte sie bevorzugen. Derartige umfragebasierten Bewertungsmethoden sind notwendig, wenn Beobachtungsdaten zum Verhalten von Betroffenen nicht vorliegen aber trotzdem monetäre Werte eines öffentlichen Gut erforderlich / gewünscht sind.

Umfragebasierte Bewertungsmethoden werden wegen ihres hypothetischen Charakters seit Jahrzehnten kontroversiell diskutiert (Hausman 2012). Ungeachtet dessen werden darauf basierended Ergebnisse nach wie vor prominent publiziert (etwa zur Bewertung des Schadens durch den Deepwater Horizon Unfall in Science (Bishop et al. 2017)). Im Jahr 1993 wurde der einflussreiche Bericht des NOAA (National Oceanic and Atmospheric Administration) Panel Report als Richtline zur Anwendung von CV Umfragen veröffentlicht (Arrow et al. 1993). Seitdem wurden tausende CV und DCE durchgeführt und die Methoden in unzähligen Analysen weiterentwickelt. Basierend auf Peer-Reviewten Artikeln haben zwölf prominente Autoren und Autorinnen eine überarbeitete Richtline für die Anwendung von CV und DCE in der in einem führenden umweltökonomischen Journal (JAERE) veröffentlicht (Johnston et al. 2017).

Sie geben 23 Empfehlungen für die Durchführung von CV und DCE und gliedern diese in fünf Untergruppen:

  • Survey development and implementation
  • Value elicitation
  • Data analysis
  • Validity assessment
  • Study reporting

Die 23 Empfehlungen sind vorsichtig formuliert um möglichst allgemein gültig zu sein. Man kann sich vorstellen, wie die Autoren und Autorinnen jedes einzelne Wort auf die Waagschale gelegt haben. Vorgaben wie man eine Bewertungsstudie durchführen muss, findet man nicht. Der Fokus der Empfehlungen liegt mehr darauf was alles beachtetet werden sollte. Wertvoll sind meiner Meinung vor allem die Zusammenfassungen der Literatur, die den 23 Empfehlungen jeweils zugrunde liegen.

Empfehlung 8 lautet etwa: "Incentive-compatible response formats are preferred for the valuation of public goods. ...".  Erst in der Diskussion der Literatur, die zu dieser Empfehlung führt, erfährt man, dass das weit verbreitete "Double-Bounded" Format nicht Anreiz-kompatibel ist, das einfachere "Single-Bounded" Format hingegen schon. Anreizkompatibilität war 1993 im NOOA Report noch kein Thema und findet auch erst seit ganz kurzem Eingang in Umweltökonmische Lehrbücher (Phaneuf and Requate 2017, Seite 592).

Bemerkenswert ist auch die Empfehlung 3. Die Autoren und Autorinnen argumentieren, dass die komplexeren DCE nicht notwendiger Weise der einfacheren CV Methode vorzuziehen sind. Es hängt vielmehr davon ab, ob das zu bewertende öffentliche Gut als ein unteilbares ganzes wahrgenommen wird (dann ist CV zu bevorzugen) oder auch in einzelne Aspekte aufgeteilt werden kann (dann kann man von den Vorteilen der differenzierten Analyse mit DCE profitieren). Gegeben die starke Ablehnung der CV Methode von manchen Ökonomen und Ökonominnen (siehe z.B. Hausman im Journal of Economic Perspectives (2012)) ist dies eine bemerkenswerte Empfehlung.

Der Artikel geht nicht der Frage nach, ob CV und DCE überhaupt eine Berechtigung haben, sondern fasst die Erkenntnisse der Literatur zusammen, wie CV und DCE durchgeführt werden können um möglichst realistische Ergebnisse zu erhalten. Möchte man eine Bewertungsstudie verfassen, ist der Artikel eine wertvolle Ressource, um herauszufinden welche aktuellen Erkenntnisse es im Bereich der CV und DCE gibt.

Im Folgenden ist eine von mir übersetzte Zusammenfassung der 23 Empfehlungen. Mein Tipp ist, zusätzlich den Text im Originalartikel zu lesen, da ich sie teilweise stark gekürzt habe, um einen Überblick zu geben. Die Differenziertheit der Empfehlungen hat unter diesen Kürzungen gelitten.

  1. Beschreibung der Ist-Situation und der Veränderung: Sowohl die Ausgangslage (z.B. der derzeitige Zustand der Umwelt) als auch die Veränderung (z.B. das zu bewertende Projekt) sollen so beschrieben werden, dass klar ist, was bewertet wird, wie die Veränderung durchgeführt wird, und was die Konsequenzen für wen sind.
  2. Vorerhebungen: Ausführliche qualitative Vorerhebungen in Fokusgruppen und mit kognitiven Interviews in verschiedenen Kontexten sind sehr empfehlenswert. Ebenso quantitative Vorerhebungen und die Überprüfung der Qualität, der in der Vorerhebung gesammelten Daten.
  3. CV vs. DCE: Entspricht die vorgeschlagene Veränderung (z.B. das Projekt) in der Wahrnehmung der Befragten und in den Auswirkung eher einer unteilbaren Veränderung, ist CV vorzuziehen. Entspricht sie eher der Summe von Einzelaspekten, geben DCE mehr Flexibilität.
  4. Experimentelles Design: Effiziente und unverzerrte Designs der Bewertungsfrage(n) erfordern, dass alle Attribute und Interaktionstermine der Projekt(e) und auch die kognitiven Möglichkeiten der Antwortenden berücksichtigt werden.
  5. Ethik: Umfragen sollten vor der Verwendung auf datenschutzrechtliche und ethische Aspekte kontrolliert werden.
  6. Persönlich, telefonisch, postalisch und online Stichprobendesigns: Welcher Befragungsmodus der beste ist, ist kontextspezifisch. Telefonbefragungen sind weniger geeignet, komplexe Sachverhalte zu vermitteln. Ein explizites Stichprobendesign (basierend auf der Grundgesamtheit der Bevölkerung die von dem Projekt betroffen ist) ist vorteilhaft, um Verzerrungen durch Nicht-Beantwortungen zu reduzieren.
  7. Zahlungsbereitschaft (WTP) vs. Bereitschaft zu Akzeptieren (WTA): Die Wahl zwischen WTP und WTA wird oft durch die Forschungsfrage bestimmt. Meistens ist WTP einfacher empirisch umzusetzen. In manchen Fällen ist jedoch WTA die adäquate Fragestellung (wenn z.B. eine Steuerreduktion als Kompensation für mehr Umweltbelastung zur Diskussion steht).
  8. Frageformat: Das Frageformat (z.B. offene Frage, payment card, single-bounded, double-bounded, binary or mulitple choice in DCEs) soll einen Anreiz bieten, die wahre Antwort zu geben (z.B. CV: bei einer klassischen offenen Frage nach der Zahlungsbereitschaft ist die Anreizkompatibilität nicht gegeben, bei einer single-bounded Referendum-Frage hingegen schon).
  9. Nein-Antworten: Es ist nicht notwendig, dass die Befragung eine „nein“-Option beinhaltet die sich vom Status-Quo unterscheidet (i.e. es reicht wenn die Status-quo-Option in DCE gegeben ist).
  10. Von der individuellen Antwort zur Entscheidung über die Projektdurchführung: Die Fragestellung sollte im Kontext eines Referendums gestellt werden, wenn dies von den Befragten als realistische Möglichkeit wahrgenommen wird.
  11. Zahlungsform: Die Zahlungsform (z.B. Steuer, Gebühr, Preis) sollte realistisch, gebräuchlich und glaubwürdig und für alle verbindlich Teilnehmenden sein.
  12. Ergänzungsfragen: Ergänzungsfragen können helfen, die Gültigkeit der Befragung zu erhöhen und diese zu evaluieren.
  13. Ex-Ante Prozeduren: Cheap-talk, Ehrlichkeits-Schwur und andere Prozeduren werden empfohlen, wenn sich die Antwortenden dadurch mehr der Wahrheit verpflichtet fühlen.
  14. Ökonometrische Analyse: Kein bestimmtes ökonometrisches Modell wird empfohlen, die Wahl hängt von den Daten, Hypothesen und der Verwendung der Ergebnisse ab.
  15. Heterogenität der Präferenzen: Beobachtete und unbeobachtete Heterogenität sollte in der ökonometrischen Analyse nach besten Möglichkeiten berücksichtigt werden bzw. bei der Beurteilung der Verwendbarkeit der Ergebnisse Berücksichtigung finden.
  16. Einfache vs. komplexe Modelle: Sowohl möglichst einfache (aber trotzdem den Grundannahmen entsprechende) als auch komplexe Modelle (die stärkere Annahmen brauchen) sollten Teil einer umfassenden Bewertungsstudie sein.
  17. Anomalien in den Antworten: Wenn das Antwortverhalten nicht den Erwartungen entspricht (z.B. Protestantworten, Ausreißer) sollte untersucht werden ob die Ergebnisse systematisch beeinflusst werden. Anomalien in den Antworten können ein Hinweis darauf sein, dass die beschrieben Szenarios nicht den Erwartungen der Befragten entsprechen.
  18. Schätzung der Wohlfahrtsveränderung: Die geschätzten Wohlfahrtsveränderungen sollten zumindest Mittelwert und Varianz beinhalten und die zugrundeliegenden ökonomischen und statistischen Annahmen sollten offengelegt werden.
  19. Verwendung von Debriefing und Follow-up-Fragen: Die Verwendung solcher Frageelemente soll mit ökonomisch, umfragedesignbezogen, und ökonometrisch begründet werden. Bei Verwendung als unabhängige Variablen in ökonometrischen Schätzungen sollte der möglichen Endogenität dieser Variablen Aufmerksamkeit geschenkt werden.
  20. Repräsentativität der Stichprobe: Studien die aggregierte Wohlfahrtseffekte schätzen, sollten die Repräsentativität der Stichprobe dokumentieren. Auf jeden Fall sollten das Stichprobendesign und die Charakteristika der Befragten dokumentiert werden.
  21. Interne Validitätstests: Bewertungsstudien sollten formale Tests zur internen Validität dokumentieren (z.B. Skalen-Tests, Verbindlichkeit der Fragen, Plausiblität der Szenarien).
  22. Wichtigkeit des Validitätstests: Die Evidenz für interne Validität durch einzelner Tests darf nicht als Validität der Studie missverstanden werden. Die Validität muss umfassend auf Basis von studien-spezifischen Überlegungen und weiterführender Literatur evaluiert werden.
  23. Dokumentation: Alle Studien sollten das Studiendesign, Umsetzung, Analyse und Resultate dokumentieren und zugänglich machen.

Literatur:

 

Arrow KJ, Slow R, Portney PR, et al (1993) Report of the NOAA panel on contingent valuation. US Federal Register 58:4601–4614.

Bishop RC, Boyle KJ, Carson RT, et al (2017) Putting a value on injuries to natural assets: The BP oil spill. Science 356:253–254. doi: 10.1126/science.aam8124

Hausman J (2012) Contingent Valuation: From Dubious to Hopeless. Journal of Economic Perspectives 26:43–56. doi: 10.1257/jep.26.4.43

Johnston RJ, Boyle KJ, Adamowicz W (Vic), et al (2017) Contemporary Guidance for Stated Preference Studies. Journal of the Association of Environmental and Resource Economists 4:319–405. doi: 10.1086/691697

Phaneuf DJ, Requate T (2017) A course in environmental economics: theory, policy, and practice, 1st Edition. Cambridge University Press, Cambridge, UK

 

Die Kommentarfunktion ist für diesen Artikel deaktiviert.

0 Kommentare