- -
- 100%
- +
Aus zwei Gründen, die beide für die Kritik der Neoklassik relevant sind, mag sich diese Stärke freilich als Schwäche entpuppen. Zum einen liegt in dieser integrativen Theorie die Gefahr einer Trivialisierung im Sinne einer empirischen Entleerung. Wir werden dies später in der Diskussion des Präferenzbegriffs genauer sehen (↓ 3.1.2, S. 54). Zum anderen unterbindet dieser Ansatz jede Möglichkeit, zwischen ökonomischem und anderem, nicht-ökonomischem Wert zu unterscheiden. Jede Form von Wert wird in der Mechanik des individualistischen Reduktionismus in eine subjektive Wertschätzung übersetzt, die – nach dem soeben dargelegten – in die subjektive Gesamteinstellung integriert wird, welche schließlich den ökonomischen Wert ausmacht. John Bellamy Foster vergleicht die Ökonomie mit der mythischen Gestalt des törichten Königs Midas, der sich vom Gott Dionysos ausbedang, dass alles, was er berühre, zu Gold würde – woraufhin er zu verhungern drohte. Ebenso könnten auch die Ökonomen nur schätzen, was ›zu Gold wird‹, nämlich in ökonomischen Wert übersetzt wird und sich in Geld messen lässt.22 Kritiker der Neoklassik zitieren an dieser Stelle gerne die Definition des Zynikers, welche Oscar Wilde 1892 der Figur des Lord Darlington in seinem Drama Lady Windermeres Fächer in den Mund legte:23
Cecil Graham: Was ist ein Zyniker?
Lord Darlington: Ein Mensch, der von allem und jedem nur den Preis kennt und nicht den Wert.
Leider vergessen es dieselben Kritiker, Cecils schlagfertige Antwort zu zitieren:
Cecil Graham: Und ein Romantiker, mein lieber Darlington, ist ein Mensch, der allem einen übertriebenen Wert beimißt, ohne sich je nach dem gängigen Preis für irgend etwas zu erkundigen.
Tatsächlich ist erst mit diesem Begriffspaar von Zyniker und Romantiker (cynic und sentimentalist) das Spannungsverhältnis hergestellt, in welchem sich die Diskussion um die Neoklassik in Wirklichkeit bewegt. Besonders deutlich wird sich dies in der Diskussion um die Bewertung von unbezahlter Arbeit und von Ökosystemen niederschlagen, wo die Gefahr des Sentimentalen in der Kritik des Zynischen überall mit den Händen zu greifen ist (↓ 4.3, S. 113, und 5.2, S. 138). Diese Spannung ist um so wichtiger zu registrieren, als wir sie nicht werden auflösen können.
2.2.4 Interaktion: der Markt
Spannend wird es eigentlich erst, wenn mindestens zwei der so bestimmten homines œconomici aufeinandertreffen und ein System wechselwirkender Teile bilden. Was wird nun passieren? Gemäß der methodologischen Prämisse muss dies allein aus den dürftigen Spezifizierungen des Rationalitätsaxioms vorhersagbar sein, wie sich auch die Gestalt des Sonnensystems aus den Eigenschaften der rotierenden Massen ableiten lässt.
Verfügen beide Akteure über eine gegebene Güterausstattung, so werden sie sehen, ob sie nicht ihr jeweiliges Wohlergehen durch entsprechend arrangierten Tausch verbessern können. Sie werden dies so lange verfolgen, bis eine Situation erreicht ist, in welcher sich keiner der Akteure mehr verbessern kann, ohne dass sich ein anderer verschlechtert. Denn so lange diese Situation nicht erreicht ist, gibt es Anreize für alle, zu tauschen, und sobald diese Situation erreicht ist, wird derjenige, der sich verschlechtern würde, den Tausch, der auf gegenseitigem Einverständnis beruhen muss, verweigern. Es ist eine Gleichgewichtssituation erreicht, so wie auch die Planeten schließlich stabile Umlaufbahnen erlangen. Das Gleichgewichtskriterium, dass sich niemand verbessern kann, ohne dass sich ein anderer verschlechtern würde, wird als Pareto-Optimum bezeichnet.
Gleichgewicht bedeutet in diesem Zusammenhang wohlgemerkt nur, dass bestimmte Variablen einen konstanten Wert angenommen haben, nicht aber, dass das System stillsteht. Die Güter werden in der Regel ja verzehrt und stetig durch neue ersetzt. Im beschriebenen Optimum ist die Distribution der Güterarten über die Individuen lediglich eine konstante, aber die Güter fließen, wenngleich in fixierter Proportion. Auch bedeutet Optimum nicht, dass die Akteure nun zufrieden sind – der homo œconomicus ist prinzipiell nie zufrieden. Er befindet sich im Optimum lediglich in einer Situation, in welcher er sich nicht mehr kraft freien Tauschs verbessern kann. Gleiches gilt auch für jedes mechanische System: Stabilität – und im Grenzfall Stillstand – bedeutet nicht Abwesenheit von Kräften, sondern lediglich Kräftegleichgewicht. Stellt man eine Tasse auf den Tisch, zieht die Schwerkraft weiter an ihr, wird aber durch die elastischen Kräfte der belasteten (und unmerklich deformierten) Tischplatte konterbalanciert. Auch sollte betont werden, dass man nicht allgemein von ›dem‹ Pareto-Optimum sprechen kann. Abgesehen davon, dass es im Allgemeinen immer mehrere Optima gibt, gilt zudem, dass der optimale Endzustand jeweils relativ zum gegebenen Ausgangszustand bestimmt ist. Ein Pareto-Optimum ist der Idealzustand unter gegebener Ausgangsverteilung der Güter.
Der Markt als Ort des Güterverkehrs, wie er hier zugrundegelegt wurde, entspricht freilich nicht ohne Weiteres dem realen Markt, sondern ist vielmehr durch einige idealisierende Hauptannahmen charakterisiert:
1 vollständige Konkurrenz (perfect competition) mit atomisierter Marktstruktur (keine Monopole);
2 Markttransparenz, d. h. vollständige Information (perfect information) der Marktteilnehmer über Angebot, Nachfrage, Qualität usw.;
3 vollständige Verträge (complete contracts), in welchen alle Bedingungen spezifiziert sind.
Diese Idealisierungen werden explizit und in vollem Bewusstsein als solche gesetzt. Auch sind Idealisierungen in allen empirischen Wissenschaften gang und gäbe. Diese Stelle der Theorie ist also weder für eine innerdisziplinäre noch eine philosophische Kritik sehr aufregend. Für unser Anliegen sind diese Idealisierungen interessant, sofern sie eine Grenzfläche verdecken. Unvollständige Information beispielsweise kann ein Ausdruck und Mittel von Machtungleichheiten sein. Der Begriff der Machtverhältnisse ist aber ein soziologischer, und in diesem Sinne verdeckt die Fiktion des perfekten Marktes eine Grenze zur Gegenstandssphäre der soziologischen Untersuchung (dazu später mehr, ↓ 3.4, S. 86).
Man beachte, wie abschließend bemerkt werden sollte, dass sich auf dem (idealen) Markt das Pareto-Optimum immer von allein und zwangsläufig einstellen wird. Dies ist auch die Aussage des sog. Ersten Wohlfahrtstheorems. Hierin gründet der tief verwurzelte Glaube, dass jeder Eingriff in den Markt, insbesondere von staatlicher Seite, zwangsläufig schädlich sein wird, da der gestörte Markt das Pareto-Optimum unweigerlich verfehlen muss und sodann nur einen global schlechteren Zustand erreichen kann. Die Lehre vom Pareto-Optimum ist die moderne Fassung der »unsichtbaren Hand«, als welche Adam Smith den Mechanismus beschrieb, wonach das allgemeine Wohl befördert wird, indem jeder nach seinem eigenen Gewinn strebt.24 Die Rolle der Institutionen muss sich in diesem Bild umgekehrt darauf beschränken, ein Marktversagen (market failures) zu korrigieren, wie es sich aus den Beeinträchtigungen des unvollkommenen Markts ergeben kann. Diese Lehre beruht dabei wohlgemerkt nicht auf empirischen Studien, sondern resultiert allein aus der begrifflichen Anlage der neoklassischen Theorie. Sie hat damit einen auf fatale Weise zwieschlächtigen Charakter: sie ist einerseits nicht ohne Weiteres fundiert, andererseits aber von einem Anhänger der Neoklassik nicht abzustreifen, da sie kein ideologisches Versatzstück, sondern seinen Modellen eingeschrieben ist.25
2.2.5 Werte und Preise: Das Marginalprinzip
Die Vorstellung vom Gütertausch zur wechselseitigen Nutzenmaximierung enthält implizit eine ökonomische Werttheorie. Die ältere Politische Ökonomie von David Ricardo bis Marx ging von einem (in bestimmtem Sinne) objektiven und den Gütern intrinsischen, nämlich durch die in der Produktion verausgabte Arbeit bestimmten Wert aus, der die Tauschproportionen und somit insbesondere die Preise bestimmte. In dem Bild des Tausches, wie wir es eben nachzeichneten, fehlt allerdings eine solche äußere Zwangsbedingung. Die Individuen tauschen in Proportionen, die sich allein aus dem Streben nach Nutzenmaximierung unter gegebenen Gütermengen und Präferenzordnungen ergeben. Man könnte sagen, an die Stelle des objektiven Werts sei die subjektive Wertschätzung getreten.
Erinnern wir uns daran, dass der Nutzen eines Gutes von der bereits im Besitz befindlichen Menge solcher Güter abhängt, nämlich jedes weiter hinzutretende Gut von geringerem Nutzen ist. Dieses Prinzip des Grenznutzens ist grundlegend für die neoklassische Ökonomie, auf ihm basiert insbesondere auch die neoklassische Theorie der Produktion und des Lohns (↓ 2.2.6, S. 31). Seine Stärke wird meist anhand des sogenannten Wertparadoxes aufgezeigt, welches in der merkwürdigen Tatsache besteht, dass ziemlich nutzlose Diamanten viel teurer sind als überlebenswichtiges Wasser. Das Paradox lässt sich durch das Marginalprinzip leicht auflösen: entscheidend für den Preis ist nicht der Nutzen, sondern der Grenznutzen, das heißt der Nutzen einer zusätzlichen Wareneinheit über den Bestand hinaus. Wasser ist (vielerorts, angeblich) in Hülle und Fülle vorhanden, Diamanten hingegen sind rar. Eine jeweilige zusätzliche Einheit wird daher anders bewertet, als es die praktische Bedeutung der Güterart erwarten ließ. Es ist freilich nicht so, dass die älteren Ökonomen diesem Paradox hilflos ausgesetzt waren. Das Paradox tritt im Gegenteil nur auf, wenn der ökonomische Wert durch den Gebrauchswert determiniert werden soll. Bei Ricardo oder Marx waren dies aber strikt unterschiedene Dimensionen. Gebrauchswert wurde zwar als Bedingung dafür betrachtet, dass sich ein Gut überhaupt verkaufen lässt, der Preis wurde aber als durch andere Größen bestimmt vorgestellt, nämlich durch die zur Herstellung notwendige Arbeitszeit.
Bleibt darzulegen, wie sich aus dem Marginalprinzip über die Marktpreise das konkrete Konsumverhalten ableiten lässt. Verfügt ein Marktakteur über eine gegebene Menge Geld und kann dafür in frei zu wählendem Verhältnis zwei verschiedene Produkte erstehen, wird er das Verhältnis so wählen, dass die beiden Gütermengen x und y zu identischen Grenznutzen für jede weitere ausgegebene Geldeinheit führen. Denn solange die Grenznutzen nicht dieselben sind, könnte der Akteur seinen Nutzen maximieren, indem er seinen Warenkorb zugunsten des Produkts mit höherem Grenznutzen umschichtet. Es stellt sich mithin mechanisch ein Gleichgewicht ein, in welchem das Verhältnis der Gütermengen x/y schließlich so bestimmt ist, dass das Verhältnis ihrer relativen Preise P (x)/P (y) für diesen Akteur gleich dem Verhältnis ihrer beider Grenznutzen MU (für marginal utility) ist:
MU(x)/P(x) = MU(y)/P(y) bzw. P(x)/P(y) = MU(x)/MU(y). (2 - 1)
So ergibt sich für das jeweilige Individuum der relative Preis zweier Güter genauer als das Verhältnis ihrer beider Grenznutzen. Diese subjektive Wertlehre macht die sogenannte Grenznutzenlehre aus, die in den 1870ern entstand und mit den Namen William Stanley Jevons, Léon Walras und Carl Menger verbunden ist. Die Attraktivität, die dieser Ansatz für die Ökonomen hat, beruht nicht zuletzt darin, dass das Marginalprinzip eine direkte Entsprechung in der mathematischen Ableitung hat, was es erlaubt, allen Sätzen dieser Theorie einen eleganten mathematischen Ausdruck zu geben.
2.2.6 Produktion und Löhne
Was auf dem Markt gekauft oder getauscht wird, muss freilich zuerst produziert werden. Hinter der neoklassischen Theorie der Produktion steht die Überlegung, dass sich der Produzent oder das Unternehmen im Grunde genau so verhält wie der Konsument auf dem Markt: er muss die sogenannten Produktionsfaktoren, welche er zur Produktion benötigt, (in der Regel auf Kredit) einkaufen – vor allem Maschinen (= Kapital, K) und Arbeit (L) – und diese sodann so ins Werk setzen, dass er seinen Profit maximiert. An die Stelle des Grenznutzens tritt die Grenzproduktivität. Die Grenzproduktivität ist der durch eine zusätzliche Einheit des Produktionsfaktors erzielte zusätzliche Output. Wie der Grenznutzen wird auch die Grenzproduktivität als eine fallende Funktion betrachtet: Bei konstanter Menge von Maschinen und Werkzeug nimmt der zusätzliche Output pro weiterem Arbeiter ab. Halten wir sogleich fest, dass die neoklassische Produktionstheorie im Grunde nichts über die Produktion verrät, beispielsweise was in der Produktion geschieht und wie der Wert entsteht. Sie ist eine reine Theorie der Ressourcenallokation.
Zwei Szenarien können nun diskutiert werden: (1.) Es steht eine gegebene Menge a einer Ressource zur Verfügung, und es ist zu bestimmen, wie diese zwischen verschiedenen Produktionszweigen, also verschiedenen Warenarten verteilt wird. (2.) Es steht in einem Produktionszweig eine Geldmenge zur Verfügung – die Investitionssumme –, und es ist zu bestimmen, wie diese optimal auf die verschiedenen, notwendigen Produktionsfaktoren verteilt wird. Ziel ist jeweils die Profitmaximierung. Das Ergebnis ist in beiden Szenarien im Grunde dasselbe. Bringt ein zusätzlicher Input von Faktor a im Produktionszweig x mehr als in y, wird er dorthin umgeschichtet, bis Gleichheit der Grenzproduktivitäten pro verwendeter Geldeinheit erreicht ist. Bringt im Produktionszweig x ein zusätzlicher Input von Faktor a mehr als einer von Faktor b, wird sich das Verhältnis zugunsten von a verschieben. Der erste Fall führt auf Gleichheit der Grenzproduktivitäten pro verwendete Geldeinheit desselben Faktors für verschiedene Waren, der zweite Fall umgekehrt auf Gleichheit der Grenzproduktivitäten pro verwendete Geldeinheit verschiedener Faktoren in der Produktion derselben Ware. Wie schon in der Markttheorie wird jeweils ein Pareto-Optimum erreicht und somit ein Gleichgewichtszustand, in welchem Rahmengrößen des Geschehens einen statischen Wert annehmen.
Wir werden nicht weiter in die technischen Details eindringen. Notieren wir als wichtigstes Ergebnis, dass, wie der zweite Fall zeigt, im Gleichgewicht die Preise der Produktionsfaktoren schließlich ihrer jeweiligen Grenzproduktivität proportional sein werden. Dieses Ergebnis hat eine unmittelbare und konkrete Bedeutung, da sich die Ökonomen vor allem für die Produktionsfaktoren Kapital und Arbeit interessieren. Der Preis der Arbeit ist aber nichts anderes als der Lohn, und der Preis des Kapitals entsprechend der Lohn des Investors, also die Rendite. Die neoklassische Produktionstheorie erlaubt es also, die Aufteilung des erwirtschafteten Profits zwischen dem Kapitalisten und den Arbeitern abzuleiten. Die Abhängigkeit des Outputs von den Faktoren Kapital und Arbeit wird als Produktionsfunktion bezeichnet:
Y = F (K(L). (2 - 2)
Die Gestalt der Funktion hängt von der jeweiligen Produktionstechnik ab. Ist sie bekannt, erhält man Löhne und Rendite sofort durch eine einfache mathematische Operation (die partiellen Ableitungen). Dieses Ergebnis hatte in der Situation der Systemkonkurrenz mit dem sozialistischen Ostblock eine enorme Bedeutung, da es impliziert, dass es keine Ausbeutung gibt. Die Theorie zeigt vielmehr, dass jeder – Kapitalist, Manager, Facharbeiter, ungelernter Arbeiter – genau das verdient, was seiner Grenzproduktivität entspricht – mit anderen Worten: dass jeder verdient, was er verdient.26
Steht also alles zum Besten in der besten aller Welten? Tatsächlich hat die neoklassische Produktionstheorie ernstzunehmende Defekte, deren Konsequenzen über die Neoklassik beredt Auskunft geben. Als erstes wird man feststellen, dass als Produktionsfaktoren nur Maschinen und Arbeitskraft in Betracht gezogen werden, Land, Rohstoffe und Energie aber gänzlich fehlen. Über die Gründe lässt sich spekulieren. Der amerikanische Sozialwissenschaftler Jason W. Moore sieht in dem Umschwung von einer auf der Produktivität des Landes beruhenden Reichtumsmatrix zu einer solchen, die in der Produktivität der menschlichen Arbeit gründet, den historischen Epochenwandel hin zum kapitalistischen Zeitalter abgebildet. Arbeit ist nun die Quelle des Werts und die Natur zu einer Ressource herabgestuft (näheres zu Moores Ansatz ↓ S. 171).27 Andere Autoren verweisen auf die Tatsache, dass sich die Grenzproduktivität in den Preisen widerspiegelt und die niedrigen Preise für Rohstoffe und Energie im 20. Jahrhundert, als die neoklassische Produktionstheorie formuliert wurde, als ein Hinweis auf die geringe Bedeutung dieser Faktoren aufgefasst wurde. Der Anteil der Energiekosten an den Produktionskosten liegt in der Tat nur bei etwa 5 - 6 %, was aber schlicht daran liegt, dass sogar endliche Ressourcen billig zu haben sind.28 Ein dritter möglicher Grund für die Vernachlässigung kann darin liegen, dass der Zweck der Produktionstheorie wie eben berichtet letztlich die Rechtfertigung der Einkommensverhältnisse durch objektive Faktoren ist, und die Natur (Land, Rohstoffe, Energie) zwar als Produktionsfaktor auftreten mag, aber nicht bei der Verteilung des Profits zu berücksichtigen ist. Wie dem auch sei, in jedem Fall ist der neoklassischen Produktionstheorie damit ein ökologisches Defizit eingeschrieben.
Die Vernachlässigung des Produktionsfaktors Land hat zweitens aber auch unmittelbare und fatale technische Konsequenzen. Es stimmt selbstverständlich, dass zu verschiedenen historischen Zeitpunkten mit verschiedenem technischem Entwicklungsstand Kapital und Arbeit unterschiedlichen Anteil an der Produktion haben (mit dem technischen Fortschritt und dem Einsatz hochentwickelter Maschinen steigt der Kapitalfaktor). Zur Analyse eines solchen historischen Wandels ist die neoklassische Produktionstheorie in ihrer Eigenschaft als Theorie eines fixen Gleichgewichts nun prinzipiell nicht geeignet.29 Betrachten wir hingegen einen gegebenen Zeitpunkt, so kann umgekehrt das Verhältnis der Faktoren Arbeit und Kapital nicht frei gewählt werden, wie es der Formalismus der neoklassischen Produktionstheorie aber in der Produktionsfunktion F (K(L) unterstellt. Für die Landwirtschaft mit Boden als regenerativer Ressource mag noch stimmen, dass der Einsatz von Maschinen und Handarbeit recht frei variiert werden können. Aber gerade für die Industrieproduktion, auf welche sich die Neoklassik fixiert, indem sie den Faktor Land fallen lässt, stimmt dies ironischerweise nicht mehr. Denn hier ist das Verhältnis von Maschine und Arbeit, also die Zahl der Arbeiter an einer bestimmten Maschine, durch die Organisation der Fabrik fest vorgegeben. Es sind mithin die Voraussetzungen gar nicht erfüllt, um überhaupt ein Grenzprodukt zu definieren, womit die neoklassische Lohntheorie in sich zusammenfällt.30 Richtiger ist es vermutlich, die ganze Gleichgewichtsannahme aufzugeben und das Verhältnis der Produktionsfaktoren als empirische Charakteristik der eingesetzten Produktionstechnik zu betrachten.31
2.2.7 Pareto-Prinzip und soziales Wohl
Wir werden im folgenden Kapitel weitere Kritik am Konzept des Pareto-Optimums kennenlernen. Dazu ist es aber wichtig, zu verstehen, dass seine Formulierung zu seiner Zeit durchaus auf ein theoretisches Problem antwortete und insofern einen Fortschritt bedeutete.
Wir sahen schon, dass ein zentraler Begriff der Neoklassik der des Nutzens ist. Damit weist die Neoklassik auf den englischen Utilitarismus zurück, welcher im Nutzen auch den Schlüssel zu normativen Fragen der Ethik sah, die durch Kalkulation des Nutzens beantwortet werden sollten (utility calculus). Hat man es nun mit mehreren Individuen zu tun, können sich allerdings Probleme einstellen. Stiehlt der Verhungernde dem Satten ein Brot, wiegt dann nicht sein Gewinn den geringen Verlust des anderen auf? Man ist versucht, dies zu bejahen. Aber dazu müsste man den Gewinn des einen mit dem Verlust des anderen vergleichen können. Just dies ist durch den subjektiven Nutzenbegriff ausgeschlossen, da dieser keinen intersubjektiven Maßstab kennt. Intersubjektive Nutzenvergleiche sind prinzipiell ausgeschlossen, wie die Ökonomen bald feststellten.32 Es ist keine Überraschung, dass man im Rahmen eines streng individualistischen Ansatzes in Schwierigkeiten gerät, sobald man es mit kollektiven Größen wie dem Gesamtnutzen zu tun hat.
Hier kommt das Pareto-Prinzip ins Spiel. Es erlaubt nämlich durchaus, diese Klippe zu umschiffen und von einem Optimum für ein Kollektiv zu sprechen, ohne sich auf ein Maß des kollektiven Wohls beziehen zu müssen. Zwar kann man in einer Situation, in welcher ein Individuum sich verbessert, während ein anderes sich verschlechtert, prinzipiell nicht bestimmen, ob der Nutzengewinn des einen den Verlust des anderen überwiegt und so zu einem höheren Gesamtwohl führt. Verbessert sich jedoch einer, ohne dass sich ein anderer verschlechtert, so lässt sich diese Frage gleichwohl bejahen, und wenn eine Situation erreicht ist, in welcher sich niemand mehr weiter verbessern kann, ohne dass sich ein anderer verschlechtert, ist in diesem Sinne ein Optimum erreicht.
Für viele volkswirtschaftliche Anwendungen ist das Pareto-Prinzip freilich in einer weniger restriktiven Formulierung maßgeblich. Betrachten wir dazu das Beispiel, an welchem diese Fragen ursprünglich diskutiert wurden, was auch deshalb interessant ist, weil es uns zugleich an den ursprünglichen Kontext der Diskussion erinnert, nämlich die Frage nach dem Freihandel: Die Aufhebung der Korngesetze 1846, welche die britische Landwirtschaft schützen sollten, hatte einerseits zur Folge, dass der Kornpreis sank, die gesamte Bevölkerung also für den selben Betrag eine höhere Menge Korn erstehen konnte, sprich derselbe Lohn einem höheren Realeinkommen entsprach, führte andererseits aber auch zu einer Einkommensverschiebung, in diesem Fall zuungunsten des Landadels, der unter dem Druck der ausländischen Konkurrenz nun sein Korn zu geringerem Preis verkaufen musste. Wie sieht die utilitaristische Gesamtbilanz aus? Wir stehen wieder vor dem Problem, den eventuellen Nutzenverlust der einen gegen den Gewinn der anderen verrechnen zu müssen, was nicht möglich ist. Andererseits haben wir es lediglich mit Geldmengen zu tun, die vom Staat durch neue Steuern und Kompensationszahlungen wieder umverteilt werden können. Und so lässt sich – zumindest im Prinzip – dennoch feststellen, ob eine Reform von positivem Gesamtnutzen ist: genau dann nämlich, wenn nach Entschädigung des Benachteiligten die Bevorzugten noch einen Nettogewinn zu verbuchen haben.
Diese Überlegung, die erstmalig von Nicholas Kaldor und John R. Hicks angestellt wurde, wartet allerdings noch mit einer – wie manche meinen: zynischen – Pointe auf. Die beiden Ökonomen sind sich nämlich darin einig, dass die Frage, ob die Entschädigung auch gezahlt werden solle, eine Frage der Verteilungsgerechtigkeit sei, zu welcher die Ökonomen als Wissenschaftler nichts zu sagen haben.33 Sie klammerten diesen Aspekt daher aus und betrachteten nur den »potentiellen« Fall. Eine Reform ist nach diesem sogenannten Kaldor-Hicks-Kriterium also auch dann zu begrüßen, wenn sie nur eine potentielle Pareto-Verbesserung bewirkt, diese also theoretisch möglich ist, auch wenn de facto Gewinn und Verlust höchst ungleich verteilt werden und gegebenenfalls eine gesellschaftliche Ungleichheit noch verstärken.
Diese Verallgemeinerung des Pareto-Prinzips ist von enormer Bedeutung. Sie erlaubt es den Ökonomen, Fragen der Effizienz von denen der Verteilung zu trennen. Damit ist die Möglichkeit gewonnen, nüchtern eine Kosten-Nutzen-Analyse vorzunehmen, ohne auf Fragen der Gerechtigkeit eingehen zu müssen. Solche Analysen bilden die Grundlage für wirtschaftspolitische Empfehlungen durch die Ökonomen (economic policy). Die Abkopplung von Verteilungs- und Gerechtigkeitsfragen macht dabei die Objektivität – im Sinne von Wertfreiheit – dieser Empfehlungen aus.34 Diese Auffassung knüpft an die Position Max Webers im Werturteilsstreit an. Sich gegen die bekenntnishaften »Kathederwertungen« und »Professoren-Prophetie« wendend, d. h. gegen »weltanschauliche« und »parteipolitische« Stellungnahmen des Wissenschaftlers, suchte Weber den reinen, wertfreien »fachmäßigen« Standpunkt zu setzen.35 Der begriffliche Schlüssel dazu bestand für ihn in der Trennung zwischen Zwecken und Mitteln, auf welche sich dann die Trennung von Werturteilen und Tatsachenurteilen abbilden lässt: Der Wissenschaftler kann nur empirisch über die Eignung eines Mittels zu einem Zweck urteilen. Ob aber ein Zweck wünschenswert sei, stellt ein Werturteil dar, welches er sich versagen muss. In gesellschaftlichen Fragen muss darüber etwa im politischen Diskurs entschieden werden. Die Gesellschaft muss sich also darüber klar werden, was sie will, und der Wissenschaftler kann ihr dann sagen, ob und wie sich diese Zwecke am besten erreichen lassen. Diese Auffassung steht offenkundig auch hinter dem Unterfangen, den Verteilungs- vom Effizienzaspekt zu separieren. Befördert wurde diese Haltung noch von der neopositivistischen Wissenschaftsphilosophie des Wiener Kreises – mit starkem Einfluss etwa auf Robbins –, welche die empirischen Urteile für die einzig sinnvollen erklärte und somit die Werturteile nicht nur abtrennte, sondern überhaupt suspekt erscheinen ließ.