Die klassische Arrow–Debreu-Ökonomie geht davon aus, dass alle ökonomischen Transaktionen simultan in einem Zeitpunkt vor Beginn der Zeit stattfinden und dass jedes Gut zu jedem zukünftigen Zeitpunkt in der Gegenwart bewertet wird. Dieses Modell ist in vieler Hinsicht idealisiert, nicht zuletzt weil es von einer endlichen Anzahl von Individuen und Gütern ausgeht und das Leben eines Agenten auf einen Zeitpunkt konzentriert. Im Gegensatz dazu bietet das Overlapping-Generations-Modell (OLG) eine realistischere Darstellung ökonomischer Prozesse, indem es Agenten über zwei Perioden leben lässt und somit eine dynamische Intertemporalität einführt. In einer solchen OLG-Ökonomie wird deutlich, dass fundamentale wohlfahrtstheoretische Ergebnisse wie das Erste Wohlfahrtstheorem (First Fundamental Theorem of Welfare Economics, FFTWE) ihre Gültigkeit verlieren können.

Wir betrachten ein Modell, das auf Geanakoplos (2008) zurückgeht: Eine diskrete Zeitachse, die sich unendlich in beide Richtungen erstreckt, und in jeder Periode wird ein einzelnes verderbliches Konsumgut gehandelt. Die Agenten sind über die Zeitindizes identifiziert, wobei in jeder Periode ein neuer Agent geboren wird, der zwei Perioden lebt. Seine Nutzenfunktion hängt vom Konsum in der Jugend und im Alter ab: ut(xt,xt+1)=atlog(xt)+(1at)log(xt+1)u_t(x_t, x_{t+1}) = a_t \log(x_t) + (1 - a_t) \log(x_{t+1}), wobei at(0,1)a_t \in (0,1) das zeitpräferenzgewicht darstellt. Jeder Agent erhält eine Ausstattung (Endowment), die sich über seine Lebensperioden erstreckt und ausschließlich in diesen positiv ist.

Die Preise für Güter werden in Barwerten angegeben, d. h. sie reflektieren den heutigen Preis für eine Lieferung zu einem zukünftigen Zeitpunkt. Dies erlaubt eine explizite Modellierung intertemporaler Entscheidungen auf Basis von Preisrelationen qt=pt+1ptq_t = \frac{p_{t+1}}{p_t}. Ein Gleichgewicht in dieser Ökonomie ist eine Allokation von Gütern und ein Preisvektor, bei dem jeder Agent seinen Nutzen unter Beachtung seines Budgetbeschränkung maximiert und die Märkte in jeder Periode geräumt sind.

In diesem Rahmen zeigt sich jedoch ein fundamentaler Bruch mit der traditionellen Theorie: Es existieren Gleichgewichte, die nicht Pareto-optimal sind. Dies widerspricht der zentralen Aussage des FFTWE, wonach jedes Wettbewerbs-Gleichgewicht unter idealisierten Bedingungen effizient ist. Der Grund liegt im unendlichen Horizont der OLG-Ökonomie und in der Tatsache, dass neue Generationen ständig in die Wirtschaft eintreten, ohne die Möglichkeit, intertemporale Verträge mit den bereits Verstorbenen abzuschließen.

Ein illustratives Beispiel bei Geanakoplos (2008) nimmt stationäre Präferenzen und Ausstattungen an, wobei jeder Agent in der Jugend mehr Ressourcen erhält als im Alter. Es zeigt sich, dass unter bestimmten Preisrelationen ein Autarkie-Gleichgewicht entsteht, bei dem jeder Agent exakt seine Ausstattung konsumiert. Der Nutzen aus dieser Allokation ist jedoch geringer als im sogenannten „golden rule“–Gleichgewicht, bei dem alle Agenten dieselbe, gleichgewichtige Allokation (z. B. (1/2, 1/2)) erhalten. Obwohl beide Gleichgewichte existieren, dominiert letzteres das erste Pareto-superior – alle wären besser gestellt, aber die Marktmechanismen allein führen nicht dorthin. Dieses Versagen ist nicht auf externe Effekte oder Marktunvollkommenheiten zurückzuführen, sondern entspringt allein der dynamischen Struktur des Modells.

Das Modell legt offen, dass das Vorhandensein unendlich vieler Agenten und Güter (über Zeitindizes) die klassischen Resultate destabilisieren kann. Die Tatsache, dass Individuen nur für zwei Perioden wirtschaften, während das System als Ganzes über unendlich viele Perioden existiert, führt zu Koordinationsproblemen, die durch den Markt nicht gelöst werden können. Eine zentrale Rolle spielt dabei die sogenannte „Jugendlastigkeit“ der Ausstattung, bei der junge Agenten mehr haben als alte. In einem solchen Umfeld kann der subjektive Zeitwert (repräsentiert durch aa) in Verbindung mit der Ausstattung verhindern, dass durch freie Märkte eine effiziente intergenerationelle Allokation entsteht.

Die Erkenntnis, dass Gleichgewichte in OLG-Modellen Pareto-ineffizient sein können, hat weitreichende Implikationen für die ökonomische Theorie. Sie stellt die Allgemeingültigkeit des FFTWE infrage und legt nahe, dass wohlfahrtssteigernde Interventionen in solchen Ökonomien nicht nur möglich, sondern möglicherweise notwendig sind. Dies wird besonders relevant, wenn man berücksichtigt, dass reale Wirtschaften ebenfalls durch fortlaufende Generationenwechsel und intertemporale Transfers gekennzeichnet sind.

Besondere Brisanz erhält das Thema, wenn man altruistische Präferenzen einführt. In klassischen Modellen gelten Nutzenfunktionen als rein individualistisch. Sobald jedoch Individuen auch den Nutzen anderer – etwa ihrer Nachkommen – in ihre Entscheidungen einbeziehen, verschiebt sich die Analyse. Frühere Arbeiten, etwa von Bergstrom (1971) und Yi (1989), zeigen, dass unter bestimmten Bedingungen wie gerichteter Altruismus (jeder ist nur gegenüber späteren Generationen altruistisch) das FFTWE weiterhin gelten kann. Doch sobald diese Struktur aufgebrochen wird – wie von Kranich (1988) demonstriert – kann auch in scheinbar Arrow–Debreu-ähnlichen Ökonomien das Gleichgewicht nicht mehr Pareto-effizient sein. Das Versagen entsteht, weil die individuelle Nutzenmaximierung nicht mehr zu gesellschaftlich optimalen Resultaten führt, wenn der Nutzen anderer Personen eine Rolle spielt. Die Interdependenz der Präferenzen führt dazu, dass freiwillige Transfers innerhalb des Gleichgewichts die Effizienz untergraben können.

Entscheidend ist zu verstehen, dass es in der OLG-Öko

Ist unvollständige Konkurrenz immer nachteilig für das Wohlergehen? Eine Analyse des sozialen Kosten-Nutzen-Verhältnisses.

Unvollständiger Wettbewerb ist in der Wirtschaftstheorie ein Konzept, das oft mit einer weniger effizienten Ressourcennutzung und suboptimalen Marktergebnissen in Verbindung gebracht wird. In der klassischen Wirtschaftstheorie geht man davon aus, dass vollständiger Wettbewerb das Wohlergehen maximiert, während unvollständiger Wettbewerb — wie in Monopolen oder oligopolistischen Märkten — als nachteilig für die Gesellschaft angesehen wird. Diese Annahme basiert auf der Idee, dass Monopolisten ihre Preise über den Grenzkosten setzen und dadurch Wohlfahrtsverluste, auch als „Deadweight Loss“ bezeichnet, verursachen. Doch in der Praxis ist das Bild komplexer, und es gibt Situationen, in denen eine höhere Marktkonzentration nicht zwangsläufig schlechter für das allgemeine Wohlergehen ist.

In einer monopolistischen Marktstruktur sind die Produzenten in der Regel in der Lage, den Preis über den Grenzkosten anzusetzen, was zu einem geringeren Output führt, als es unter vollkommener Konkurrenz der Fall wäre. Der Preis steigt, und die Menge sinkt, was dazu führt, dass die Konsumentenrente (Consumer Surplus) verringert wird. Diese Marktungleichgewichte können mit Hilfe des Modells der „Deadweight Loss“ quantifiziert werden. Der Deadweight Loss stellt den Verlust an gesellschaftlichem Wohlergehen dar, der entsteht, wenn weniger Transaktionen stattfinden, als es unter einem wettbewerbsintensiven Markt möglich wäre. Die klassische Darstellung dieses Verlustes wird oft als Dreieck im Angebots-Nachfrage-Diagramm visualisiert, bei dem die Fläche des Dreiecks den Wohlfahrtsverlust symbolisiert, der durch den Monopolpreis verursacht wird.

Allerdings zeigt die Theorie des unvollständigen Wettbewerbs, dass diese Annahme nicht immer zutrifft. Es gibt Fälle, in denen eine Marktverlagerung hin zu weniger Wettbewerb sogar zu einer Verbesserung des Wohlergehens führen kann. Dies wird durch die „Coase-Theorem“ unterstrichen, das nahelegt, dass in bestimmten Marktbedingungen und bei effizienter Verhandlung keine Wohlfahrtsverluste durch unvollständigen Wettbewerb entstehen müssen. Tatsächlich könnte ein Monopol in einigen Fällen sogar zu einer besseren Ressourcenzuteilung führen, wenn die Reduktion von Transaktionskosten oder die Förderung von Innovationen berücksichtigt wird.

Der Coase-Theorem argumentiert, dass Märkte, die eine gewisse Konzentration aufweisen, durchaus effizient sein können, wenn die beteiligten Akteure in der Lage sind, zu verhandeln und individuelle Vereinbarungen zu treffen, die den Markt selbst steuern. Dies setzt jedoch voraus, dass keine externen Effekte vorliegen und dass Transaktionskosten vernachlässigbar sind. In der Realität sind diese Bedingungen selten perfekt erfüllt, weshalb es wichtig ist, die sozialen Kosten und Nutzen von unvollständiger Konkurrenz empirisch zu messen.

Die Bestimmung des sozialen Kosten-Nutzen-Verhältnisses im Kontext unvollständiger Konkurrenz stellt eine große Herausforderung dar. Einerseits könnten wohlfahrtsverbessernde Maßnahmen wie die Förderung von Wettbewerb durch Anti-Trust-Politik, wie sie in vielen ökonomischen Modellen postuliert wird, in der Praxis eher geringe Auswirkungen haben, insbesondere wenn die tatsächlich durch unvollständige Märkte verursachten Wohlfahrtsverluste relativ klein sind. Andererseits sind die politischen und sozialen Implikationen von Marktstrukturen und Wettbewerb nicht nur theoretische Fragen, sondern haben konkrete Auswirkungen auf die Alltagsökonomie.

Ein Ansatz zur Messung des sozialen Wohlergehens in einem monopolistischen Markt ist die Verwendung von sozialen Wohlfahrtsfunktionen, wie sie von Ökonomen wie Jehle (1991) entwickelt wurden. Diese Funktionen beinhalten die Berechnung des Konsumenten- und Produzentenüberschusses als Mittel zur Bestimmung des Wohlergehens in einem Markt. In der Praxis erfolgt dies oft durch die Schätzung des Gesamtwerts des Konsumenten- und Produzentenüberschusses und die Berechnung des Nettowohlfahrtsverlusts. Ein weiterer Indikator ist die Nutzung von partielle Gleichgewichtmodellen zur Schätzung von Wohlfahrtsverlusten bei Marktkonzentration.

Es ist wichtig zu betonen, dass die Betrachtung von Marktverhältnissen im unvollständigen Wettbewerb stets differenziert erfolgen muss. Eine Erhöhung der Marktkonzentration könnte in einigen Fällen zu einer höheren Effizienz führen, wenn dies mit einer verbesserten Produktionstechnologie oder einer besseren Nutzung von Skaleneffekten verbunden ist. Dies könnte sowohl für Konsumenten als auch für Produzenten von Vorteil sein, wenn die Marktbedingungen richtig gestaltet sind. Ein solches Szenario widerspricht jedoch der traditionellen Sichtweise, dass mehr Wettbewerb immer besser ist.

Insgesamt bleibt die Frage nach den sozialen Kosten und Nutzen von unvollständigem Wettbewerb und monopolistischen Marktstrukturen weiterhin ein komplexes und umstrittenes Thema. Es erfordert eine differenzierte Betrachtung der Marktbedingungen, der Verhandlungsmöglichkeiten und der Transaktionskosten, um zu einer fundierten Entscheidung über den besten Wettbewerbsschutz und die optimale Marktstruktur zu kommen.

Wie können Reformen in der Handelspolitik optimal gestaltet werden?

In der ökonomischen Theorie ist die Frage, wie man bestehende Handels- und Wirtschaftspolitiken optimieren kann, von zentraler Bedeutung. Besonders die Forschung von Dixit (1987) und anderen in diesem Bereich hat gezeigt, dass Reformen in der Handelspolitik nicht nur von den Marktverhältnissen abhängen, sondern auch von der Wahl der richtigen Steuer- und Tarifstrukturen. In dieser Analyse geht es darum, wie durch gezielte Reformen eine Pareto-Verbesserung erreicht werden kann, wobei das ursprüngliche Modell des vollkommenen Wettbewerbs als Referenz dient.

Die grundlegende Annahme dieses Modells ist, dass die Produzenten, wie im Arrow-Debreu-Modell, eine vollständige Flexibilität und Anpassungsfähigkeit im Hinblick auf ihre Produktionsentscheidungen aufweisen. In einem solchen idealisierten Markt sind sämtliche Verzerrungen – also Abweichungen von diesem Gleichgewicht – mit Ineffizienzen verbunden. Eine Reform zielt darauf ab, diese Verzerrungen zu beseitigen und den Markt wieder in Richtung dieses idealen Gleichgewichts zu bewegen.

Die grundlegende Gleichung (17.32 − t) beschreibt einen Zustand, in dem eine Verzerrung im Handelspolitik-Setzen existiert. Eine Änderung der Steuern und Zölle (tarife) auf die richtigen Produkte könnte dieses Ungleichgewicht korrigieren und zu einer effektiveren Zuweisung der Ressourcen führen. Wenn die Produktionsfunktionen der verschiedenen Märkte in diesem Modell nicht perfekt elastisch sind, kann eine Änderung in den Zöllen oder Steuern dazu führen, dass die Gesamtproduktion einer Volkswirtschaft effizienter und auf eine Weise verteilt wird, die alle Beteiligten verbessert – ohne dass es Verlierer gibt.

Ein wichtiger Punkt in dieser Diskussion ist der Zusammenhang zwischen den verschiedenen Märkten und den Verzerrungen, die in einem offenen Wirtschaftssystem auftreten. Beispielsweise ist das Modell von Foster und Sonnenschein (1970) ein Versuch, eine einfache Reformregel zu entwickeln, die eine Pareto-Verbesserung in einem offenen System ermöglicht. Sie argumentieren, dass eine proportionale Reduktion aller Verzerrungen eine Pareto-Verbesserung bewirken könnte, vorausgesetzt, dass bestimmte Bedingungen erfüllt sind: konstante Skalenerträge, konvexe Präferenzen und normale Güter.

Jedoch, wie Lipsey und Lancaster (1956) zeigen, ist es nicht immer vorteilhaft, Verzerrungen aus nur einem Markt zu entfernen. Wenn in anderen Märkten weiterhin Verzerrungen bestehen, könnte dies zu einer ineffizienten Allokation von Ressourcen führen. Ihre Theorie der "zweiten Bestimmung" zeigt, dass manchmal mehrere Verzerrungen in verschiedenen Märkten gleichzeitig entfernt werden müssen, um eine echte Verbesserung der Wohlfahrt zu erreichen. Dies bedeutet, dass die Reformen nicht isoliert betrachtet werden dürfen, sondern in einem gesamthaften Kontext der Wirtschaftsstruktur.

Für große Volkswirtschaften, in denen keine lump-sum Transfers zugelassen sind, schlägt Dixit eine summative Reformregel vor, die darauf abzielt, die Zölle in eine bestimmte Richtung zu bewegen. Diese Reform würde die bestehenden Verzerrungen linearisieren und so zu einer besseren wirtschaftlichen Allokation führen. In seiner Theorie fordert Dixit, dass Änderungen in den Zöllen mit lokal verfügbaren Informationen über die Wirtschaft durchgeführt werden sollten, ohne dass die gesamte Struktur eines internationalen Handelsmodells neu kalibriert werden muss.

Dixit gibt zudem an, dass die optimale Reformstruktur, insbesondere in großen offenen Volkswirtschaften, sicherstellen sollte, dass es eine klare Übereinstimmung zwischen der Steuerpolitik und den internationalen Preisstrukturen gibt. Dabei ist das Ziel, Abweichungen in den internationalen Preisen so zu gestalten, dass diese mit den inländischen Produktionspreismodellen der handelbaren Güter orthogonal sind. Ein solcher Ansatz führt zu einer effektiven Steuer- und Tarifpolitik, die langfristig zu einer Pareto-Verbesserung führen kann, vorausgesetzt, dass die Politik auf den jeweiligen Kontext der Wirtschaft und ihrer Handelsbeziehungen abgestimmt wird.

Für die Praxis bedeutet dies, dass die Suche nach optimalen Steuern und Zöllen eine detaillierte Kenntnis der bestehenden Verzerrungen und der möglichen Auswirkungen auf andere Marktsegmente erfordert. Es ist daher entscheidend, dass politische Entscheidungsträger nicht nur isolierte Marktfehler betrachten, sondern die Wechselwirkungen zwischen den verschiedenen Bereichen der Volkswirtschaft berücksichtigen, um eine echte Verbesserung der Gesamtwirtschaft zu erzielen.

Wie der schwache Axiom der Gewinnmaximierung (WAPM) zur Analyse von Unternehmensverhalten eingesetzt wird

Das schwache Axiom der Gewinnmaximierung (WAPM) stellt eine grundlegende Annahme in der mikroökonomischen Theorie dar, das in empirischen Tests verwendet wird, um das Verhalten von Unternehmen in Bezug auf ihre Produktionsentscheidungen zu analysieren. Diese Methode prüft, ob ein Unternehmen in der Lage ist, bei gegebenen Preisen und Produktionsmöglichkeiten seine Gewinne zu maximieren. Das Axiom besagt, dass, wenn ein Unternehmen für zwei verschiedene Produktionsentscheidungen yty_t und yty_{t'} mit den zugehörigen Preisen ptp_t und ptp_{t'} beobachtet wird, die Wahl der Produktionsentscheidung yty_t stets profitabler sein sollte, d. h., es muss gelten, dass:

ptytptytp_t \cdot y_t \geq p_t \cdot y_{t'}

Dies bedeutet, dass ein Unternehmen nie eine weniger profitable Produktion als eine andere Wahl treffen sollte, wenn alle anderen Bedingungen konstant sind. Diese Annahme bildet die Grundlage für viele empirische Tests der Gewinnmaximierung und wird verwendet, um zu überprüfen, ob beobachtetes Verhalten mit der Theorie der Gewinnmaximierung übereinstimmt.

Es gibt eine Vielzahl von empirischen Untersuchungen, die das WAPM getestet haben, um zu überprüfen, ob Unternehmen, insbesondere landwirtschaftliche Betriebe, tatsächlich ihre Gewinne maximieren. So hat zum Beispiel Mueller (1992) auf Basis von Daten zur landwirtschaftlichen Produktion in den 48 US-Bundesstaaten zwischen 1956 und 1982 gezeigt, dass das Verhalten der Unternehmen in Übereinstimmung mit der Theorie der Gewinnmaximierung und der Theorie der konstanten Skalenerträge war. Diese Ergebnisse unterstützen die Annahme, dass Unternehmen in den meisten Fällen tatsächlich bestrebt sind, ihre Gewinne zu maximieren, zumindest in einem Kontext, der durch die Annahmen der Theorie unterstützt wird.

Andererseits zeigen andere Studien, dass die Ergebnisse nicht immer so eindeutig sind. Tauer (1995) und Tauer und Stefanides (1998) untersuchten landwirtschaftliche Betriebe im Bundesstaat New York und fanden heraus, dass viele Betriebe das WAPM nicht vollständig erfüllten. In einer detaillierten Analyse von 70 Betrieben fanden sie heraus, dass das durchschnittliche Abweichen vom WAPM einen Wert von 0,20 aufwies, was darauf hindeutet, dass die Betriebe im Durchschnitt ihre Gewinne um 20 % hätten steigern können, wenn sie eine andere Produktionsentscheidung getroffen hätten. Dies deutet darauf hin, dass Unternehmen in der Praxis nicht immer die theoretisch optimale Produktionsentscheidung treffen und möglicherweise Suboptimalitäten in ihrem Verhalten vorliegen.

Ein weiterer wichtiger Punkt, der in der empirischen Literatur immer wieder hervorgehoben wird, ist die Rolle der Daten und die Probleme bei der Messung von Inputmengen. Ray (1997) und Ray (2004) führten an, dass die Anwendung des WAPM und ähnlicher Axiome in der Praxis auf Probleme wie Messfehler in den Produktionsdaten stoßen kann. Insbesondere kann eine Verletzung des WAPM auch auf zufällige Schwankungen in den produzierten Mengen zurückzuführen sein, was die Interpretation der Ergebnisse erschwert. Diese Problematik wird durch den Vorschlag von Ray (2004) adressiert, bei der statistischen Prüfung des WAPM die Ausgabenmengen als zufällig zu betrachten und eine alternative Testmethode zu entwickeln, die besser mit solchen Unsicherheiten umgehen kann.

Darüber hinaus argumentieren Nakane und Tauer (2009), dass die gängige Anwendung des WAPM in der empirischen Forschung möglicherweise nicht ausreichend berücksichtigt, dass Unternehmen unterschiedliche technologische Bedingungen aufweisen können. Ihre Methode, die als „angepasstes WAPM“ bezeichnet wird, berücksichtigt diese heterogenen Technologien und vergleicht die passiven Gewinne eines Unternehmens (die Gewinne, die bei unveränderten Produktionsentscheidungen erzielt werden) mit den tatsächlichen Gewinnen, die unter aktiver Anpassung der Inputs erzielt werden. Wenn ein Unternehmen seine tatsächlichen Gewinne über die passiven Gewinne hinaus steigern kann, lässt dies auf eine aktive Anpassung der Produktionsentscheidungen in Reaktion auf Preisänderungen schließen.

Es gibt noch weitere Modifikationen und Erweiterungen der ursprünglichen WAPM-Tests. So entwickelte Ray (1993) das schwache Axiom der Minimierung variabler Kosten (WAVCM), um zu prüfen, ob Unternehmen unter den gegebenen Produktionsbedingungen die variablen Kosten minimieren. Diese Erweiterung ermöglicht es, auch dann eine Analyse durchzuführen, wenn nicht alle Inputdaten für ein Unternehmen verfügbar sind, was in vielen realen Anwendungen der Fall sein kann. Die Ergebnisse von Ray (1993) und späteren Studien zeigen, dass viele landwirtschaftliche Betriebe in Indien und den USA nicht immer in der Lage sind, ihre variablen Kosten zu minimieren, was auf Marktimperfektionen und ineffiziente Ressourcennutzung hinweisen könnte.

Zusammenfassend lässt sich sagen, dass das schwache Axiom der Gewinnmaximierung und seine erweiterten Varianten wie WAVCM und das angepasste WAPM nützliche Werkzeuge sind, um das Verhalten von Unternehmen in Bezug auf ihre Produktionsentscheidungen zu analysieren. Sie bieten eine Möglichkeit, das Vorhandensein von Marktimperfektionen, ineffizienter Ressourcennutzung und technologischem Fortschritt zu identifizieren. Gleichzeitig müssen jedoch die praktischen Herausforderungen bei der Anwendung dieser Tests berücksichtigt werden, insbesondere im Hinblick auf die Verfügbarkeit und Genauigkeit der Daten. Nur wenn diese Herausforderungen gemeistert werden, können die Tests zuverlässig eingesetzt werden, um tiefere Einsichten in die Unternehmensstrategie und das Marktverhalten zu gewinnen.

Was ist die Bedeutung der Generalisierten Monopolistischen Konkurrenz und der Marktstruktur in Bezug auf Eintritt und Preissetzung?

Die Theorie der generalisierten monopolistischen Konkurrenz (GMC) basiert auf einem komplexen Marktmodell, in dem Unternehmen ihre Marktanteile als vernachlässigbar wahrnehmen und ihre Wahrnehmung der relevanten Nachfrageelastizitäten die entsprechenden durchschnittlichen Brutto-Morishima-Elastizitäten (WAGMES) sind. Dieser Ansatz von Bertoletti und Etro (2021b) analysiert Märkte, auf denen monopolistische Wettbewerbsunternehmen agieren und dabei asymmetrische Präferenzen der Konsumenten berücksichtigen. Der Begriff "generalisierte monopolistische Konkurrenz" (GMC) beschreibt einen Markt, auf dem Unternehmen keine signifikanten Marktanteile besitzen und deren Nachfrageelastizitäten durch WAGMES approximiert werden.

Die wichtigsten Voraussetzungen für das Verständnis dieses Modells sind, dass Unternehmen den Markt als gegeben betrachten und ihre eigenen Marktanteile als unbedeutend ansehen. Das bedeutet, dass b und b̄ für jedes Unternehmen nahezu null sind, was zur Folge hat, dass Unternehmen ihre Preisgestaltung und Markteintrittsstrategien nach diesen Annahmen ausrichten.

In einem solchen Marktmodell gibt es verschiedene Wettbewerbsszenarien, die entweder auf Mengenwettbewerb (a la Cournot) oder auf Preiswettbewerb (a la Bertrand) basieren. Bertoletti und Etro zeigen in ihrer Analyse, dass im Fall des Mengenwettbewerbs die Preisformel wie folgt aussieht:

p(x)=cξA(x)p(x) = \frac{c}{\xi_A(x)}

Im Fall des Preiswettbewerbs ist die Preisformel anders strukturiert:

p(p/M)=cζA(p/M)1p(p/M) = \frac{c}{\zeta_A(p/M) - 1}

Diese Formeln verdeutlichen, dass in einem monopolistisch wettbewerbsorientierten Markt mit freien Markteintritten die Preisbildung stark von den Nachfrageelastizitäten und den Marktanteilen abhängt. Das Modell geht davon aus, dass die Marktanteile der Unternehmen verschwindend gering sind, was zu einer Annäherung der Preise an die Grenzkosten führt, was wiederum auf ein nahezu wettbewerbsfähiges Gleichgewicht hindeutet.

In Bezug auf den Markteintritt betrachtet Bertoletti und Etro (2021b) das Szenario eines Marktes mit festen Eintrittskosten. In diesem Modell müssen Unternehmen eine Eintrittsgebühr bezahlen, um einen bestimmten Markt zu betreten. Diese Festlegung von Eintrittskosten ist von großer Bedeutung, da ohne sie der Markt in einem perfekten Wettbewerbsumfeld alle potenziellen Güter zu den Grenzkosten anbieten würde. Das Konzept des Markteintritts und die Auswahl von Unternehmen, die in den Markt eintreten, sind unter Berücksichtigung dieser Eintrittsbarrieren jedoch entscheidend, um zu verstehen, welche Produkte in einem monopolistisch wettbewerbsfähigen Markt tatsächlich angeboten werden und welche nicht.

Es wird angenommen, dass in einem solchen Marktumfeld mit freien Eintrittsmöglichkeiten Unternehmen dann in den Markt eintreten, wenn sie in der Lage sind, über den Durchschnittskosten zu preisen. In einem solchen allgemeinen monopolistischen Wettbewerbsmodell gibt es F aktive Unternehmen, die alle in der Lage sind, nicht-negative Gewinne zu erzielen, während L - F Unternehmen, die den Markt nicht betreten können, keine positiven Gewinne erwirtschaften würden.

Die Eintrittsentscheidung hängt also nicht nur von den fixen Kosten ab, sondern auch von den Marktstrukturen und der Möglichkeit, durch eine geschickte Preissetzung höhere Gewinne zu erzielen. Wenn Unternehmen mit einer geringeren durchschnittlichen WAGMES und einem höheren Verhältnis von φ/φ_A in der Lage sind, höhere Markups zu setzen und größere Marktanteile zu erlangen, erzielen sie höhere variable Gewinne.

In Bezug auf die Existenz und Einzigartigkeit eines solchen Marktes unter der Annahme additiver Separabilität von Präferenzen ist es wichtig, die spezifische Struktur der Präferenzen zu verstehen, die den Konsumenten zugrunde liegt. In diesem Modell wird angenommen, dass Konsumentenpräferenzen über verschiedene Güter in separierbare und additive Subfunktionen unterteilt sind, was zu einer spezifischen Nachfrageelastizität führt, die für die Preisbildung von entscheidender Bedeutung ist.

Die wichtigsten Annahmen in diesem Kontext sind, dass Konsumentenpräferenzen durch eine additiv-separierbare Nutzenfunktion dargestellt werden, bei der jede Sub-Nutzenfunktion für jedes Gut ansteigt und konkav ist. Solche Präferenzen erzeugen eine inverse Nachfragefunktion, die die Preissetzung und die Marktverteilung von Gütern beeinflusst.

Schließlich ist es wichtig zu betonen, dass dieses Modell ein entscheidendes Werkzeug zur Analyse von Märkten unter monopolistischer Konkurrenz darstellt. Die Interaktionen zwischen Preisbildung, Markteintritt und Wettbewerbseffekten sind komplex und hängen eng von den jeweiligen Marktbedingungen, den Eintrittsbarrieren und der Preiselastizität ab. Das Verständnis dieser Zusammenhänge ist von zentraler Bedeutung für die Marktanalyse und die Bewertung von Politikmaßnahmen, die auf die Förderung von Wettbewerb abzielen.