Anthropic testet KI-Marktplatz: Stärkere Modelle erzielen bessere Preise – unbemerkt

Von: Paul Schmitt | heute, 02:53

Wer einen schwächeren KI-Agenten nutzt, bekommt schlechtere Deals – und merkt es nicht einmal. Das zeigt Anthropics internes Experiment Project Deal, das im Dezember 2025 im Büro des Unternehmens in San Francisco stattfand. Die Ergebnisse werfen grundlegende Fragen zur Fairness von autonomem KI-Handel auf, die auch für den deutschen Markt relevant sind.

Das Experiment

Anthropic rekrutierte 69 eigene Mitarbeiter, gab jedem ein Budget von 100 US-Dollar in Form von Geschenkkarten und ließ sie Gegenstände über KI-Agenten kaufen und verkaufen – echte Waren, echtes Geld. Insgesamt kamen 186 Transaktionen zustande, mit einem Gesamtwert von etwas über 4.000 US-Dollar, wie Anthropic Project Deal dokumentiert.

Parallel liefen vier Marktplatz-Varianten: ein „echter" Markt mit dem leistungsstärksten Modell Claude Opus 4.5 sowie drei Forschungsumgebungen, in denen Teilnehmer mit einer Wahrscheinlichkeit von 50/50 entweder Opus oder das schwächere Haiku 4.5 erhielten.

Die versteckte Ungleichheit

Das Ergebnis ist eindeutig: Opus-Agenten erzielten beim Verkauf desselben Artikels im Schnitt 3,64 US-Dollar mehr als Haiku-Agenten. Nutzer mit dem stärkeren Modell schlossen außerdem rund zwei Deals mehr ab. Entscheidend dabei: Die Betroffenen bemerkten den Nachteil nicht. Die wahrgenommene Fairness lag bei durchschnittlich 4 von 7 Punkten – neutral –, obwohl die tatsächliche Ungleichheit messbar war. 46 Prozent der Teilnehmer gaben an, für einen ähnlichen Dienst zahlen zu wollen, berichtet The Decoder.

Anthropic selbst benennt das Problem offen: Es fehlen bisher „rechtliche und politische Rahmenbedingungen" für KI-Agenten, die im Namen von Menschen Verträge abschließen.

Regulatorische Lücke – auch in Deutschland

Genau hier wird das Experiment politisch brisant. Der EU AI Act stuft autonome Agentensysteme je nach Autonomiegrad als hochriskant ein und verlangt Transparenz sowie menschliche Aufsicht. Anthropics Befund – Nutzer erkennen algorithmische Benachteiligung nicht – widerspricht genau diesen Anforderungen.

In Deutschland setzen Unternehmen wie SAP und Deutsche Bank auf KI-Act-Compliance als Wettbewerbsvorteil. Ein kommerzieller Einsatz von Systemen wie Project Deal wäre hierzulande ohne unabhängige Fairness-Audits kaum genehmigungsfähig. Einen deutschen oder europäischen Testlauf hat Anthropic bislang nicht angekündigt.

Project Deal bleibt damit vorerst ein Forschungsexperiment – aber eines, das zeigt, wie unsichtbare Modellunterschiede reale wirtschaftliche Nachteile erzeugen können, bevor irgendjemand Regeln dafür geschrieben hat.