Chinas künstliche Intelligenz DeepSeek entpuppte sich als Fälschung: Ihre Aufgabe wurde von Tausenden von automatisch übersetzten Arbeitern übernommen

Von: Technoslav Bergamot | 01.04.2025, 10:30

Der chinesische Entwickler von künstlicher Intelligenz DeepSeek steht im Zentrum eines Skandals: Anstelle von leistungsstarken Servern, Algorithmen, neuronalen Netzen und maschinellem Lernen setzte das Unternehmen Tausende von lebenden, schlecht bezahlten Arbeitern ein, die im DeepSeek-Chatbot auf Nutzer mit maschineller Übersetzung antworteten, wofür die 6 Millionen Dollar tatsächlich ausgegeben wurden.

Das Unternehmen hielt es lange Zeit geheim, bis einer der Arbeiter einen Fehler machte und nach dem Copy-Paste in der Antwort "Übersetzt für iPhone 6" löschte. Die Online-Community führte daraufhin ihre eigenen "Ermittlungen" durch, die das ganze Theater ans Licht brachten.

DeepSeek begann sofort, die Anschuldigungen zu bestreiten und behauptete, dass es sich um ein "Experiment zur Vermenschlichung künstlicher Intelligenz" handele und dass ihr Modell "tatsächlich extrem fortschrittlich ist - es ist einfach sehr empathisch". In der Erklärung der Pressestelle wurde sogar darauf hingewiesen, dass "Menschen auch eine Art biologischer Algorithmus sind", was bedeutet, dass es technisch gesehen keine Täuschung gab.

In der Zwischenzeit ist es ehemaligen Mitarbeitern bereits gelungen, eine Gewerkschaft namens "Living Neurons" zu gründen und Überstundenzuschläge für Nachtschichten zu fordern. Einer von ihnen, der anonym bleiben wollte, gestand:

Wir hatten eine Liste mit den beliebtesten Phrasen und übersetzten sie aus dem Gedächtnis. Wenn wir sie nicht kannten, schrieben wir sie vom Übersetzer ab und fügten eine kleine Motivation hinzu. Ich persönlich habe Kunden dreimal Zitate aus dem Film Mulan geschickt, anstatt eine technische Frage zur API zu beantworten.

Im Internet wird DeepSeeka bereits als"Chatbot mit menschlicher Unterstützung" bezeichnet, und es wird gewitzelt, dass das Unternehmen über Genuine People Units anstelle von GPUs verfügt. Die Nachricht hat sogar Musk erreicht, der getwittert hat:

Amazed. Das ist wie ChatGPT, nur mit RSI und einer Mittagspause.

RSI steht für Repetitive Strain Injury (repetitive Belastungsverletzung), also für sich wiederholende Belastungen. Eine typische Nebenwirkung für Büroangestellte, Übersetzer, Werbetexter und - wie man sieht - auch für die "lebenden neuronalen Netze" in DeepSeek. Im Kontext von Musks Scherz klingt das wie: "Ja, die KI bei DeepSeek ist echt - sie leidet sogar an RSI wie jeder Büroangestellte, der schon hundertmal die gleichen Fragen beantwortet hat."

Samuel Harris Altman, CEO von OpenAI, dem Entwickler von ChatGPT, kommentierte:

"Es sieht aus wie eine Rückkehr zu Mechanical Turk, nur im Turbo-Modus.

Mechanical Turk (oder "Mechanischer Türke") ist das Konzept, Menschen einzusetzen, die vorgeben, Maschinen zu sein. Im 18. Jahrhundert schuf der österreichische Erfinder Wolfgang von Kempelen einen "Schachautomaten", den er Mechanical Turk nannte. Es handelte sich um einen hölzernen Schrank mit Figuren, in dem angeblich eine Maschine saß, die Menschen im Schachspiel schlagen konnte. In Wirklichkeit versteckte sich darin ein echter Schachspieler, der die Figuren steuerte - es handelte sich lediglich um einen spektakulären Schwindel, um die europäischen Monarchen zu verblüffen.

Die Marktanalysten sind schockiert: Die Aktien des Unternehmens fallen und steigen, weil niemand weiß, ob es sich um einen Fehlschlag oder eine Glanzleistung handelt. Aber wenn Ihre KI sagt: "Entschuldigung für den Fehler, ich bin auch nur ein Mensch", dann lügt sie vielleicht wirklich nicht.