Besser als ChatGPT? Chinas Open-Source-KI mischt Silicon Valley auf
China mischt den KI-Markt auf: Mit DeepSeek R1 tritt ein neues Sprachmodell an, das leistungsstark, effizient und quelloffen ist.
Die Open-Source-KI verspricht präzisere Antworten durch spezialisierte Submodelle und soll sich als ernsthafte Konkurrenz zu ChatGPT-4 etablieren. Doch während die neue KI technologisch beeindruckt, bleiben Fragen zu Datenschutz, Trainingsdaten und staatlicher Einflussnahme offen. Ist es eine echte Alternative oder birgt es zu viele Risiken?
Die Entstehung von DeepSeek
Hinter DeepSeek steht der 40-jährige Informatikingenieur Liang Wenfeng aus der südchinesischen Provinz Guangdong – ein ehemaliger Hedgefonds-Manager, der sich bereits intensiv mit KI-gestützten Handelsstrategien beschäftigt hat. 2023 gründete er in Hangzhou das Unternehmen DeepSeek, das sich mit seinem innovativen Ansatz schnell einen Namen machte:
Statt auf ein einziges, umfassendes Modell zu setzen, nutzt DeepSeek mehrere spezialisierte Submodelle, die jeweils für bestimmte Fachgebiete wie Medizin, Technik oder Recht optimiert sind. Diese Submodelle arbeiten zusammen und werden fortlaufend aktualisiert, sodass sie präzisere und ressourcenschonendere Antworten liefern können.
Dieser neuartige Ansatz macht DeepSeek R1 besonders effizient und ermöglicht eine höhere Genauigkeit. Im Januar 2025 brachte DeepSeek R1 sein Debüt auf den Markt und wird seither als ernsthafte Alternative zu etablierten Modellen wie ChatGPT gehandelt.
Was genau ist DeepSeek?
DeepSeek R1 ist ein KI-gestütztes Sprachmodell, das Texte versteht, analysiert und detaillierte Antworten liefert. Nutzende können es für verschiedene Aufgaben einsetzen: Texte verfassen, Übersetzungen anfertigen, komplexe Fragen beantworten oder Programmierhilfe erhalten.
Die Nutzung ist einfach: DeepSeek kann über eine Web-App oder mobile Apps direkt ausprobiert werden. Es gibt sowohl eine kostenlose Version als auch eine kostenpflichtige Premium-Variante mit erweiterten Funktionen und schnellerer Rechenleistung. Wer das Modell lokal betreiben möchte, kann auf die Open-Source-Version zugreifen.
Trainiert wurde das Sprachmodell überwiegend mit chinesischen und englischen Trainingsdaten – Eingaben auf Deutsch funktionieren auch, jedoch kann es teilweise noch zu Antworten auf Englisch kommen.
Wer ist besser: DeepSeek und ChatGPT im Vergleich
DeepSeek R1 basiert auf einem Large Language Model (LLM) und verwendet neuronale Netze, um Texte zu analysieren und fundierte Antworten zu generieren. Ein besonderes Merkmal ist sein „Reasoning-Ansatz“: Das Modell macht Denkprozesse transparenter, was zu besser nachvollziehbaren Ergebnissen führt. Wie ChatGPT von OpenAI, Googles Gemini und Metas Llama verarbeitet DeepSeek riesige Mengen an Textdaten, um Sprache zu verstehen und kohärente Antworten zu generieren. Dabei berechnet es Wahrscheinlichkeiten für Wörter und deren Reihenfolge, um die plausibelste Antwort zu erstellen.
Ein wesentlicher Unterschied ist, dass DeepSeek kontinuierlich mit neuen Datensätzen aktualisiert wird. Während viele KI-Modelle auf einen festen Trainingszeitraum begrenzt sind, bleibt DeepSeek durch regelmäßige Updates auf dem neuesten Stand. Zudem soll es laut den Entwickler:innenn besser auf Fehleingaben hinweisen und potenziell unsichere Antworten herausfiltern.
Ein weiterer Unterschied zu den bisher bekannten KI-Modellen ist die Struktur von DeepSeek. Statt auf ein einziges, universelles Modell zu setzen, kombiniert es mehrere spezialisierte Submodelle. Diese Submodelle sind darauf optimiert, bestimmte Fragestellungen besonders effizient zu beantworten. So gibt es beispielsweise einzelne Modelle, die speziell für juristische, medizinische oder technische Fragen trainiert wurden.

Anstatt also ein einziges großes Modell für alle Themen zu nutzen, leitet DeepSeek Anfragen an die jeweils am besten geeigneten Expertenmodelle weiter. Diese arbeiten dann zusammen, um eine präzisere und effizientere Antwort zu liefern. Das reduziert nicht nur die Rechenlast, sondern verbessert auch die Genauigkeit der Antworten. Lange Zeit galt dieser Ansatz als schwierig umzusetzen, da die Zusammenarbeit mehrerer Modelle Instabilitäten hervorrufen kann. DeepSeek hat jedoch bewiesen, dass diese Methode funktioniert und dabei sogar ressourcenschonender ist als herkömmliche LLMs.
Was unterscheidet DeepSeek von anderen KI-Modellen?
- Effizienz: Das Training von DeepSeek R1 kostete nach Angaben der Hersteller nur 5,6 Millionen Dollar – ein Bruchteil dessen, was andere KI-Modelle verschlingen. Zum Vergleich: Das Training von GPT-3 soll rund 4,3 Millionen Dollar gekostet haben, während GPT-4 mit etwa 78,3 Millionen Dollar zu Buche schlägt. Zudem nutzt
edas Unternehmen weniger und teilweise nicht mehr ganz aktuelle Hardware, was die Kosten weiter senkte.
- Hardware-Optimierung: Trotz US-Exportbeschränkungen konnte sich DeepSeek frühzeitig mit Nvidias A100-Chips eindecken. Diese Hardware-Beschränkungen zwangen das Unternehmen zu innovativen Lösungen, darunter eine optimierte Nutzung von Grafikprozessoren. Die genaue Anzahl der eingesetzten Chips ist unklar, Schätzungen liegen laut MIT Technology Review zwischen 10.000 und 50.000 Einheiten. In einem Interview mit der New York Times gaben die DeepSeek-Entwickler sogar an, lediglich 2.000 Chips verwendet zu haben.
- Open Source: Im Gegensatz zu vielen KI-Anbietern setzt DeepSeek auf einen frei verfügbaren Quellcode. Dies fördert Transparenz und Innovation, birgt aber auch Sicherheitsrisiken.
- Regelmäßige Aktualisierung: Während viele KI-Modelle nur mit festen Datensätzen arbeiten, wird DeepSeek laufend mit neuen Informationen aktualisiert.
- Fokus auf Fachwissen: Während ChatGPT sich für allgemeine Gespräche eignet, ist DeepSeek speziell darauf ausgelegt, präzise Fachauskünfte in Bereichen wie Medizin, Recht oder Technik zu liefern.
Die unbekannte Herkunft der Trainingsdaten
Ein zentraler Kritikpunkt ist die Intransparenz hinsichtlich der Herkunft der Trainingsdaten. Woher bezieht DeepSeek sein Wissen? Während viele KI-Anbieter nur begrenzte Einblicke in ihre Datenquellen gewähren, sind die Praktiken von DeepSeek aufgrund der lockeren Datenschutzgesetze in China besonders intransparent. Experten vermuten, dass das Unternehmen auf Webscraping-Techniken zurückgreift und möglicherweise auch synthetische oder unrechtmäßig erlangte Daten verwendet. Laut einem Bericht der Financial Times gehen OpenAI-Entwickler:innen davon aus, dass DeepSeek möglicherweise durch “Destillierung” illegal Trainingsdaten von ChatGPT genutzt hat, um das eigene Modell zu optimieren.

Gut zu wissen: Auch ChatGPT steht wegen seiner Trainingsdaten in der Kritik. OpenAI gibt nicht genau an, welche Quellen genutzt wurden, doch es gibt Vorwürfe, dass urheberrechtlich geschützte Texte ohne Erlaubnis verwendet wurden. Mehrere Verlage, darunter die New York Times, haben Klagen eingereicht. Zudem besteht der Verdacht, dass Web-Scraping und lizenzpflichtige Inhalte Teil des Trainings waren. Während DeepSeek vor allem wegen Datenschutz und politischer Kontrolle hinterfragt wird, stehen bei ChatGPT eher Urheberrechtsfragen und die Intransparenz der Datenquellen im Fokus.
Datenschutz und Sicherheitsbedenken
DeepSeek speichert seine Nutzerdaten auf Servern in China – ein Umstand, der Datenschutzexperten beunruhigt. Während eine Open-Source-Version existiert, die sich lokal betreiben lässt, bleibt das Vertrauen in die Plattform fraglich. Es fanden bereits mehrere Cyberattacken auf das Modell statt, sodass die Registrierung neuer Nutzer:innen zeitweise ausgesetzt werden musste. Kritiker:innen sehen in der Datennutzung ein erhebliches Risiko, insbesondere für westliche Unternehmen und Institutionen.

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
Gibt es bei DeepSeek Zensur und politische Kontrolle?
Ein weiteres heikles Thema ist die staatliche Regulierung. DeepSeek unterliegt den chinesischen Vorschriften und filtert politisch sensible Inhalte heraus.
Konkret bedeutet das, dass DeepSeek R1 bestimmte Themen und Begriffe automatisch filtert oder Antworten verweigert. So bleiben direkte Anfragen zu kontroversen politischen Ereignissen – etwa dem Tiananmen-Massaker von 1989, der Unabhängigkeitsbewegung in Hongkong oder der Menschenrechtssituation in Xinjiang – unbeantwortet oder werden mit neutralen, regierungsfreundlichen Formulierungen umgangen. Diese Filtermechanismen sind tief in das Modell integriert und sorgen dafür, dass selbst indirekte oder umformulierte Fragen oft keine kritischen Antworten liefern.

Allerdings zeigt sich, dass Nutzer:innen bereits Wege gefunden haben, die Zensur zu umgehen. Durch kreative Fragetechniken, metaphorische Sprache oder verschleierte Anfragen lassen sich in manchen Fällen dennoch indirekte Informationen abrufen.
Diese staatlich verordnete Kontrolle steht im starken Kontrast zu westlichen KI-Modellen wie ChatGPT von OpenAI, Gemini von Google oder Llama von Meta. Diese Anbieter setzen eher auf selbstauferlegte ethische Richtlinien, die zwar ebenfalls Inhalte filtern – etwa bei Hassrede, Desinformation oder gewaltverherrlichenden Inhalten –, sich jedoch nicht auf staatliche Vorgaben einer bestimmten Regierung stützen. Kritiker:innen sehen in dieser Form der Zensur eine Bedrohung für Meinungsfreiheit und Informationsvielfalt, insbesondere wenn sich chinesische KI-Modelle global verbreiten und in westlichen Ländern eingesetzt werden.
Letztlich bleibt die Frage offen, wie transparent DeepSeek in Zukunft mit diesen Beschränkungen umgehen wird – und ob das Modell sich außerhalb Chinas von diesen Vorgaben lösen kann.
Fazit: Eine ernsthafte Konkurrenz oder eine riskante Wahl?
DeepSeek R1 bringt frischen Wind in die KI-Landschaft und beweist, dass innovative KI-Modelle nicht zwangsläufig Milliardenbudgets benötigen. Auch hierzulande könnte der vereinfachte technische Ansatz von DeepSeek Entwickler ermutigen, die KI-Landschaft mitzugestalten. Gleichzeitig bleiben viele Fragen offen – insbesondere hinsichtlich Datenschutz, Transparenz und politischer Einflussnahme.
Wer eine leistungsfähige, lokal einsetzbare Open-Source-KI sucht, könnte in DeepSeek eine spannende Alternative zu ChatGPT oder Gemini finden. Doch ob sich das Modell langfristig behaupten kann, hängt nicht nur von seiner technischen Raffinesse ab, sondern auch von der Frage, ob es das Vertrauen der Nutzenden gewinnen kann.
Autorin: Angelika Grüttner