Effizientere KI „Made in China“? Was Deepseek wirklich kann

#image_title

[ad_1]

Künstliche Intelligenz
Effizientere KI „Made in China“? Was Deepseek wirklich kann

Anbieter zum Thema

Börsencrash, KI-Schock, China-Offensive: Die Nachrichten überschlugen sich in dieser Woche. Schuld daran war ein neues KI-Modell aus China. Ist der Hype gerechtfertigt?

Deepseek hat die westliche KI-Welt erschüttert. (Bild:  pla2na - stock.adobe.com)
Deepseek hat die westliche KI-Welt erschüttert.

(Bild: pla2na – stock.adobe.com)

Am Montag platzte eine Bombe in der KI-Branche: Ein chinesisches Unternehmen veröffentlichte mit dem KI-Modell Deepseek R1 seine Antwort auf ChatGPT. Laut Berichten erzielt das Open-Source-Modell Ergebnisse auf dem Niveau der GPT-Modelle, soll dabei jedoch wesentlich effizienter arbeiten und wurde angeblich deutlich günstiger entwickelt. Lediglich 5 bis 6 Millionen Dollar soll Deepseek investiert haben. Die Reaktionen am Markt folgten prompt. Die Aktie von Nvidia verlor kurzfristig bis zu 17 Prozent und damit einen Börsenwert von fast 600 Milliarden Dollar, bevor sie sich teilweise wieder erholte. Investoren fürchteten offenbar, dass günstigere Open-Source-Modelle aus China die Branche dominieren könnten. Doch nach dem Schock kamen die ersten Zweifel an der Nachricht auf. Wie realistisch sind die Angaben von Deepseek? Marco Huber, wissenschaftlicher Direktor Digitalisierung und KI sowie Leiter des Forschungsbereichs KI und maschinelles Sehen am Fraunhofer IPA, hat einen Blick auf die Kosten- und Recheneffizienz geworfen.

So gibt Huber zu bedenken, dass sich die 5 bis 6 Millionen Dollar Entwicklungsaufwendungen auf die reinen Cloud-Kosten für das Training beziehen. „Die tatsächlichen Ausgaben, einschließlich der Hardware-Investitionen und die Kosten für den laufenden Betrieb, sind erheblich höher“, so der KI-Experte. Demnach habe der chinesischen Hedge Funds High-Flyer Capital 50.000 Nvidia H100 GPUs im Wert von rund 1,5 Milliarden Dollar erworben – und das, obwohl die Ausfuhr von KI-Chips nach China von den USA sanktioniert wird. Deepseek ist eine Tochterfirma von Captial. „Daher sind die Angaben zu Kosten mit Vorsicht zu betrachten und könnten den tatsächlichen Ressourcenaufwand unterschätzen“, sagt Huber. Die heftige Reaktion der Märkte hält der Wissenschaftler daher für übertrieben: „Gerade Nvidia wird durch Deepseek deutlich weniger herausgefordert, da Nvidia insbesondere die Hardware und auch das Software-Ökosystem für das Training solcher Modelle bereitstellt.“

Deepseek unterliegt chinesischer Zensur

Auf der technischen Seite scheint das Hauptmodell Deepseek R1 des chinesischen Unternehmens durchaus in der Liga von GPT-4.0 oder Claude 3.5 mitspielen zu können. Für die Effizienz des Modells sieht Huber vor allem zwei Gründe: Es wurde auf die Ausführung auf leistungsschwächerer GPU-Hardware optimiert. Außerdem handelt es sich bei R1 um ein sogenanntes Mixture of Experts (MoE) Modell, welches sich aus mehreren kleineren spezialisierten Modellen zusammensetzt. „Die selektive Aktivierung von Modellen führt zu schnelleren Antwortzeiten“, erklärt Huber. Die Kombination von MoE, Reinforcement Learning und Model Distillation sei ein innovativer Ansatz für die KI-Entwicklung, die leistungsstarke Modelle effizienter und zugänglicher machen könnte. Huber: „Allerdings sollte der aktuelle Hype kritisch hinterfragt werden. Die präsentierten Kostenvorteile könnten durch nicht berücksichtigte Investitionen relativiert werden, und die tatsächliche Leistungsfähigkeit des Modells muss sich erst in der Praxis beweisen.“ Eine Revolution in der KI-Entwicklung sehe er daher noch nicht.

Kritik an dem Modell kam auch schnell in den Medien und sozialen Netzwerken auf. Zahlreiche Nutzer von Deepseek wiesen auf Fälle der Zensur hin. Fragen nach Tibet, der Unterdrückung der Uiguren durch die chinesische Regierung oder dem blutig niedergeschlagenen Protest auf dem Tian’anmen-Platz 1989 will das KI-Modell nicht beantworten. Das „Handelsblatt“ befragte das Modell zum Verhältnis von China und Taiwan, worauf der Chatbot die offizielle chinesische Propaganda wiedergab: Taiwan gehöre zu China und man hoffe, dass Taiwan das bald erkenne. Der „Bayerische Rundfunk“ hat zudem einen Blick in die Datenschutzrichtlinien geworfen und festgestellt, dass Deepseek alle gesammelten Informationen auf chinesischen Servern speichert. Dazu gehören Chat-Verläufe, Nutzereingaben sowie hochgeladene Dateien. Experten empfehlen deshalb, das Open-Source-Modell auf einem eigenen Server zu hosten. Anbieter wie Perplexity nutzen dies bereits und betreiben das Modell auf EU- und US-Servern.

Immer leistungsstärkere Sensoren und Kameras sorgen für eine Explosion von Beobachtungsdaten im All, die aber mit den derzeitigen Übertragungsmethoden nicht mehr schnell genug auf der Erde ausgewertet werden können. China soll nun einen großen Schritt vorangekommen sein. (Bild: 3dsculptor - stock.adobe.com)

Für Unternehmen, die selbst Large Language Models (LLMs) entwickeln, wie etwa OpenAI, Amazon oder Meta, sei die Situation brisant. Diese werden sich laut Huber das Open-Source-Modell nun genauer anschauen und ihre eigenen Schlüsse für die Entwicklung ihrer Modelle ziehen. Bereits ein geleaktes Google-Dokument aus dem Frühjahr 2023 offenbarte, dass Open-Source-Modelle eine ernsthafte Konkurrenz darstellen. „Folglich werden Faktoren wie Innovationskraft, Marktposition und Anpassungsfähigkeit dieser Unternehmen entscheidend sein“, sagt der KI-Experte. Deepseek zeige, dass der Wettbewerb in der KI-Branche zugenommen hat.

(ID:50303239)

[ad_2]

Source link