
[ad_1]


Es gebe Hinweise darauf, dass DeepSeek eine Technik namens „Destillation“ verwendet habe, behauptet OpenAI. Dabei werden die Antworten eines großen, komplexen Sprachmodells verwendet, um ein kleineres, ressourcensparendes Sprachmodell zu erzeugen. Dabei habe DeepSeek allerdings nicht eigene LLMs als Basis verwendet, sondern ChatGPT-Antworten destilliert, so der Vorwurf. Dies sei eine in den Nutzungsbedingungen von OpenAI explizit untersagte Nutzung. David Sacks, Beauftragter für KI-Fragen der US-Regierung, sprang dem Unternehmen bei und wiederholte den Vorwurf: Es gebe „Beweise dafür, dass DeepSeek das Wissen aus OpenAI-Modellen destilliert hat, und ich glaube nicht, dass OpenAI sehr glücklich darüber ist.“
Verwendung von Quellmaterial umstritten
Das News-Portal 404Media sieht eine gewisse Ironie in der Beschwerde von OpenAI, dass ihr Material als Basis für LLM-Training verwendet werde, während der Konzern selbst wegen unerlaubter Verwendung urheberrechtlich geschützten Materials vor Gericht steht: Die New York Times sieht die Verwendung ihrer Artikel als Material für KI-Training nicht vom Fair-Use-Prinzip gedeckt. DeepSeek selbst antwortete bisher nicht auf Vorwürfe, was dem aktuellen chinesischen Neujahrsfest zugeschrieben wird. In einer wissenschaftlichen Veröffentlichung heben die DeepSeek-Forscher allerdings ihren neuartigen Ansatz hervor: Mit der ihrer „Reinforcement Learning“ genannten Strategie sei ein deutlich effizienteres Training großer Sprachmodelle möglich.
[ad_2]
Source link