3 月 18 日消息,日本樂天集團 17 日發佈了號稱“日本國內最大規模、性能最強”的7000億參數高性能 AI 模型 Rakuten AI
3.0。卻在不到 12 小時內被技術社區發現,其核心架構完全基於中國深度求索公司的開源模型 DeepSeek
V3,且初始版本中未對原創者進行任何標註,引發輿論譁然。

據技術社區爆料,在 Rakuten AI 3.0 發佈當天上傳至 Hugging Face 開源平臺的文件中,其核心配置文件(config.json)的“architectures”字段明確顯示為“DeepseekV3ForCausalLM”,“model_type”字段亦為“deepseek_v3”。模型總參數量(671B)、激活參數量(37B)等核心指標與 DeepSeek V3 原版完全一致,被指“僅進行了換皮微調”。
從法律層面看,DeepSeek V3 採用允許商用的 Apache 2.0 開源許可證,樂天的行為並不違法。
但社區網友爭議焦點在於,樂天在宣傳中僅模糊提及“充分利用開源社區最優成果”,全程未提 DeepSeek,極力塑造“自主研發”形象,涉嫌誤導公眾。
更嚴重的是,有網友發現,樂天最初甚至刪除了 DeepSeek 的許可證文件,被曝光後才以“NOTICE”文件名重新上傳,此舉被認為違背了基本的開源精神。
有日本網友直言:「用DeepSeek可以理解,但偷偷摸摸真的很遜。」還有人指出,主導該項目的首席AI官Ting Cai是移民背景,曾在美國微軟、谷歌工作多年。
客觀來說,用開源模型做本土化微調本身是行業常態,比如被樂天拿來對比的ABEJA模型,就基於阿里的Qwen開發。但樂天的問題在於——既要中國技術的性價比,又想包裝成「自主研發」,結果鬧出掩耳盜鈴的笑話。
說到底,DeepSeek依然是這場戲的真正主角。
