复工首日 DeepSeek 婉拒所有采访,有人已蹲守 5 次、日韩媒体来得最多

据都市日报报道指出,2 月 5 日上午 8 点半,陆续有媒体来访,汇金国际大厦的物业临时提升了安保力度,进入 DeepSeek 所在楼的所有人员都需要保安核实。

节后复工首日,DeepSeek 公司所在地汇金国际大厦吸引不少媒体前来采访。

据都市日报报道指出,2 月 5 日上午 8 点半,陆续有媒体来访,汇金国际大厦的物业临时提升了安保力度,进入 DeepSeek 所在楼的所有人员都需要保安核实。

复工首日 DeepSeek 婉拒所有采访,有人已蹲守 5 次、日韩媒体来得最多

报道还提到,除了少数本地媒体,这次来得最多的是日韩媒体,光韩国媒体就来了三家:韩国《世界日报》、韩国《文化日报》和韩国《EDaily》。此外,还有中国香港的《南华早报》。日本《读卖新闻》已经是第五次来访,决心一定要采访 DeepSeek。

不过报道称,当日上午 9:05 分,经过物业的反馈,DeepSeek 方面婉拒了所有采访,称将专注于自己的研究和发展。

据AI在线此前报道,DeepSeek 上线 R1 大模型后引发全球热议,韩国政府甚至直接称 DeepSeek 带来冲击,将尽快成立一个“国家 AI 委员会”。

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与