软件工程师购得“OGOpenAI.com”域名,将其重定向至 DeepSeek 官网

一位软件工程师购得了“OGOpenAI.com”域名,并将其重定向至中国人工智能实验室 DeepSeek 的官网。DeepSeek 近期在开源 AI 领域引起了大量关注,其发布的先进开源 AI 模型获得广泛赞誉。

一位软件工程师购得了“OGOpenAI.com”域名,并将其重定向至中国人工智能实验室 DeepSeek 的官网。DeepSeek 近期在开源 AI 领域引起了大量关注,其发布的先进开源 AI 模型获得广泛赞誉。

软件工程师购得“OGOpenAI.com”域名,将其重定向至 DeepSeek 官网

这位名为 Ananay Arora 的软件工程师向 TechCrunch 透露,他以“不到一顿 Chipotle 餐的价格”购得该域名,并计划在未来以更高的价格出售。

软件工程师购得“OGOpenAI.com”域名,将其重定向至 DeepSeek 官网

这一举动显然是对 DeepSeek 在开源 AI 领域取得成就的认可。DeepSeek 发布的模型可以被任何拥有必要硬件的开发者免费离线使用,这与 OpenAI 早期发布的 Point-E 和 Jukebox 等模型类似。

AI在线注意到,上周 DeepSeek 发布了其 DeepSeek-R1 模型的开源版本,官方称该模型在某些基准测试中表现优于 OpenAI 的 o1 模型。相比之下,OpenAI 近年来很少以开源形式发布其旗舰 AI 模型,仅有的例外包括 Whisper 等模型。OpenAI 的这种做法引发了 AI 行业的一些批评,甚至埃隆・马斯克(Elon Musk)因此对其提起诉讼,马斯克指控 OpenAI 未能坚守其最初的非营利使命。

Arora 表示,他的灵感来源于 Perplexity 公司首席执行官 Aravind Srinivas 在 X 平台上发布的一篇现已删除的帖子。该帖子将 DeepSeek 与早期更为“开放”的 OpenAI 相提并论。Arora 称:“我觉得,把这个域名重定向到 DeepSeek 会很有趣。”

DeepSeek 与阿里巴巴的 Qwen 等中国 AI 实验室一起,已经成为发布 OpenAI 模型开源替代品的重要力量。

相关资讯

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个

推理性能直逼o1,DeepSeek再次出手,重点:即将开源

DeepSeek 又出手了,这次又是重磅炸弹。 昨晚,DeepSeek 上线了全新的推理模型 DeepSeek-R1-Lite-Preview ,直接冲击 OpenAI o1 保持了两个多月的大模型霸主地位。 在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,DeepSeek-R1-Lite-Preview 模型已经大幅超越了 GPT-4o 等顶尖模型,有三项成绩还领先于 OpenAI o1-preview。