DeepSeek V3“报错家门”:我是ChatGPT

要说这两天大模型圈的顶流话题,那绝对是非DeepSeek V3莫属了。 不过在网友们纷纷测试之际,有个bug也成了热议的焦点——只是少了一个问号,DeepSeek V3竟然称自己是ChatGPT。 甚至让它讲个笑话,生成的结果也是跟ChatGPT一样:加之DeepSeek V3这次爆火的一个亮点,就是训练只花了557.6万美元的成本。

要说这两天大模型圈的顶流话题,那绝对是非DeepSeek V3莫属了。

不过在网友们纷纷测试之际,有个bug也成了热议的焦点——

只是少了一个问号,DeepSeek V3竟然称自己是ChatGPT。

DeepSeek V3“报错家门”:我是ChatGPT

甚至让它讲个笑话,生成的结果也是跟ChatGPT一样:

DeepSeek V3“报错家门”:我是ChatGPT

加之DeepSeek V3这次爆火的一个亮点,就是训练只花了557.6万美元的成本。

于是乎,有人就开始怀疑了:它不会是在ChatGPT的输出基础上训练的吧?

好巧不巧,Altman也发了一个状态,似乎在暗讽着什么……

DeepSeek V3“报错家门”:我是ChatGPT

不过DeepSeek V3并非是第一个出现“报错家门”的大模型。

例如Gemini就曾说过自己是百度的文心一言……

DeepSeek V3“报错家门”:我是ChatGPT

那么这到底是怎么一回事?

为什么DeepSeek V3报错家门?

首先需要强调的一点是,从目前网友们整体讨论的观点来看,说DeepSeek V3是在ChatGPT输出上训练的可能性不大

DeepSeek V3“报错家门”:我是ChatGPT

之所以这么说,正如网友Riley Goodside所总结的那样——因为ChatGPT的影子无处不在。

即便DeepSeek V3故意用ChatGPT的输出做了训练,但这并不重要。所有在ChatGPT之后出现的大模型,几乎都见过它。

例如ShareGPT,一个并不新鲜的ChatGPT对话数据集,许多人已经尝试在它和其它ChatGPT数据源上进行调整。但即便如此,也没能出现DeepSeek V3级别的大模型。

DeepSeek V3“报错家门”:我是ChatGPT

紧接着,Riley Goodside又拿出了DeepSeek V3报告中的一些证据:

而且要是用了ChatGPT数据的话,有些关于DeepSeek V3质量的问题是解释不通的。

例如Pile测试(基础模型压缩Pile的效果),DeepSeek V3得分几乎与Llama 3.1 405B相当,这跟它接没接触ChatGPT数据无关。

而且报告称95%的GPU-hours用于预训练基础模型,即便是跟ChatGPT数据有关,那这部分也会在post-training阶段发生(后5%)。

DeepSeek V3“报错家门”:我是ChatGPT

而比起用没用ChatGPT数据,或许我们应当更加关注的是为什么大模型会频繁出现“报错家门”的问题。

TechCrunch针对这个问题给出了一句犀利的点评:

因为AI公司们获取数据的地方——网络,正在充斥着AI垃圾。

毕竟欧盟的一份报告曾预测,到2026年,90%的在线内容可能是AI生成的。

这种“AI污染”就会让“训练数据彻底过滤AI的输出”变得困难。

DeepSeek V3“报错家门”:我是ChatGPT

AI Now Institute的首席科学家Heidy Khlaaf则表示:

尽管存在风险,开发者依然被从现有AI模型中“蒸馏”知识所带来的成本节约所吸引。

意外地在ChatGPT或GPT-4输出上进行训练的模型,也不一定会展示出让人想起OpenAI定制消息的输出。

那么现在对于网友们热议的问题,量子位进行了一波实测,DeepSeek V3目前还没有解决这个bug。

依旧是少了个问号,回答结果会不一样:

DeepSeek V3“报错家门”:我是ChatGPT

DeepSeek V3更多玩法

不过有一说一,绝大部分网友对于DeepSeek V3的能力是给予了大大的肯定。

从各路AI大佬们集体直呼“优雅”中就能印证这一点。

而就在这两天,网友们陆续晒出了更多DeepSeek V3加持的实用玩法

例如有网友拿DeepSeek V3和Claude Sonnet 3.5一决高下,在Scroll Hub中分别用它俩创建网站

DeepSeek V3“报错家门”:我是ChatGPT

博主在测试之后,认为DeepSeek V3完全胜出!

还有网友分享了用DeepSeek V3在AI视频编辑器中的体验。

他表示以后不用再在FFMPEG命令上浪费时间了,DeepSeek V3不仅免费,还能改变你的工作流程:

DeepSeek V3“报错家门”:我是ChatGPT

AI编程神器Cursor也能跟DeepSeek V3结合,来看一个做贪吃蛇的案例:

DeepSeek V3“报错家门”:我是ChatGPT

嗯,DeepSeek V3是有点好用在身上的。

One More Thing

对于此前公布的53页论文,也有网友关注到了一个非技术性的细节——

贡献列表中,不仅展示了技术人员,还有数据注释和商务等工作人员:

DeepSeek V3“报错家门”:我是ChatGPT

网友认为这种做法非常符合DeepSeek的调性:

DeepSeek V3“报错家门”:我是ChatGPT

相关资讯

百分点认知智能实验室:基于不完全标注样本集的信息抽取实践

编者按信息抽取是从文本数据中抽取特定信息的一种技术,命名实体识别(Named Entity Recognition, NER)是信息抽取的基础任务之一,其目标是抽取文本中具有基本语义的实体单元,在知识图谱构建、信息抽取、信息检索、机器翻译、智能问答等系统中都有广泛应用。基于监督学习的NER系统通常需要大规模的细粒度、高精度标注数据集,一旦数据标注质量下降,模型的表现也会急剧下降。利用不完全标注的数据进行NER系统的建立,越来越受到专家学者们的关注。第九届国际自然语言处理与中文计算会议(NLPCC 2020)针对此业

关键点检测项目代码开源了!

作者:闫永强,算法工程师,Datawhale成员 本文通过自建手势数据集,利用YOLOv5s检测,然后通过开源数据集训练squeezenet进行手部关键点预测,最后通过指间的夹角算法来判断具体的手势,并显示出来。文章第四部分为用C 实现整体的ncnn推理(代码较长,可先马后看)一、YOLOV5训练手部检测训练及部署思路类似表情识别,需要将handpose数据集标签改成一类,只检测手部,简化流程,更易上手。此部分数据集来源格物钛  ,具体的效果如图:本教程所用训练环境:系统环境:Ubuntu16.04cuda版本:

5 个章节、25 条规范,全方位 Get 数据集选择与创建的「百科全书」

内容一览:如果你正在学习如何创建或选择一个合适的数据集,那么这篇文章会给你一些实用的建议,帮助你在选择和创建数据集时做出明智的决策。 关键词:机器学习 数据集