问同一个问题 DeepSeek-r1 / Grok-3 / Gemini 2.0 / ChatGPT 的结果出乎意料...

最近在写 TS ,希望实现一个类似 .gitignore 的功能,已有代码如下:复制在 JS 层面使用正则匹配,显然不是什么好方案。 于是整理代码和报错信息,找了四个免费的模型,问问思路。 先说结论:DeepSeek-r1 思考了 298 秒,我一度以为其陷入了死循环,但最后其在第一轮给出的方案,被 Grok-3 、 Gemini 2.0 、 ChatGPT 统统认可是最优方案之一。

最近在写 TS ,希望实现一个类似 .gitignore 的功能,已有代码如下:

复制
/**
 * Check if a file should be ignored based on patterns
 */
export function shouldIgnore(filePath: string, ignorePatterns: string[]): boolean {
  // Simple implementation of glob pattern matching
  return ignorePatterns.some(pattern => {
    if (pattern.endsWith('/**')) {
      const dirPattern = pattern.slice(0, -3);
      return filePath.startsWith(dirPattern);
    } else if (pattern.startsWith('**/*.')) {
      const ext = pattern.slice(3);
      return filePath.endsWith(ext);
    } else if (pattern.includes('*')) {
      const regex = new RegExp('^' + pattern.replace(/\*/g, '.*') + '$');
      return regex.test(path.basename(filePath));
    }
    return filePath.includes(pattern);
  });
}

在 JS 层面使用正则匹配,显然不是什么好方案。单元测试也过不了。

于是整理代码和报错信息,找了四个免费的模型,问问思路。

先说结论:DeepSeek-r1 思考了 298 秒,我一度以为其陷入了死循环,但最后其在第一轮给出的方案,被 Grok-3 、 Gemini 2.0 、 ChatGPT 统统认可是最优方案之一。且后三者都没有在第一轮对话给出这个方案。

下面来看具体过程。

第一轮

第一轮提问第一轮提问

请帮我排查错误原因并修正代码。我希望实现和 .gitignore 一样的效果。如有必要可以引入第三方匹配 lib (比如可以获取更高的性能、更全的功能)

先看最快的三个回答:

Grok-3Grok-3

Grok-3 推荐了 minimatch 工具。

Gemini 2.0 Flash ThinkingGemini 2.0 Flash Thinking

Gemini 2.0 推荐了 micromatch 。

ChatGPTChatGPT

ChatGPT-推理 最原生,推荐了 glob 。

在等了很久后, DeepSeek-r1 终于给出答案。我本来已经对其不抱希望。

DeepSeek-r1DeepSeek-r1

其推荐了 ignore 工具。这大大引起我的兴趣,因为从名字而言,这是和我的 .gitignore 需求最接近的。

到底哪个工具好

于是我又问:minimatch 和 glob 和 ignore 这三个 lib 有什么区别?更推荐哪个?

ChatGPTChatGPTGeminiGeminiGeminiGeminiGrokGrokGrokGrok

显然,最终 Grok 和 Gemini 明显更加推荐 DeepSeek-r1 一开始就推荐的 ignore 工具。

这里很疑惑:

  1. 明明 ignore 最合适,为什么这三家没有想到?(我的首轮提问中明明已经有了 .gitignore 这样的关键词?)
  2. 为什么 DeepSeek-r1 思考了这么久,想到了 ignore ?思考时间与答案质量成正比吗?

但是看起来, DeepSeek-r1 的大部分时间在思考如何写算法。而最后,其才临门一脚想到了 ignore 。感觉本次实验取样不足,没有置信度。

图片

对了,关于第二轮的问题“minimatch 和 glob 和 ignore 这三个 lib 有什么区别?更推荐哪个?”,DeepSeek-r1 是怎么回答的呢?

相关资讯

简单示例提升DeepSeek-R1美国数学邀请赛AIME分数:以步骤为粒度对齐上下文学习与推理

仅需简单提示,满血版DeepSeek-R1美国数学邀请赛AIME分数再提高。 上海交大、港中文、上海AI实验室等带来最新成果BoostStep对齐推理和上下文学习粒度,大幅提升上下文学习性能,突破少样本学习上限。 图片大语言模型使用多步推理解决复杂数学问题,即先将复杂问题分解为多个步骤并逐步进行推理。

天才解法震惊人类!谷歌AI破天荒摘得奥数金牌,横扫IMO 42道几何难题

时隔6个多月,AlphaGeometry 2直接攻下IMO金牌! 刚刚,谷歌DeepMind一篇28页技术报告,公布了AG2最新突破——在2000-2024年IMO几何题上,解题率从54%飙升至84%。 论文地址:(50道),AG2横扫了42道。

如何优化测试时计算?解决「元强化学习」问题

优化大模型的测试时计算是提升模型部署效率和节省计算资源的关键一环。 前段时间,黄仁勋在 CES 2025 的演讲中把测试时 Scaling 形容为大模型发展的三条曲线之一。 如何优化测试时计算成为业界关注的重要课题。