秘塔科技推出 “先想后搜” 研究模式,引领AI搜索新趋势

近日,秘塔科技宣布其 AI 搜索平台上线了全新的研究模式 ——“先想后搜”。 这一创新模式的核心在于让 AI 模型首先提出思考框架与路径,从而为后续的信息整合与分析奠定基础。 通过这种方式,用户能够更高效地获取所需信息,极大地提升了研究效率。

近日,秘塔科技宣布其 AI 搜索平台上线了全新的研究模式 ——“先想后搜”。这一创新模式的核心在于让 AI 模型首先提出思考框架与路径,从而为后续的信息整合与分析奠定基础。通过这种方式,用户能够更高效地获取所需信息,极大地提升了研究效率。

据了解,“先想后搜” 模式采用了 “小模型 + 大模型” 的协同架构。具体来说,涉及深度推理的思考框架和步骤拆解任务交由 DeepSeek R1来完成,而信息搜索与资料整合则是由秘塔自研的模型负责。这种分工合作的方式,使得秘塔在仅仅2到3分钟内就能完成对数百个网页的搜索与分析,展现出了超高的工作效率。

image.png

与传统的研究方式相比,专业研究者往往需要数天的时间来收集和整理资料。然而,秘塔的这一新模式能够在短时间内完成浅度研究(Shallow Research),这对于那些需要快速收集信息以进行初步分析的用户来说,无疑是一个福音。举个例子,如果用户想要计算制造一台《流浪地球》中的行星发动机所需的费用,模型会自动制定研究步骤,并参考288篇相关文献,快速得出结论。

image.png

值得一提的是,秘塔科技表示,他们的研究模式仍在不断优化之中,未来将会加入更多的功能,如代码执行与数值分析等,进一步提升 AI 的研究能力。通过这些努力,秘塔希望能够帮助更多用户在快速变化的信息环境中,准确、高效地获取和分析数据。

相关资讯

七彩虹推出 “虹光 AI” 助手接入全速版 DeepSeek

七彩虹科技正式宣布,其全新的 “虹光 AI” 智能模型助手已全面接入满血版 DeepSeek R1模型。 这一升级使得七彩虹的笔记本产品在性能和推理效率上得到了显著提升。 此次更新的 “虹光 AI” 助手,基于当前热门的 Transformer 架构,并采用了 MLA 与 Deep Seek MoE 技术,显著降低了内存占用,减少了缓存需求,从而提升了整体的推理效率。

阿里云 Qwen2.5-1M 开源发布:100万上下文长度模型登场

继 DeepSeek R1之后,阿里云通义千问团队刚刚宣布推出其最新的开源模型 Qwen2.5-1M,再次引发业界关注。 此次发布的 Qwen2.5-1M 系列包含两个开源模型:Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M。 这是通义千问首次推出能够原生支持百万Token上下文长度的模型,并在推理速度上实现了显著提升。

昆仑万维​天工AI上线DeepSeek R1 + 联网搜索功能,提升智能体验

2月8日,昆仑万维旗下的天工 AI 正式发布了 PC 版的重大更新,推出了 “DeepSeek R1 联网搜索” 功能。 这一新功能不仅解决了用户长期以来对 DeepSeek 联网功能无法使用的问题,还优化了 R1版本在使用过程中的崩溃情况,为用户带来了更为稳定、高效的智能体验。 自2025年1月下旬发布以来,DeepSeek R1模型在全球 AI 领域引起了广泛关注。