昆仑万维旗下Opera接入DeepSeek R1模型 支持本地个性化部署

2月17日,昆仑万维旗下的Opera团队在Opera Developer中接入了DeepSeek R1系列模型,实现了本地个性化部署。 这一举措标志着Opera在AI技术应用方面的进一步拓展,为用户提供了更强大的本地AI功能。 Opera在2024年率先将内置本地大语言模型(LLM)引入Web浏览器,为用户提供了超过50种LLM的访问权限。

2月17日,昆仑万维旗下的Opera团队在Opera Developer中接入了DeepSeek R1系列模型,实现了本地个性化部署。这一举措标志着Opera在AI技术应用方面的进一步拓展,为用户提供了更强大的本地AI功能。

Opera在2024年率先将内置本地大语言模型(LLM)引入Web浏览器,为用户提供了超过50种LLM的访问权限。此次接入DeepSeek R1系列模型后,Opera Developer利用Ollama框架(由llama.cpp实现),支持用户在本地运行该模型,进一步提升了浏览器的AI能力。

用户可以通过简单的步骤在本地设备上运行DeepSeek R1模型。首先,用户需要下载并更新到最新版本的Opera Developer,打开浏览器并点击左侧边栏中的Aria标识,进入Aria界面后点击左上角的徽标展开聊天历史记录。接着,进入设置菜单,点击“本地AI模型”选项。在搜索框中输入“deepseek”,选择并下载其中一个模型。下载完成后,用户只需打开一个与Aria的新聊天窗口,并选择刚刚下载的模型即可使用。

微信截图_20250220085630.png

Opera为用户提供了多种DeepSeek R1模型选择,用户可以根据个人设备的运行能力选择合适的模型。

此次Opera接入DeepSeek R1模型,不仅为用户提供了更强大的本地AI功能,也进一步推动了AI技术在浏览器领域的应用和普及。Opera Developer的这一更新,为用户带来了更个性化、更高效的AI体验,同时也展示了昆仑万维在AI技术领域的持续创新和应用能力。

相关资讯

七彩虹推出 “虹光 AI” 助手接入全速版 DeepSeek

七彩虹科技正式宣布,其全新的 “虹光 AI” 智能模型助手已全面接入满血版 DeepSeek R1模型。 这一升级使得七彩虹的笔记本产品在性能和推理效率上得到了显著提升。 此次更新的 “虹光 AI” 助手,基于当前热门的 Transformer 架构,并采用了 MLA 与 Deep Seek MoE 技术,显著降低了内存占用,减少了缓存需求,从而提升了整体的推理效率。

阿里云 Qwen2.5-1M 开源发布:100万上下文长度模型登场

继 DeepSeek R1之后,阿里云通义千问团队刚刚宣布推出其最新的开源模型 Qwen2.5-1M,再次引发业界关注。 此次发布的 Qwen2.5-1M 系列包含两个开源模型:Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M。 这是通义千问首次推出能够原生支持百万Token上下文长度的模型,并在推理速度上实现了显著提升。

昆仑万维​天工AI上线DeepSeek R1 + 联网搜索功能,提升智能体验

2月8日,昆仑万维旗下的天工 AI 正式发布了 PC 版的重大更新,推出了 “DeepSeek R1 联网搜索” 功能。 这一新功能不仅解决了用户长期以来对 DeepSeek 联网功能无法使用的问题,还优化了 R1版本在使用过程中的崩溃情况,为用户带来了更为稳定、高效的智能体验。 自2025年1月下旬发布以来,DeepSeek R1模型在全球 AI 领域引起了广泛关注。