腾讯云 ES:一站式 RAG 方案,开启智能搜索新时代
在大型语言模型(LLM)引领的革命浪潮中,搜索与大模型的紧密结合已成为推动知识进步的关键要素。 作为开源搜索引擎排名第一的 Elasticsearch(ES),结合沉淀多年的文本搜索能力和强大的向量检索能力实现混合搜索,使搜索变得更准、更全、更智能。 腾讯云 ES 多年来持续对开源 ES 的性能、成本、稳定性以及分布式架构进行深度增强优化,并在海量规模的云业务中接受考验。- 981
- 0
USENIX Sec’25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了
本文介绍对 LLM 提示词注入攻击(prompt injection)的通用防御框架。 首篇论文已被安全顶会 USENIX Security 2025 接收,第一作者陈思哲是 UC Berkeley 计算机系博士生,Meta FAIR 访问研究员,研究兴趣为真实场景下的 AI 安全。 他的导师是 David Wagner (UCB), 郭川 (Meta), Nicholas Carlini (Go…- 975
- 0
为多模态LLM引入ControlNet理念,开源插件解决灾难性遗忘
多模态大模型内嵌语言模型总是出现灾难性遗忘怎么办? 像文生图那样有ControlNet即可解决。 这就是由360人工智能研究院提出的IAA的核心思路。- 975
- 0
本地构建Llama 3.2-Vision多模态LLM聊天应用实战
译者 | 朱先忠审校 | 重楼本文将以实战案例探讨如何在类似聊天的模式下从本地构建Llama3.2-Vision模型,并在Colab笔记本上探索其多模态技能。 简介视觉功能与大型语言模型(LLM)的集成正在通过多模态LLM(MLLM)彻底改变计算机视觉领域。 这些模型结合了文本和视觉输入,在图像理解和推理方面表现出令人印象深刻的能力。- 979
- 0
图像领域再次与LLM一拍即合!idea撞车OpenAI强化微调,西湖大学发布图像链CoT
OpenAI最近推出了在大语言模型LLM上的强化微调(Reinforcement Finetuning,ReFT),能够让模型利用CoT进行多步推理之后,通过强化学习让最终输出符合人类偏好。 无独有偶,齐国君教授领导的MAPLE实验室在OpenAI发布会一周前公布的工作中也发现了图像生成领域的主打方法扩散模型和流模型中也存在类似的过程:模型从高斯噪声开始的多步去噪过程也类似一个思维链,逐步「思考」…- 976
- 0
Scaling Law不总是适用!尤其在文本分类任务中,vivo AI Lab提出数据质量提升解决方法
Scaling Law不仅在放缓,而且不一定总是适用! 尤其在文本分类任务中,扩大训练集的数据量可能会带来更严重的数据冲突和数据冗余。 要是类别界限不够清晰,数据冲突现象就更明显了。- 975
- 0
专治大模型“套壳”!上海AI实验室等给LLM做“指纹识别”,剪枝合并也无所遁形
大模型“套壳”事件防不胜防,有没有方法可以检测套壳行为呢? 来自上海AI实验室、中科院、人大和上交大的学者们,提出了一种大模型的“指纹识别”方法——REEF(Representation Encoding Fingerprints)。 在不改变模型性能的前提下,利用REEF就可以精准识别未经授权的后续开发行为。- 974
- 0
使用小型视觉语言模型(VLM)进行物体识别与计数
今天的重点是一个具有无数实际应用的功能:在边缘设备(如智能手机、物联网设备和嵌入式系统)上运行小型视觉语言模型(VLM)。 这些模型在识别和指出物体方面越来越出色。 具体来说,它们在检测制造缺陷、计数可用停车位或发现癌细胞方面表现优异。- 976
- 0
专治大模型“套壳”!上海AI实验室等给LLM做“指纹识别”,模型剪枝、合并等也无所遁形
大模型“套壳”事件防不胜防,有没有方法可以检测套壳行为呢? 来自上海AI实验室、中科院、人大和上交大的学者们,提出了一种大模型的“指纹识别”方法——REEF(Representation Encoding Fingerprints)。 在不改变模型性能的前提下,利用REEF就可以精准识别未经授权的后续开发行为。- 973
- 0
豆包 Marscode 优秀实践
毫无疑问,Marscode 能解决非常多基础问题,特别对于编程新手而言,它能相对准确地生成各种代码,完成编程任务,但其底层并不神秘,本质上就是在传统 IDE 基础上,搭配足够好的交互与足够好的 LLM,从而超越传统 IDE。 交互方面,它在 VS Code 基础上,补充提供了:提供了几乎毫无门槛的代码自动补全能力,并且支持多行编辑,这在一些场景,如修改变量名时,非常好用。 行内、独立问答面板,可用…- 975
- 0
如何在安卓手机上本地安装和运行LLM?
译者 | 布加迪审校 | 重楼了解如何将AI的力量径直带入到你的安卓手机上:没有云,没有互联网,只有纯粹的设备端智能! 在安卓手机上本地运行大语言模型(LLM)意味着你可以在不依赖云服务器或互联网连接的情况下访问人工智能(AI)模型。 这种本地环境通过确保数据安全、并在设备端来确保隐私。- 980
- 0
NeurIPS 2024 | LLM智能体真能模拟人类行为吗?答案有了
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。- 974
- 0
RARE: 提升LLM推理准确性和事实完整性的检索增强框架思路浅尝
MCTS & rStar蒙特卡洛树搜索(MCTS)蒙特卡洛树搜索(MCTS)是一种用于解决复杂决策问题的算法,常用于游戏等领域。 它的基本思想是通过构建一棵搜索树并模拟各种可能的行动来估计每个行动的价值。 MCTS的过程可以分为四个主要步骤:选择(Selection):从根节点开始,根据某种策略(如UCT)遍历子节点,直到找到一个叶节点。- 981
- 0
LLM很难变成AGI?科学家:创造AGI理论上可行
今年9月份OpenAI对外宣称,AI能力达到新等级,相比之前的LLM,新AI更接近人类的思考能力。 OpenAI的断言引起争论:到底还要等多久机器才能具备人类大脑一样的认知能力?大家争论的智能就是所谓的AGI,它可以帮助人类解决复杂问题,比如气候变化、大流行、癌症治疗等等。 AGI充满不确定,它也会给人类带来风险。- 975
- 0
五款小型多模态AI模型及其功能
译者 | 晶颜审校 | 重楼在过去几年里,我们已经见证了大型语言模型(LLM)的飞速发展,数十亿个参数的基础助力它们成为分析、总结和生成文本及图像,或者创建聊天机器人等任务的强大工具。 所有这些功能都有一些明显的限制,特别是如果用户没有足够的资金或硬件来容纳这些LLM所需的大量计算资源。 在这种情况下,小型语言模型(SLM)应运而生,为资源受限的用户提供了所需服务。- 973
- 0
打破GNN与语言模型间壁垒,图辅助多模态预训练框架用于催化剂筛选,登Nature子刊
编辑 | KX吸附能是一种反应性描述符,必须准确预测,才能有效地将机器学习应用于催化剂筛选。 该过程涉及在催化表面上的不同吸附构型中找到最低能量。 尽管图神经网络在计算催化剂系统的能量方面表现出色,但它们严重依赖原子空间坐标。- 978
- 0
微软:两个AI相互纠错,数学再涨5分
提升LLM数学能力的新方法来了——一个大模型不行,那就两个。 让他们彼此合作,纠正对方的错误。 这就是来自加州大学和微软研究院的最新研究成果:Flow-DPO。- 980
- 0
微软发明全新「LLM语言」,AI智能体交互效率翻倍!
在《星球大战》中,机器人R2-D2和其他机器人使用特殊的语言进行交流。 这种语言主要由蜂鸣声和口哨声组成,被称为「二进制语」(Binary)或「机器人语」(Droidspeak)。 Droidspeak是专门为机器人之间的交流设计的,只有机器人能够完全理解其精确含义。- 977
- 0
将大语言模型集成到现有软件系统的完整指南
译者 | 布加迪审校 | 重楼随着最近应用迅速普及开来、人工智能(AI)得到广泛采用,大语言模型(LLM)已变得备受广大公司企业、开发人员和非开发人员的欢迎,因为它们为用户提供了诸多好处。 它们帮助开发人员调试代码并生成代码片段,还帮助澄清看似复杂的编程概念和任务,从而提高生产力。 只要用于训练的数据集涵盖主题,使用LLM的非开发人员就可以受益于对问题做出快速且定制的响应和答复。- 974
- 0
清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS’24
计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。 (VLA:视觉-语言-动作模型,代表一类用于处理多模态输入的模型)简单来说,DeeR-VLA就像人的决策系统:简单任务快速思考,复杂任务仔细思考。- 976
- 0
关于 Meta Llama 3,你知道多少?
2024年,对于人工智能领域来说可谓意义非凡。 继 OpenAI 推出备受赞誉的 GPT-4o mini后,Meta 的 Llama 3.1 模型亦在 . 7月23日 惊艳亮相,再一次掀起了新一轮人工智能热潮。- 978
- 0
LLM也会和人类一样焦虑!还会产生更多偏见,图宾根大学最新研究
你是否有过这样的感受,当你感觉焦虑的时候,做出的决策和反应都与正常情况下不同? 大模型也会这样。 最近,一项新研究首次将精神分析工具给大模型也用上了,结果令人有些意外……在实验测试的12个常见LLM中,有超过半数的模型都和人类一样会受到焦虑的影响!- 973
- 0
OpenAI API:LLM编程的事实标准
当下,大模型领域已然步入 “百模大战” 时期,形形色色的大模型如雨后春笋般不断涌现。 那么,若我们打算学习大模型的 API,是否真的需要逐一去钻研呢? 答案无疑是否定的。- 977
- 0
标记化在LLM中有怎样的重要作用?
译者 | 李睿审校 | 重楼如今,GPT-3、GPT-4或谷歌的BERT等大型语言模型(LLM)已经成为人工智能理解和处理人类语言的重要组成部分。 但在这些模型展现出令人印象深刻的能力背后,却隐藏着一个很容易被忽视的过程:标记化。 本文将解释标记化的定义,标记化如此重要的原因,以及在实际应用中是否能够规避这一步骤。- 977
- 0
llm
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!