资讯列表
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
到现在为止,我们仍旧对大模型「幻觉」如何、为何产生,知之甚少。 最近,来自Technion、谷歌和苹果的研究人员发现,LLM「真实性」的信息集中在特定的token,而且并得均匀分布。 正如论文标题所示,「LLM知道的往往要比表现出来的更多」。
11/11/2024 9:35:00 AM
新智元
湾区聚力 开源启智
当下,全球数字化浪潮席卷而来,开源技术已成为科技创新和产业升级的关键驱动力。 11月9-10日,以“湾区聚力 开源启智”为主题的2024 CCF中国开源大会在深圳隆重举行。 本届大会由中国计算机学会主办,CCF开源发展委员会、鹏城实验室、新一代人工智能产业技术创新战略联盟(AITISA)联合承办,中电金信软件有限公司、华为技术有限公司协办,天工开物开源基金会提供特别支持。
11/11/2024 9:34:00 AM
朱可轩
OpenAI奥特曼最新对话:将很快进入智能体阶段;OpenAI最初三个目标一个已失效;智慧和能源可解锁AGI;马斯克比我做更多
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)2025,OpenAI会有哪些动作? Sam Altman定下了哪些目标? 如何看待自“宫斗”后相创始员工离职潮,以及大模型创业公司的壁垒和未来在哪里?
11/11/2024 9:28:41 AM
言征
学生党狂喜,物理图表动起来!受力分析、光学、电路图等全自动交互
在上物理课的时候,大家应该都有过那种「图太抽象了」的体会吧,需要靠空间想象力才能感受到出题人的想法。 而在电子教学时代,物理图可以是动态、可交互的,有助于更深入地理解复杂原理,能够比教科书或视频提供更丰富、更难忘的学习体验,也可以让学生更积极参与到复杂概念的实验中,但是创建交互式模拟既耗时又需要大量的编程工作,所以大部分教学场景只能用已经制作好的模拟图,有时无法完全满足学生对学习材料的特定需求,甚至切换教科书和外部交互视频的过程还会分散学生注意力。 最近,卡尔加里大学、科罗拉多大学博尔德分校及Adobe的研究人员提出了一个全新的方法增强物理(Augmented Physics),通过从静态教科书图表中提取和增强内容来创建交互式物理模拟;利用「Segment-Anything」和多模态LLM等先进的计算机视觉技术,可以半自动地从教科书页面中提取图表,并基于提取的内容生成交互式模拟。
11/11/2024 9:20:00 AM
新智元
奥特曼专访自曝OpenAI掌握AGI密钥,2025年降临!1人1万块GPU缔造十亿独角兽
1个人 10000个GPU,就能打造价值10亿美元的公司? OpenAI已经掌握了通往AGI的内部路径,我们距ASI只有几千天时间了? 就在最近,OpenAI CEO奥特曼在最新访谈里,再次爆出不少金句。
11/11/2024 9:10:00 AM
新智元
多模态模型免微调接入互联网,即插即用新框架,效果超闭源商用方案
一个5月份完成训练的大模型,无法对《黑神话·悟空》游戏内容相关问题给出准确回答。 这是大模型的老毛病了。 因为《黑神话》8月才上市,训练数据里没有它的相关知识。
11/11/2024 9:00:00 AM
量子位
腾讯语音合成技术:模型优化与推理加速实践
一、背景-产品展示首先,让我们来看一下腾讯自研的知音语音大模型在语音合成领域的应用展示。 该模型能够提供更自然、韵律丰富且实时性更强的语音合成体验。 其两大显著优点如下:声音复刻:仅需 10 秒音频即可完成声音复刻。
11/11/2024 8:50:24 AM
李正兴
我为什么离开OpenAI?六年元老发离职长文:AGI将至,我们远没准备好
OpenAI的「员工叛逃」还没有结束。 近日,OpenAI又有一位6年元老、研究主管Miles Brundage发表长文官宣离职,并详细解释了自己为何「出走」。 作为一家年轻的AI独角兽,成立于2015年的OpenAI如今刚刚9岁,因此在公司待了6年之久的Brundage足以被称为「元老」,见证了OpenAI如何一路起伏、筚路蓝缕地走到今天。
11/11/2024 8:40:00 AM
新智元
空间智能版ImageNet来了!李飞飞吴佳俊团队出品
空间智能版ImageNet来了,来自斯坦福李飞飞吴佳俊团队! HourVideo,一个用于评估多模态模型对长达一小时视频理解能力的基准数据集,包含多种任务。 通过与现有模型对比,揭示当前模型在长视频理解上与人类水平的差距。
11/11/2024 8:30:00 AM
量子位
最小化的递归神经网络RNN为Transformer提供了快速高效的替代方案
译者 | 李睿审校 | 重楼Transformer如今已经成为大型语言模型(LLM)和其他序列处理应用程序的主要架构。 然而,它们固有的二次方计算复杂性成为了将Transformer扩展至超长序列时的巨大障碍,显著增加了成本。 这引发了人们对具有线性复杂性和恒定内存需求的架构的兴趣。
11/11/2024 8:11:49 AM
李睿
清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分
大模型的记忆限制被打破了,变相实现“无限长”上下文。 最新成果,来自清华、厦大等联合提出的LLMxMapReduce长本文分帧处理技术。 LLMxMapReduce技术通过将长上下文切分为多个片段,可以让模型并行处理多个片段,并从不同片段中提取关键信息,然后汇总成为最终的答案。
11/11/2024 8:00:00 AM
量子位
PyTorch 深度学习的十个核心概念
深度学习是当前最热门的技术之一,而 PyTorch 是一个非常受欢迎的深度学习框架。 今天,我们将深入探讨 PyTorch 中的 10 个核心概念,帮助你更好地理解和使用这个强大的工具。 张量(Tensor)张量是 PyTorch 中最基本的数据结构,类似于 NumPy 的数组,但可以在 GPU 上运行,从而加速计算。
11/11/2024 8:00:00 AM
小白PythonAI编程
全球首个法律o1大模型发布,System2范式下慢思考法律专家|港科大&北大
OpenAI o1风格的推理大模型,有行业垂直版了。 HK-O1aw,是由香港生成式人工智能研发中心(HKGAI)旗下AI for Reasoning团队(HKAIR) 联合北京大学对齐团队(PKU-Alignment Team)推出的全球首个慢思考范式法律推理大模型。 HK-O1aw的推理能力,在多个法律场景的测试中得到证明。
11/11/2024 7:03:00 AM
快速学会一个算法,卷积神经网络
大家好,我是小寒今天给大家介绍一个强大的算法模型,卷积神经网络卷积神经网络(CNN)是一种专门用于处理图像、视频等具有网格结构数据的深度学习模型。 CNN 通过局部连接和参数共享的方式,大幅减少了模型的计算量,能有效提取数据的局部和全局特征,被广泛应用于计算机视觉领域,如图像分类、物体检测、图像分割等。 图片卷积神经网络的基本结构卷积神经网络的主要包括卷积层、池化层和全连接层。
11/11/2024 12:00:02 AM
程序员小寒
教授何恺明在MIT的第二门课——《深度生成模型》,讲座PPT陆续已出
又有机会跟着大神学习了! 今年 2 月起,何恺明已经开始了自己在 MIT 的副教授职业生涯,并在 3 月 7 日走上讲台完成了「人生中教的第一堂课」。 近日,我们发现了何恺明的第二门课程《深度生成模型》(6.S978: Deep Generative Models),已经于 9 月初开始了授课。
11/10/2024 4:00:00 PM
机器之心
揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
11/10/2024 3:57:00 PM
机器之心
高能干货分享,有关提示词工程的一切都在这份教程里
想让 AI 帮你自动搞定任务,离不开要在聊天框内用提示词对它发号施令。 但找到合适的提示词并不容易,这需要设计、优化和评估,不仅耗时,还需要自己学习技巧。 有时候,你可能感觉这和调参有着异曲同工之妙,怎么都是玄学?
11/10/2024 3:44:00 PM
机器之心
当大模型升级速度变缓,AI Infra 创业还是一门「好生意」吗?
作者丨朱可轩编辑丨陈彩娴时至今日,如果说清华系撑起了中国大模型创业的半壁江山,那 AI Infra 这条赛道绝对是清华系「上阵师徒兵」的又一波创业豪赌:媒体所实验室孵化的清昴智能、高性能计算机研究中心牵头的清程极智、NICS-EFC 实验室孕育出的无问芯穹......AI Infra 赛道的明星创企几乎都来自清华各大实验室,而硅基流动和潞晨科技的创始人袁进辉和尤洋也均属「清华代表队」。 当前,在这层创业要解决的问题也比较明确,主要就是面向上下游,把各类模型同芯片深度适配,一方面减少算力资源闲置现象,另一方面则实现模型应用的提速降本。 不过,作为中间层,模型、应用和硬件层正处在瞬息万变之间,这意味着 AI Infra 的突破方向也在随之调整,值此之际,该方向的创业也不断面临质疑和些许阵痛,例如:创业公司做 MaaS 平台会不会面临压力?
11/9/2024 8:24:00 PM
朱可轩