AI在线 AI在线

资讯列表

诺奖得主哈萨比斯新作登Nature,AlphaQubit解码出更可靠量子计算机

今天凌晨,新晋诺贝尔化学奖得主、DeepMind 创始人哈萨比斯参与撰写的新论文登上了 Nature,主题是如何更准确地识别并纠正量子计算机内部的错误。 我们知道,量子计算机有潜力彻底改变药物发现、材料设计和基础物理学。 不过前提是:我们得让它们可靠地工作。
11/21/2024 1:17:34 PM
机器之心

神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞

租用 H100 的钱只需 233 美元。 还记得 Andrej Karpathy 纯 C 语言复现 GPT-2 大模型的项目吗? 今年 4 月,AI 领域大牛 Karpathy 一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」曾经引发机器学习社区的热烈讨论。
11/21/2024 1:11:00 PM
机器之心

NeurIPS 2024 | 水印与高效推理如何两全其美?最新理论:这做不到

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
11/21/2024 1:04:00 PM
机器之心

LLM2CLIP:使用大语言模型提升CLIP的文本处理,提高长文本理解和跨语言能力

在人工智能迅速发展的今天,多模态系统正成为推动视觉语言任务前沿发展的关键。 CLIP(对比语言-图像预训练)作为其中的典范,通过将文本和视觉表示对齐到共享的特征空间,为图像-文本检索、分类和分割等任务带来了革命性突破。 然而其文本编码器的局限性使其在处理复杂长文本和多语言任务时显得力不从心。
11/21/2024 1:02:42 PM
佚名

国产模型指令跟随全球第一!来自LeCun亲推的「最难作弊」大模型新榜单

? ? 一直低调行事的国内初创公司,旗下模型悄悄地跃升成国内第一、世界第五(仅排在o1系列和Claude 3.5之后)!
11/21/2024 1:00:00 PM
量子位

史上最严“中文真实性评估”:OpenAI o1第1豆包第2,其它全部不及格

新的大语言模型(LLM)评估基准对于跟上大语言模型的快速发展至关重要。 近日,淘宝天猫集团的研究者们提出了中文简短问答(Chinese SimpleQA),这是首个全面的中文基准,具有“中文、多样性、高质量、静态、易于评估”五个特性,用于评估语言模型回答简短问题的真实性能力。 研究人员表示,中文简短问答能够指导开发者更好地理解其模型的中文真实性能力,并促进基础模型的发展。
11/21/2024 12:43:06 PM

前端已经进化到这种程度了吗?

近年来,AI 技术的迅猛发展催生了众多高效能的 AI 开发工具,极大地加速了开发进程。 与此同时,浏览器技术亦在持续演进,其中Chrome 浏览器也在逐步融入多项 AI 功能,显著提升了开发、调试体验。 本文将简要介绍几款热门的 AI 开发工具,并深入探讨 Chrome 浏览器在 AI 领域的最新进展!
11/21/2024 12:37:57 PM
CUGGZ

三星多模态 AI 模型 Gauss 2 登场,赋能 Galaxy 智能生态

三星公司今天(10 月 21 日)发布博文,在韩国举办的开发者大会上,宣布推出第二代生成式 AI 模型 Samsung Gauss2。
11/21/2024 12:28:09 PM
故渊

一个AI浣熊账号的高开癫走:仅靠82篇帖子、4个月涨粉近14万!

AI好好用报道编辑:Sia以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。 因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。 我们也欢迎读者投稿亲自实践的创新型用例。
11/21/2024 11:28:00 AM
AI好好用

知乎创始人周源:AI 搜索在场景侧的深入程度还远远不够,消费者还没有完全习惯

周源还认为 AI 搜索整体来说还在一个比较早期的阶段,不管是国内还是全球范围内,所使用的人数频次和它所能够覆盖的场景,依然还在一个比较早期的阶段。
11/21/2024 11:23:20 AM
汪淼

无卷积骨干网络:金字塔Transformer,提升目标检测/分割等任务精度(附源代码)

论文地址::,最近还激发了Transformer式架构设计的出现,并在众多计算机视觉任务中取得了具有竞争力的结果。 如下是之前我们分享的基于Transformer的目标检测新技术! 链接:ResNet超强变体:京东AI新开源的计算机视觉模块!
11/21/2024 10:58:05 AM
计算机视觉研究院

收敛速度最高8倍,准确率提升超30%!华科发布MoE Jetpack框架 | NeurIPS 2024

混合专家模型(MoE, Mixture of Experts)是一种通过动态激活网络的部分结构来提升计算效率的架构,可以在保持相对稳定的计算成本的前提下大幅增加参数量,从而有效提升模型性能。 这一特性使得MoE能够兼顾模型的规模与效率,已广泛应用于各种大规模任务。 然而,MoE模型通常需要在大型数据集上预训练以获得理想性能,导致其对时间和计算资源的需求极高,这也限制了其在深度学习社区中的普及性。
11/21/2024 10:21:06 AM
新智元

终于把统计学中的抽样方法搞懂了!!!

大家好,我是小寒今天给大家介绍统计学中的一个关键概念,抽样抽样是一种从总体中选取部分个体(样本)以获得关于总体的信息的方法。 由于在大多数情况下直接研究整个总体的每一个个体并不实际,因此抽样为我们提供了在不完全观测总体的情况下推断总体特征的手段。 抽样的理论和技术被广泛用于统计学、社会科学、市场调查和其他需要分析数据的领域。
11/21/2024 10:07:40 AM
小寒

消息称 AI 创企边塞科技被蚂蚁集团收购:公司会独立运营,投资人已退出

有消息称蚂蚁集团近日已成立强化学习实验室,边塞科技创始人吴翼已入职,担任该实验室首席科学家。(蓝鲸新闻)
11/21/2024 10:03:37 AM
汪淼

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

生产级大模型应用线性注意力的方法,来了。 线性Attention(包括RNN系列),再也不用困在几B参数的范围内娱乐了。 一套方法,即可线性化现有各种量级的Transformer模型,上至Llama 3.1 405B,也只需要十来张显卡在两天内搞定!
11/21/2024 8:39:08 AM
新智元

微调大型语言模型(LLM)的五个技巧

译者 | 李睿审校 | 重楼数据质量、模型架构以及偏见缓解方面的专家建议开发人员可以掌握LLM微调来提高人工智能开发的性能和效率。 为什么微调至关重要大型语言模型(LLM)配备了处理广泛任务的通用能力,包括文本生成、翻译、提取摘要和回答问题。 尽管LLM的性能表现非常强大,但它们在特定的任务导向型问题或特定领域(例如医学和法律等)上仍然效果不佳。
11/21/2024 8:22:45 AM
李睿

神级模型 In-Context LoRA 爆火!10种场景精准出图!

大家好,我是花生~. 阿里通义实验室在月初推出的一个新开源项目 In-Context(上下文) LoRA 最近越来越火了,因为大家发现它实在太好用了,无论是保持人物/场景一致性,还是进行服装、风格、Logo、字体样式、页面版式的学习迁移,效果都非常不错,一下就解决了很多大家之前头疼的问题。 目前 In-Context LoRA 已经在摄影、电商设计、样机制作、头像生成等方面有了落地应用,极大满足了大家对精准控制出图的需求,那今天我们就一起来看看 In-Context LoRA (以下简称 IC LoRA)究竟有哪些神奇之处。
11/21/2024 1:39:32 AM
夏花生

大厂设计复盘!百度法行宝如何打造24小时免费AI律师?

百度「捏合总结」功能设计复盘前言随着 AI 技术的不断进步,用户对于信息获取的即时性、准确性及个性化程度均提出了更高的期望,而对于设计师的挑战则是如何利用设计思维和 AI 技术,帮助用户更高效地获取信息,同时打造出具有智能感知的新功能。 阅读文章 . 前言.
11/21/2024 12:29:27 AM
百度MEUX 团队