3个月估值10亿,李飞飞空间智能首个模型诞生!一张图生成3D世界,视频游戏要变天
AI生成3D世界成真了! 就在刚刚,AI教母李飞飞创立的World Labs首次官宣「空间智能」模型,一张图,即可生成一个3D世界。 用李飞飞的话说,「无论怎样理论化这个想法,都很难用语言描述一张照片或一句话生成3D场景的互动体验。- 980
- 0
何恺明MIT开门弟子名单公开:奥赛双料金牌得主、清华姚班学霸在列
入职MIT电气工程和计算机科学系的何恺明,第一波门下弟子现在曝光——可以看到,四位研究者中其中有三位都是3位是华人:白行建、邓明扬、黎天鸿。 我们熟悉的IMO、IOI双料奥赛金牌得主邓明扬也在列。 事实上,在不久之前,他们就已经合作了一篇文章:无需矢量量化的自回归图像生成 何恺明新作再战AI生成:入职MIT后首次带队,奥赛双料金牌得主邓明扬参与这篇文章提出了一种新的图像生成方法,通过扩散过程来建模…- 977
- 0
试了下Cursor,感觉程序员工种危险了!
大家好,我是汤师爷~今年8月份,AI 编程工具 Cursor 在开发者社区彻底火了。 在 Twitter 平台上,Cloudflare 副总裁分享了一段视频,展示了一个令人震惊的案例。 他年仅 8 岁的女儿,仅用 Cursor AI 这款工具,在短短 45 分钟内,就成功构建了一个功能完整的聊天机器人。- 977
- 0
MIT 76页深度报告:AI加速创新马太效应,科学家产出分化加剧!缺乏判断力将被淘汰
AI的最新进展显示出帮助科学突破的潜力,尤其是在药物发现和材料科学等领域。 来自MIT的Aidan最近发布了一篇长达76页的深度研究报告,内容关于AI对科学发现和产品创新的影响。 通过分析一家美国大型企业研发部门引入AI技术前后的情况,研究发现,在AI辅助下,科学家们发现新材料的数量增加了44%,这些新材料具有更独特的化学结构,导致专利申请数量增加39%,下游产品的创新率上升17%!- 974
- 0
清华UCSD提出全新微调方法,8B小模型媲美GPT-4o!科学问题正确率提高28%
我们都知道,在科研界,LLM在解决简单科学问题时表现得游刃有余,但在应对复杂问题时往往会出现幻觉。 于是,为了让模型更靠谱,研究人员尝试给模型装上科学工具,帮助它们解决高难度任务。 然而,一旦用上工具,模型就「上瘾」了!- 984
- 0
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
LLM,究竟会不会推理? 就在刚刚,UCL、Cohere等机构的研究人员发现:在LLM执行推理任务时,竟存在着一种「程序性知识」。 论文地址: News的热榜。- 982
- 0
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性
此项研究成果已被 NeurIPS 2024 录用。 该论文的第一作者是杜克大学电子计算机工程系的博士生张健一,其主要研究领域为生成式 AI 的概率建模与可信机器学习,导师为陈怡然教授。 大语言模型(LLM)在各种任务上展示了卓越的性能。- 979
- 0
NeurIPS 2024 | 数学推理场景下,首个分布外检测研究成果来了
本文将介绍数学推理场景下的首个分布外检测研究成果。 该篇论文已被 NeurIPS 2024 接收,第一作者王一鸣是上海交通大学计算机系的二年级博士生,研究方向为语言模型生成、推理,以及可解释、可信大模型。 该工作由上海交通大学和阿里巴巴通义实验室共同完成。- 992
- 0
美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源
11 月 22 日,Prime Intellect 宣布通过去中心化方式训练完成了一个 10B 模型。 30 号,他们开源了一切,包括基础模型、检查点、后训练模型、数据、PRIME 训练框架和技术报告。 据了解,这应该是有史以来首个以去中心化形式训练得到的 10B 大模型。- 978
- 0
轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品
浙大、腾讯优图、华中科技大学的团队,提出轻量化MobileMamba! 既良好地平衡了效率与效果,推理速度远超现有基于Mamba的模型。 一直以来,轻量化模型研究的主阵地都在CNN和Transformer的设计。- 977
- 0
微软发明全新「LLM语言」,AI智能体交互效率翻倍!
在《星球大战》中,机器人R2-D2和其他机器人使用特殊的语言进行交流。 这种语言主要由蜂鸣声和口哨声组成,被称为「二进制语」(Binary)或「机器人语」(Droidspeak)。 Droidspeak是专门为机器人之间的交流设计的,只有机器人能够完全理解其精确含义。- 977
- 0
仅用5M数据超过 OpenAI?快手最新 Code Embedding 模型 OASIS(绿洲)发布
出品 | 51CTO技术栈(微信号:blog51cto)最近,快手Kwaipilot 团队正式宣布开源 OASIS(Optimized Augmentation Strategy for Improved code Search)Code Embedding模型。 快手 Kwaipilot 团队在代码表征领域实现了突破性进展,仅仅使用 5M Tokens数据大幅领先 OpenAI,在多个 Code…- 975
- 0
我国首个抽水蓄能大模型正式投用:智能化管理全国近 20% 装机容量的抽水蓄能设备
央广网昨日(11 月 29 日)备发布博文,报道称南方电网自主研发的首个抽水蓄能大模型正式投入使用,标志着全国近五分之一装机容量的抽水蓄能设实现深度智能化管理,将显著提升电网的调峰储能能力,为国家能源安全保驾护航。- 974
- 0
解释器模型首创!Tilde打破提示工程局限,让AI推理更精准
可解释性是人工智能领域中的一个核心挑战,也是一个备受关注的问题。 随着AI模型(尤其是深度学习模型)的规模和复杂性不断增长,模型内部的计算过程变得越来越难以理解。 但一直以来,模型的可解释性好像不如模型的性能那般受重视,往往不是新产品发布的宣传重点。- 975
- 0
细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真
GPT-4串谋其他AI智能体,竟学会欺骗人类了? 更让人细思极恐的是,即便被揭穿了真面目,它们仍旧声称自己不会串通一气。 这件事,真真切切地发生在日常的交易中。- 975
- 0
阿里发布类o1模型QWQ,可自我反思纠错,实测数学推理远超o1、DS-R1,人人免费;网友:OpenAI除了商标,没有护城河
编辑 | 言征阿里真的是开源模型界的扛把子,这次把类o1模型的预览版也公开推出了,现在大家都可以直接在抱抱脸上体验又一个国产版的万能推理机了! 小编迫不及待地马上尝试了两个高中奥数题,一道数列题、一道概率题,这解题思路堪称完美闭环。 全对!- 977
- 0
惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条
就在刚刚,LeCun反水了! 2023年12月,他言之凿凿地坚称:人类水平的AI,离我们还有10到20年。 然而就在最近,他忽然改变说法了!- 975
- 0
陶哲轩新论文“太反直觉”:再战Erdős问题,证明44年数学猜想是错的
陶哲轩最新力作,在“自然数倒数之和是否为有理数”问题上取得一系列进展。 其中最引人瞩目的一项成果,就是证明了一个非常反直觉的猜想,居、然、是、对、的:存在一个递增的自然数级数ak,使得对任意有理数t,都是有理数。 ()一位Topos研究所的数学物理学家John Carlos Baez在评论区毫不掩饰自己的惊叹:哇哦,这个结论太反直觉了!- 976
- 0
LLM也会和人类一样焦虑!还会产生更多偏见,图宾根大学最新研究
你是否有过这样的感受,当你感觉焦虑的时候,做出的决策和反应都与正常情况下不同? 大模型也会这样。 最近,一项新研究首次将精神分析工具给大模型也用上了,结果令人有些意外……在实验测试的12个常见LLM中,有超过半数的模型都和人类一样会受到焦虑的影响!- 975
- 0
上海AI实验室版o1已上线!数学竞赛题、Leetcode赛题全拿下,还会玩24点
国产o1新选手登场! 它能快速解决更复杂的数学解题、代码编程、数字游戏等任务。 这就是上海AI实验室版o1——强推理模型书生InternThinker,刚刚正式开放试用!- 983
- 0
12%计算量就能媲美原模型,Adobe、罗切斯特大学等提出YOPO剪枝技术
本篇论文的核心作者包括罗切斯特大学的博士研究生张泽良,指导教师徐辰良副教授,以及来自Adobe的研究员赵文天,万锟和李宇哲。 尽管近期 Qwen2-VL 和 InternVL-2.0 的出现将开源多模态大模型的 SOTA 提升到了新高度,但巨大的计算开销限制了其在很多场景下的应用。 近日,Adobe 研发团队联合罗切斯特大学系统性得研究了主流多模态大模型在参数和计算模式层面的冗余,并提出了名为 Y…- 979
- 0
史无前例!Seq2Seq和GAN同获NeurIPS时间检验奖,Ilya连续2年获奖
今年的NeurIPS,竟然一口气颁发了两个时间检验奖(Test of Time Awards)! 用官方的话来说就是:这两篇论文对整个领域的影响是不可否认的。 第一篇,很经典——GAN。- 974
- 0
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等
开源绝对是AI如今发展迅猛的助推剂,而其中的一股重要力量就是来自MetaMeta在人工智能开源界可谓是硕果颇丰,从大模型LLama到图像分割模型Segment Anything,覆盖了各种模态、各种场景,甚至在AI以外的学科,如医学等科学研究进展也都从Meta的开源模型中受益。 最近,Meta发布了一系列新的开源工作,还对已有的开源工作进行了升级迭代,包括 SAM 2.1、句子表征的细化等,开源社…- 979
- 0
不是RNN的锅!清华团队深入分析长上下文建模中的状态崩溃,Mamba作者点赞
与Transformer相比,RNN模型的一大优势是应对长序列的能力。 比如Mamba,内部状态大小始终保持不变,计算随序列长度线性增长,吃得多,消化快。 理论虽如此,但实际情况却是,目前的这些RNN模型在长上下文中的有效性并不能令人满意。- 984
- 0
模型
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!