资讯列表
顺丰发布“丰语”大语言模型:摘要准确率超 95%,号称物流垂域能力超越通用模型
顺丰科技昨日在深圳国际人工智能展上发布了物流行业的垂直领域大语言模型“丰语”。顺丰科技大模型技术总监江生沛表示,顺丰在综合考虑效果与使用成本的均衡的思路下,自研了行业的垂直领域大语言模型。在训练数据方面,丰语约有 20% 的训练数据是顺丰和行业的物流供应链相关的垂域数据。AI在线获悉,目前基于大模型的摘要准确率已超过 95%,客服人员与客户对话后的处理平均时长减少了 30%;对快递小哥问题的定位准确率超过 98%,平均每次会话可以节省小哥 3 分钟。▲ 生成顺丰 IP 形象示意“丰语”大语言模型在面对多国条款与各类
世界首例:一位「00后」让人形机器人住进了家
机器之能报道编辑:Sia以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。我们也欢迎读者投稿亲自实践的创新型用例。投稿邮箱:[email protected]每一次技术革命都会带来一些新的尝试,让我们更接近机器人罗西(Rosie)。女仆罗茜是上个世纪 60 年代动画片《杰森一家》里家庭机器人。杰森一家生活在未来,他们利用各种高科技手段快
效率提高近百倍,山大团队AI新方法解析复杂器官空间组学,登Nature子刊
编辑 | 萝卜皮空间组学技术以细胞和亚细胞分辨率解析复杂器官的功能组件。山东大学的研究团队引入了空间图傅里叶变换 (Spatial Graph Fourier Transform,SpaGFT),并将图信号处理应用于各种空间组学分析平台,以生成可解释的表示。这种表示支持空间可变基因识别并改进基因表达推断,在分析人类和小鼠空间转录组数据方面优于现有工具,效率是现有工具的百倍。SpaGFT 可以识别人类淋巴结 Visium 数据中 B 细胞成熟的免疫区域,并使用内部人类扁桃体 CODEX 数据表征次级滤泡的变化。此外
AIGCRank:2024年8月全球AI网站流量排行榜
AI在线 发布 2024年8月全球和国内AI网站流量排行榜、全球AI网站增长率排行榜,并联合 哥飞的朋友们出海社群 发布出海AI网站流量排行榜!
AIGCRank:2024年8月国内AI网站流量排行榜
AI在线 发布 2024年8月全球和国内AI网站流量排行榜、全球AI网站增长率排行榜,并联合 哥飞的朋友们出海社群 发布出海AI网站流量排行榜!
AIGCRank:2024年8月出海AI网站流量排行榜
AI在线 发布 2024年8月全球和国内AI网站流量排行榜、全球AI网站增长率排行榜,并联合 哥飞的朋友们出海社群 发布出海AI网站流量排行榜!
AIGCRank:2024年8月全球AI网站增长排行榜
AI在线 发布 2024年8月全球和国内AI网站流量排行榜、全球AI网站增长率排行榜,并联合 哥飞的朋友们出海社群 发布出海AI网站流量排行榜!
OpenAI 一年亏 50 亿美元,高盛报告乌龙引 AI 股“地震”
刚刚,外媒曝出:Sora 陷入了研究困境!背后原因,就是安全风险以及与好莱坞的合作。另外,最近高盛的报告错误解读了 ChatGPT 流量下降,直接引爆市场的恐慌情绪,导致 AI 股票纷纷被抛售。Sora 深陷研究困境?Sora 在今年二月发布后,至今还是「期货」,为何迟迟不开放呢?就在最近,外媒 CNBC 曝出,OpenAI 的 Sora 模型之所以鸽了这么久,原因在于「和政策制定者的对话」。早在 2 月底,彭博社就曾报道,考虑到今年的美国大选,OpenAI 希望竭力避免安全风险。此外还有一个原因,就是当时的 So
《人工智能安全治理框架》1.0 版发布
感谢据央视新闻今日报道,在 2024 年国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会发布《人工智能安全治理框架》1.0 版。制定该《框架》旨在落实《全球人工智能治理倡议》,遵循“以人为本、智能向善”的发展方向,推动政府、国际组织、企业、科研院所、民间机构和社会公众等各方,就人工智能安全治理达成共识、协调一致,有效防范化解人工智能安全风险。《框架》提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等人工智能安全治理的原则。针对模型算法安全、数据安全和系统安全等内生安全风险
端侧ChatGPT时刻!这家清华系大模型公司赶在OpenAI、苹果之前
下周苹果即将召开发布会了! 但最令笔者期待的不是 iphone16,而是苹果今年提出的 Apple Intelligence 的进展,这是苹果今年进军端侧 AI 的一大杀手锏。 其实早在今年年初,国内就有一家当时还名不见经传的大模型公司率先喊出 “端侧AI是未来大趋势”的口号,当时还没有太多玩家意识到端侧AI的重要性。
快手启动“可灵 AI”电影共创计划:联合李少红、贾樟柯、薛晓路等导演出品 AIGC 电影短片
快手今日宣布启动“可灵 AI”电影共创计划。快手将联合李少红、贾樟柯、叶锦添、薛晓路、俞白眉、董润年、张吃鱼、王子川、王卯卯等 9 位导演,制作出品 9 部 AIGC 电影短片,9 部短片将全部由可灵 AI 进行视频生成。据AI在线此前报道,今年 6 月,快手视频生成大模型“可灵”上线。今年 8 月,快手宣布有超过 160 万人使用过可灵 AI,并累计生成超 1600 万视频、累计生成图片数量为 2500 万。快手联合创始人、董事长兼 CEO 程一笑表示,未来将进一步升级可灵大模型,同时力争尽快实现可观的商业化变现
天下苦英伟达久矣!PyTorch官方免CUDA加速推理,Triton时代要来?
近日,PyTorch 官方分享了如何实现无 CUDA 计算,对各个内核进行了微基准测试比较,并讨论了未来如何进一步改进 Triton 内核以缩小与 CUDA 的差距。在做大语言模型(LLM)的训练、微调和推理时,使用英伟达的 GPU 和 CUDA 是常见的做法。在更大的机器学习编程与计算范畴,同样严重依赖 CUDA,使用它加速的机器学习模型可以实现更大的性能提升。虽然 CUDA 在加速计算领域占据主导地位,并成为英伟达重要的护城河之一。但其他一些工作的出现正在向 CUDA 发起挑战,比如 OpenAI 推出的 Tr
从腾讯大模型的「实用」路线,我们看到了企业应用AI的新方向
「现在每家公司都是 AI 公司,但引入 AI 之后,利润真的能提高吗?」在针对 Transformer 作者、Cohere CEO Aidan Gomez 的一次采访中,播客主持人 Harry Stebbings 问出了这样一个问题。Stebbings 提到,现在很多公司都在往产品中引入 AI,比如提供客户支持的 Zendesk、笔记记录软件 Notion、提供设计服务的 Canva…… 但是选择维持产品价格不变的 Canva 等公司却担心,自己的利润不升反降,因为他们现在要为每个查询付出更高的成本。Canva 甚
百度文心一言市场负责人张全文否认放弃通用大模型:将持续加大研发投入
感谢针对近日网上文心一言背后的通用大模型被放弃的消息,文心一言市场部负责人张全文在朋友圈发文,“所谓‘放弃通用大模型研发’纯属谣言!文心一言刚完成了功能全面升级。我们将持续加大在通用大模型领域的研发投入。”据了解,文心一言能力升级包含创作内容更加深度专业、问答效果更加全面丰富、支持同时处理上百个多种格式文件、一键关联读取网盘文档、智能翻译和图片理解等。AI在线此前报道,百度创始人、董事长兼首席执行官李彦宏在今年 4 月的 Create 2024 百度 AI 开发者大会上透露,文心一言从去年 3 月 16 日发布,用
2024 vivo 开发者大会下月举行,将发布全新蓝心大模型
vivo OS 产品副总裁 @vivo周围 今日发文透露,下个月,vivo 将会在开发者大会上发布包括语言大模型、语音大模型、视觉大模型、多模态大模型、端侧大模型等在内的全新蓝心大模型,vivo 也将在全新的 OriginOS 原系统 5 上落地蓝心大模型的系统级和场景化体验。蓝心大模型于 11 月初举行的 2023 vivo 开发者大会上首次对外公布,包含十亿、百亿、千亿三个参数量级共 5 款。其中, 70 亿级别的蓝心大模型 7B 是面向手机打造的端云两用模型,vivo 称其在语言理解、文本创作等场景下表现非常
任意论文一键变播客,谷歌正式发布Illuminate,它能重构研究者的学习方式吗?
像听书一样「读」论文。先来听一段英文播客,内容是不是很熟悉?是的,这俩人就是在聊那篇《Attention is All You Need》。在 4 分半的对话里,他们介绍了论文的核心内容,一问一答,听上去相当自然。播客原址:,播客中对谈的双方都是 AI,生成这段四分钟音频内容的产品是 Illuminate,来自谷歌。Illuminate 是一个将学术论文转化为人工智能生成的音频讨论的项目。已有用户晒出自己的试用结果,效果不错:谷歌实验室在邀请用户尝试「前沿技术」方面有着悠久的历史。Illuminate 最早在今年
TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展
AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]本篇综述工作已被《IEEE 模式分析与机器智能汇刊》(IEEE TPAMI)接收,作者来自三个团队:香港大学俞益洲教授与博士生陈超奇、周洪宇,香港中文大学(深圳)韩晓光教授与博士生吴毓双、
Anthropic安全负责人:在超级AI「毁灭」人类之前,我们可以做这些准备
2023 年,Anthropic 发布了负责任扩展策略(Responsible Scaling Policy,RSP),这是一系列技术和组织协议,Anthropic 将采用这些协议来帮助他们管理开发功能日益强大的 AI 系统。Anthropic 认为,AI 模型一方面变得越来越强大,创造巨大的经济和社会价值,另一方面也带来了严重的风险。RSP 将专注于灾难性风险 —— 即人工智能模型直接造成大规模破坏的风险。此类风险可能来自故意滥用模型(例如恐怖分子用它来制造生物武器),也可能来自模型以违背其设计者意图的方式自主行