资讯列表
主打个性化体验,留住用户全靠AIGC?
今天要购买一件商品,我们都会先在社交媒体上搜索、浏览商品的评价,这使得企业在社交平台上针对产品进行营销变得越来越重要。营销的目的是为了促进产品的销售,树立品牌形象,提高品牌认知度,吸引并留住客户,最终提高企业的盈利能力。我们知道,大模型具备出色的理解和生成能力,可以通过浏览、分析用户数据,为用户提供个性化内容推荐,精准满足用户的需求,而这正是营销的关键所在。那么,AIGC 如何通过个性化提升营销转化率呢?在火山引擎和 NVIDIA 联手AI在线和 CMO CLUB 推出的视频栏目《AIGC 体验派》第四期中,两位嘉
像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了
生物神经网络有一个重要的特点是高度可塑性,这使得自然生物体具有卓越的适应性,并且这种能力会影响神经系统的突触强度和拓扑结构。然而,人工神经网络主要被设计为静态的、完全连接的结构,在面对不断变化的环境和新的输入时可能非常脆弱。尽管研究人员对在线学习和元学习进行了大量研究,但目前最先进的神经网络系统仍然使用离线学习,因为这与反向传播结合使用时更加简单。那么,人工神经网络是否也能拥有类似于高度可塑性的性质?来自哥本哈根信息技术大学的研究团队提出了一种自组织神经网络 ——LNDP,能够以活动和奖励依赖的方式实现突触和结构的
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
微软的这项研究让开发者可以在单卡机器上以 10 倍的速度处理超过 1M 的输入文本。大型语言模型 (LLM) 已进入长上下文处理时代,其支持的上下文窗口从先前的 128K 猛增到 10M token 级别。然而,由于注意力机制的二次复杂度,模型处理输入提示(即预填充阶段)并开始产生第一个 token 可能需要几分钟时间。导致首个 token 生成的时间过长,从而严重影响了用户体验,这也极大地限制了长上下文 LLM 的广泛应用。 举例来说(如图 2a 所示),在单台装有 A100 的机器上为 LLaMA-3-8B 提
几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D
AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]本文作者潘亮博士目前是上海人工智能实验室的Research Scientist。此前,在2020年至2023年,他于新加坡南洋理工大学S-Lab担任Research Fellow,指导老师
从智算到密算,大模型数据困境新解法 | 智者访谈
大模型产业发展,需要可信中立的数据深加工平台,如何填补空白?2024 世界人工智能大会(2024 WAIC)落幕,围绕「算法、算力和数据」AI 三大要素如何持续演进发展的讨论,贯穿了三天的会期,全球顶级学者带来前沿构想,产业界带来创新的解决方案。最为聚焦的还是大模型从通用走向应用,如何在这三个维度上实现突破性的进展。其中的共识是,高质量的数据供给是大模型产业发展的关键,是决定大模型是「专家」或是「砖家」一条分界线。然而,获取高质量数据的核心在于数据安全可信流通,打破数据孤岛这一老问题,在新的产业变革趋势下,变得更为
达摩院发布一站式AI视频创作平台"寻光",打造全新AI工作流
今年是 AI 视频生成爆发的元年,以 Sora 为代表的算法模型和产品应用不断涌现。短短几个月内,我们目睹了几十种视频生成工具的问世,基于 AI 的视频创作方式开始流行起来。但新技术也引发更多的挑战与质疑,除了大家熟知的 “开盲盒” 现象,AI 所生成的视频内容也因可控性差、处理工作流繁琐而频频被诟病。OpenAI 曾经邀请专业视频制作团队对 Sora 进行了测试,其中来自于多伦多的 Shy Kids 团队,利用 Sora 制作了一个气球人主题的短片,把创意和 AI 技术进行了完美的结合,让人印象深刻。整个短片其实
全尺寸通用人形机器人青龙亮相WAIC,加速迈入具身智能时代
7 月 4 日下午,由世界人工智能大会组委会办公室指导,世界人工智能大会组委会办公室主办,国家地方共建人形机器人创新中心、中国电子学会承办,AI在线、《机器人技术与应用》杂志协办的 2024 WAIC 世界人工智能大会人形机器人与具身智能发展论坛将于 7 月 4 日下午在上海世博展览馆举行。本次论坛邀请了 12 位国内外人形机器人与具身智能领域的学者、企业代表以及开发者代表进行了主旨报告、技术分享和圆桌讨论,并发布了人形机器人创新成果。论坛现场吸引了 200 多位人形机器人及具身智能领域的专业观众,同时通过多个直播
Soul创新多模态互动体验,携「异世界回响」亮相WAIC2024
7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)正式开幕。 今年主题为“以工商促共享 以善治促善智”,围绕核心技术、智能终端、应用赋能三大板块,集中展示一批“人工智能 ”创新应用最新成果。 作为当下“AI 社交”领域代表,社交平台Soul App受邀参展,并重点展出了“数字分身”“狼人魅影”和“异世界回响”等AI能力落地的新功能、新场景。
开源视频版GPT-4o?快速记忆,实时问答,拿下CVPR'24长视频问答竞赛冠军
AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]张颢继:清华大学本科生,师从唐彦嵩老师,主要研究方向为视频理解。王逸钦:清华大学深圳国际研究生院硕士生,师从唐彦嵩老师,主要研究方向为多模态学习。唐彦嵩博士:清华大学深圳国际研究生院助理教
联手商汤AI大模型,“空间王者”L380亮相世界人工智能大会
7月4日,2024世界人工智能大会(WAIC)在上海世博展览馆拉开帷幕。大会战略合作伙伴商汤科技在7月5日主办的“大爱无疆·向新力”论坛上发布对标GPT-4o 的“SenseNova 5.5”大模型体系。而作为首个搭载商汤“SenseNova”AI大模型的汽车产品,LEVC旗下豪华纯电MPV——“空间王者”L380也亮相WAIC。除此之外,LEVC联席CTO于童也出席上述论坛并作主题演讲,详解L380如何开启轮上空间新纪元。于童表示,“基于行业第一的空间利用率和空间灵活性,L380已经成为能够激发AI大模型无限潜能
Anthropic 首席执行官:未来三年内,AI 大模型训练成本将上升至百亿甚至千亿美元
据 Tom's Hardware 今日报道,AI 初创公司 Anthropic 的首席执行官 Dario Amodei 近期接受播客节目采访时表示,目前像 GPT-4o 这样的模型训练成本约为 1 亿美元,而目前正在开发的 AI 大模型训练成本可能高达 10 亿美元(AI在线备注:当前约 72.94 亿元人民币)。当然,10 亿美元还不是“终点”。Dario Amodei 作出预测,未来三年内,AI 大模型的训练成本将上升至 100 亿美元甚至 1000 亿美元(当前约 7294.28 亿元人民币)。Dario A
WAIC上,高通这一波生成式AI创新,让我们看到了未来
做最有挑战的事:把生成式 AI 送到每个人手上。没想到,生成式 AI 爆发后,产业格局的变化居然这么快。一个月前,微软向全世界介绍了专为 AI 设计的「Copilot PC」,AI PC 这个新品类突然有了标准款。这是迄今为止速度最快、最智能化的 Windows 个人电脑。凭借搭载的新型芯片,它能够实现超过 40 TOPS(每秒万亿次操作)AI 算力、电池续航时间长达一整天,而且无缝接入了世界最先进的人工智能模型。其发布之时,只有骁龙 X 系列的 45TOPS 能够满足这样的 Windows 11 AI PC
更美图像生成、直出分钟级视频,国产自研DiT架构的越级之旅
一转眼,2024 年已经过半。我们不难发现,AI 尤其是 AIGC 领域出现一个越来越明显的趋势:文生图赛道进入到了稳步推进、加速商业落地的阶段,但同时仅生成静态图像已经无法满足人们对生成式 AI 能力的期待,对动态视频的创作需求前所未有的高涨。 因此,文生视频赛道持续高热,尤其是自年初 OpenAI 发布 Sora 以来,以 Diffusion Transformer(DiT)为底层架构的视频生成模型迎来了井喷期。在这一赛道,国内外视频生成模型厂商们正默默展开着一场技术竞速。在国内,一家成立于去年 3 月、专注于
Adam有了mini版:内存占用少一半,吞吐量提升50%
在训练大型语言模型(LLM)时,Adam(W) 基本上已经成为了人们默认使用的优化器。Adam 尽管性能优异,但使用成本很高。具体来说,Adam 需要内存来保存其优化器状态:一阶动量 m 和二阶动量 v^2。这总共需要模型大小至少 2 倍的内存。这样的内存消耗已经成为了 LLM 训练的一大主要负担。举个例子,要训练一个 7B 模型,只是 Adam 就需要每张卡有大约 56 GB 来保存 m 和 v;而如果再加上梯度,则总共需要 86 GB。即使使用最先进的 A100-80GB,成本也过高了。为了支持这样的高内存算法
中山大学联合字节智创数字人团队提出MMTryon虚拟试穿框架,效果优于现有SOTA
虚拟换装技术在特效以及电商的场景下有着广泛的应用,具有较高的商业潜质与价值。近期,中山大学联合字节跳动智能创作数字人团队提出了一种多模态多参考虚拟试穿 (VITON) 框架 MMTryon,可以通过输入多个服装图像及指定穿法的文本指令来生成高质量的组合试穿结果。对于单图换装,MMTryon有效的利用了大量的数据设计了一个表征能力强大的服装编码器, 使得该方案能处理复杂的换装场景及任意服装款式;对于组合换装,MMTryon消除了传统虚拟换装算法中对服装精细分割的依赖,可依靠一条文本指令从多张服装参考图像中选择需要试穿
红杉:重金购入GPU后,AI行业收入缺口达到5000亿美元
囤 GPU 真的像修铁路一样,是一项划算的投资吗?AI公司花了那么多钱从英伟达购买GPU,需要产生多少收入才能证明这笔钱花得合理?最近,红杉资本的一篇文章给出了一个答案:6000亿美元。而去年9月份,同一位作者算出的数字是2000亿美元。这些数字是怎么算出来的呢?在去年9月份的文章中,作者David Cahn(红杉资本的合伙人)表示:在 GPU 上每花费 1 美元,在数据中心运行 GPU 需要花费大约 1 美元的能源成本。GPU 的最终用户——例如星巴克、X、特斯拉、Github Copilot 或新的初创公司——
RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了
AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]本文作者为张颖峰,英飞流 InfiniFlow 创始人 CEO,连续创业者,先后负责 7 年搜索引擎研发,5 年数据库内核研发,10 年云计算基础架构和大数据架构研发,10 年人工智能核心
日本总务省报告:该国仅 9.1% 的个人使用生成式 AI,远低于中美英等国
据日经报道,日本总务省于 7 月 5 日发表了《信息通信白皮书》。数据显示,日本国内仅有 9.1% 的个人使用生成式 AI,与中国的 56.3%、美国的 46.3%、英国的 39.8% 和德国的 34.6% 存在较大差距。AI在线汇总详细数据如下:日本民众不使用生成式 AI 的理由方面,“不知道使用方法”超过 4 成,“生活中不需要”接近 4 成,占所有理由的前 2 名。使用生成式 AI 的具体用途方面,根据从“已在使用”的民众中的调查显示,用于“查询”的最多,占 8.3%,用于“提炼及翻译内容”其次,占比为 5.