资讯列表
大厂 AIGC 提速案例!京东保险UED 项目设计总结
在 AI 的大变革时代,AIGC 作为一匹腾空而出的黑马,为我们的创意设计工作带来了革命性的变化。2023 年京东保险 UED 团队积极探索 AIGC 技术之:Midjourney(以下简称 MJ),在创意 科技的双重加持下,极大地提高了设计效率和质量,从风格关键词的最初尝试,到 MJ 关键词库,MJ 素材库建立,再到在各项目各场景:营销活动、品牌宣传、商详图、UI 界面等的广泛应用。 以下为京东保险 UED 团队目前在 AIGC 领域的探索与成果总结,希望可以再接再厉,推动更多的 AIGC 工具在更多的设计领域的
中国电信开源 TeleChat-12B 星辰语义大模型,年内开源千亿级参数大模型
感谢中国电信已开源 120 亿参数 TeleChat-12B 星辰语义大模型,还表示将于年内开源千亿级参数大模型。相较 1 月开源的 7B 版本,12 版版本在内容、性能和应用等方面整体效果提升 30%,其中多轮推理、安全问题等领域提升超 40%。据介绍,TeleChat-12B 将 7B 版本 1.5T 训练数据提升至 3T,优化数据清洗、标注策略,持续构建专项任务 SFT (监督微调) 数据,优化数据构建规范,大大提升数据质量;同时,基于电信星辰大模型用户真实回流数据,优化奖励模型和强化学习模型,有效提升模型问
Adobe Acrobat 上线 AI 助手:可帮助用户总结 PDF 文档,4.99 美元 / 月
在今年 2 月推出测试版之后,Adobe 公司于当地时间周一宣布,Acrobat AI 助手现已在 Acrobat Reader、桌面和网页上全面推出。其作为附加订阅提供,每月售价 4.99 美元(IT之家备注:当前约 36 元人民币)。官方表示,此次新增的 AI 助手将会把生成式 AI 带入大众视野,当前全球范围流通的 PDF 文件据悉已超过三万亿份。功能方面,Adobe 此次推出的生成式 AI 工具将通过提供提取关键信息、总结内容和方便在长文档中导航等功能,改变用户与文档的交互方式。Adobe 表示,纳税人可以
AI助力脑机接口研究,纽约大学突破性神经语音解码技术,登Nature子刊
作者 | 陈旭鹏 编辑 | ScienceAI由于神经系统的缺陷导致的失语会导致严重的生活障碍,它可能会限制人们的职业和社交生活。近年来,深度学习和脑机接口(BCI)技术的飞速发展为开发能够帮助失语者沟通的神经语音假肢提供了可行性。然而,神经信号的语音解码面临挑战。近日,纽约大学 VideoLab 和 Flinker Lab 的研究者开发了一个新型的可微分语音合成器,可以利用一个轻型的卷积神经网络将语音编码为一系列可解释的语音参数(如音高,响度,共振峰频率等)并通过可微分语音合成器重新合成语音。通过将神经信号映射到
药物分子设计新策略,微软条件扩散模型DiffLinker登Nature子刊
编辑 | 紫罗药理学领域的化学空间高达 10^60,在广阔的化学空间中进行搜索,给药物设计带来了巨大的挑战。基于片段的药物发现一直是早期药物开发的有效范例。然而,该领域面临的一个挑战是,如何设计断开的感兴趣分子片段之间的连接子(linker),生成化学上合理的候选药物分子。在此,来自微软研究院科学智能中心(AI4Science)、洛桑联邦理工学院、牛津大学和 MIT 的研究团队,提出了一种用于分子 linker 设计的 E(3) 等变三维条件扩散模型 DiffLinker。与以前只能连接分子片段对的方法不同,新方法
李飞飞团队年度报告揭底大模型训练成本:Gemini Ultra是GPT-4的2.5倍
如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。今天,斯坦福 HAI 研究所发布了第七个年度的 AI Index 报告,这是关于人工智能行业现状的最全面的报告之一。访问地址:,人工智能的发展正以惊人的速度向前推进,开发人员每月都在制造出越来越强大、越来越复杂的模型。然而,尽管发展速度加快,人工智能行业在解决人们对人工智能可解释性的担忧以及对其对人们生活影响的日益紧张方面却进展甚微。在今年的报告中,斯坦福 HAI 研究所增加了有关负责任人工智能的扩展章节,有关科学和医学领域人工智能的新章节,以
模型被投毒攻击,如今有了新的安全手段,还被AI顶刊接收
在深度学习时代,联邦学习(FL)提供了一种分布式的协作学习的方法,允许多机构数据所有者或客户在不泄漏数据隐私的情况下协作训练机器学习模型。然而,大多数现有的 FL 方法依赖于集中式服务器进行全局模型聚合,从而导致单点故障。这使得系统在与不诚实的客户打交道时容易受到恶意攻击。本文中,FLock 系统采用了点对点投票机制和奖励与削减机制,这些机制由链上智能合约提供支持,以检测和阻止恶意行为。FLock 理论和实证分析都证明了所提出方法的有效性,表明该框架对于恶意客户端行为具有鲁棒性。现今,机器学习(ML),更具体地说,
Sora加入Adobe全家桶,视频改图加戏样样行:PR大更新预告
这就是生成式 AI 时代的视频编辑工具。Adobe 全家桶马上就要拥有最先进的生成式 AI 视频创作能力了。今天,Adobe 宣布了 Premiere Pro 全新版本的更新计划。其中包含为第三方 AI 视频生成模型添加插件,不论是 OpenAI 的 Sora 还是 Runway 的 Gen-2 和 Pika,很快都将出现在 Adobe 工具体系中可被人们所用。现在,基于 Adobe 自己的大模型 Firefly 的能力,你可以在视频素材上直接添加或减少内容。转场时感觉少点烘托背景的镜头?现在用 OpenAI 的
OpenAI CEO、COO 首次“合体”对话:AI 成本可降至“接近零”
OpenAI CEO 阿尔特曼和 COO(首席运营官)布拉德・莱特凯普近日首次“合体”参与 YouTube 频道“20VC”的对话节目。IT之家附视频: 据钛媒体,阿尔特曼认为如今限制 AI 发展的关键是地缘政治、社会经济等方面的不稳定,这也有可能是“根本原因”。同时,他也表示,未来(人工智能)的计算成本将持续下降,AI 的价值将随着模型质量提升而不断上升。“OpenAI 可以将非常高质量的 AI 技术成本降至接近零,这将对世界上大多数事情非常有利。”我们正处于一场真正的、相当大的技术革命之中。AI 正在从非常有限
DeepMind CEO 称谷歌计算能力优于微软,在 AI 领域的投入将超过千亿美元
DeepMind 首席执行官德米斯-哈萨比斯(Demis Hassabis)周一在温哥华举行的 TED 大会上被问及微软公司和 OpenAI 正在计划建造价值 1000 亿美元(当前约 7250 亿元人民币)的超级计算机 “星际之门”(Stargate),他表示谷歌在人工智能领域的投入未来将超过 1000 亿美元。哈萨比斯回答说:“我们不谈论具体数字,但我认为随着时间的推移,我们的投资会超过这个数字。”他没有透露具体的支出细节。他还表示 Alphabet 公司(IT之家备注:谷歌母公司)的计算能力优于包括微软在内的
微软向阿联酋人工智能公司 G42 投资 15 亿美元,加速 AI 开发和全球扩张
感谢微软公司和阿联酋人工智能(AI)技术控股公司 G42 今天宣布,微软将向 G42 战略投资 15 亿美元(当前约 108.75 亿元人民币)。此次投资将加强两家公司的合作,将微软最新的人工智能技术和技能培训计划带到阿联酋和世界其他国家。作为扩大合作的一部分,微软公司副董事长兼总裁布拉德-史密斯(Brad Smith)将加入 G42 董事会。史密斯表示:“两家公司不仅将在阿联酋合作,还将把人工智能和数字基础设施及服务带到服务不足的国家。我们将与阿联酋和美国政府密切协调,将世界一流的技术与世界领先的安全、可信和负责
OpenAI 推出 Batch 批处理 API:半价折扣,24 小时内输出结果
感谢OpenAI 今天凌晨面向开发者推出 Batch 批处理 API,可在 24 小时内给出结果,并提供 API 半价折扣。新的 Batch API 适用于异步任务处理,如当开发者需要处理大量文本、图片、摘要时,就可以使用该 API,OpenAI 会在 24 小时内给出处理结果。这样 OpenAI 可以在非高峰期处理,节约服务器资源,并为开发者提供半价优惠,解锁更高的速率限制。新的 Batch API 支持使用以下模型:gpt-3.5-turbogpt-3.5-turbo-16kgpt-4gpt-4-32kgpt-
DeepMind升级Transformer,前向通过FLOPs最多可降一半
引入混合深度,DeepMind 新设计可大幅提升 Transformer 效率。Transformer 的重要性无需多言,目前也有很多研究团队致力于改进这种变革性技术,其中一个重要的改进方向是提升 Transformer 的效率,比如让其具备自适应计算能力,从而可以节省下不必要的计算。正如不久前 Transformer 架构的提出之一、NEAR Protocol 联合创始人 Illiya Polosukhin 在与黄仁勋的对话中说到的那样:「自适应计算是接下来必须出现的。我们要关注,在特定问题上具体要花费多少计算资
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
大约 1 个月前,马斯克所创办的 xAI 团队宣布开源 Grok-1——一个参数量为 3140 亿的 MoE 大模型。 从参数量来看,Grok-1 超越了 70B 的 LLaMA 2,是当前开源模型中最大的一个,被调侃为「庞然大物」。 然而,有研究人员测试却发现,参数规模量如此巨大的 Grok-1 ,效果竟然只与 Mistral AI 的 8x7B MoE 模型相当。
极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]。从国际顶流 GPT-4 128K、Claude 200K 到国内「当红炸子鸡」支持 200 万字上下文的 Kimi Chat,大语言模型(LLM)在长上下文技术上不约而同地卷起来了。当全
百度发布“全球首个 AI 原生操作系统”DuerOS X,用于小度音箱等
感谢在今日举行的 Create 2024 百度 AI 开发者大会上,小度科技宣布推出“全球首个 AI 原生操作系统”DuerOS X。据介绍,该系统基于百度文心大模型进行了全面升级,在多模态感知和拟人化呈现方面有了“重要突破”。通过 DuerOS X,小度的人机交互体验将实现“质的飞跃”,为用户提供更加自然、智能的交互方式。DuerOS 是百度在 2017 年推出的首个对话式人工智能操作系统,目前用于小度智能音箱等产品,已经迭代到 7.0 版本,DuerOS X 将迎来更多 AI 功能升级。DuerOS X 融合百
刷爆多模态任务榜单!贾佳亚团队Mini-Gemini登热榜,代码、模型、数据全部开源
Mini-Gemini 堪比 GPT4 DALLE3 王炸组合。更高清图像的精确理解、更高质量的训练数据、更强的图像解析推理能力,还能结合图像推理和生成,香港中文大学终身教授贾佳亚团队提出的这款多模态模型 Mini-Gemini 堪称绝绝子,相当于开源社区的 GPT4 DALLE3 的王炸组合!Github 地址: 地址: ::: 还提供了 2B 小杯到 34B 的超大杯,最强模型在多个指标上相比 Google Gemini Pro 甚至 GPT-4V 都不遑多让。目前,Mini-Gemini 从代码、模型、到数据
多篇顶会一作却申博失败?斯坦福博士生亲述:AI领域太卷
「尽管我在顶级 ML 会议上发表了多篇一作论文,为开源项目做出了贡献,也在业界产生了影响,但我仍在为进入博士课程而苦苦挣扎。我被顶尖大学拒之门外,感到迷茫和疲惫。」「我开始怀疑自己,怀疑如果没有合适的人脉或家庭背景,光有强大的研究背景是否还不够。我正在考虑放弃攻读博士学位以及从事有价值研究的梦想。」在刚刚过去的周末,关于「AI 博士申请条件卷上天」的帖子成为了 Reddit 社区讨论的焦点。这个帖子的作者在 EMNLP、NeurIPS、ACM、ACL 等顶级会议和研讨会上以第一作者发表了多篇研究论文,也被公司评为过