资讯列表

史上首位阿贝尔奖、图灵奖双得主!2023图灵奖授予随机性大佬Avi Wigderson

这位多产的研究者发现了随机性和计算之间的深刻联系,其贡献影响了密码学、复杂性等多个领域的研究。今年的图灵奖,比往年来的要晚一些。北京时间 4 月10日晚,计算机协会ACM宣布将2023图灵奖授予普林斯顿高等研究院数学家和顶级理论计算机科学家阿维·威格森(Avi Wigderson),以表彰他对计算理论的基础性贡献,包括塑造对计算中随机性作用的理解,以及数十年来在理论计算机科学领域的卓越领导力。Wigderson为普林斯顿高等研究院数学学院的Herbert H. Maass教授,在计算复杂性理论、算法和优化、随机性和

最高 7.25 美元 / 分钟,Adobe 购买视频构建 AI 模型与 Sora 竞争

感谢Adobe 公司已开始采购视频,用来构建其 AI 驱动的文本到视频生成器,在 OpenAI 展示类似技术(Sora)后,Adobe 试图赶上竞争对手。这家软件公司正在向其摄影师和艺术家网络提供每份 120 美元(IT之家备注:当前约 870 元人民币)的报酬,Adobe 要求他们提交人们从事日常活动(如行走)或表达各种情绪(包括喜悦和愤怒)的视频。该公司表示,这样做是为了给人工智能训练收集资料。Adobe 要求提供 100 多个参与动作和表达情感的人的短片,以及脚、手或眼睛的简单解剖镜头。该公司还希望获得人们“

英伟达 H100 AI GPU 短缺缓解,交货时间从 3-4 个月降至 2-3 个月

曾几何时,英伟达用于人工智能计算的 H100 GPU 供不应求。然而据 Digitimes 报道,台积电的台湾地区总经理 Terence Liao 表示,过去几个月英伟达 H100 的交货等待时间已经大幅缩短,从最初的 3-4 个月降至目前的 2-3 个月(8-12 周)。服务器代工厂商也透露,相比 2023 年几乎无法买到英伟达 H100 的情况,目前供应瓶颈正在逐步缓解。尽管交货等待时间有所缩短,Terence Liao 表示,对于人工智能硬件的需求仍然非常旺盛。即使价格昂贵,用于人工智能的服务器采购也正在取代

1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

感谢Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过

IP Adapter Plus 插件手把手教程!用法更简单,可分别控制风格与构图

大家好,这里是和你们一起探索 AI 的花生~ IP Adapter 是 SD 生态中一个非常强大的风格迁移插件,可以将一张图像的风格复制到新生成的图像中,有效提升我们的出图效率,目前在设计领域有广泛应用。 相关推荐:最近,ComfyUI IP Adapter Plus 的作者 @cubiq 重写了插件代码,对整体进行了升级更新。新插件在节点搭建和模型上读取上比之前更简单方便,并且支持的功能也更丰富了。而最让人惊喜的一点是 IP Adapter Plus 支持分别进行风格迁移、构图迁移和二者的联合使用,可以让我们更准

Meta 发布新一代 AI 训练与推理芯片,性能为初代芯片三倍

Meta Platforms 当地时间 10 日发布了其训练与推理加速器项目(MTIA)的最新版本,MTIA 是 Meta 专门为 AI 工作负载设计的定制芯片系列。据介绍,此次发布的新一代 MTIA 与第一代 MTIA 相比,显著改进了性能,并有助于强化内容排名和推荐广告模型。其架构从根本上侧重于提供计算、内存带宽和内存容量的适当平衡。该芯片还可帮助提高训练效率,使推理(即实际推理任务)变得更容易。Meta 在其官方博客文章中表示,“实现我们对定制芯片的雄心壮志,意味着我们不仅要投资于计算芯片,还要投资于内存带宽

UL Procyon AI 图像生成基准测试现已适配兼容苹果 macOS 系统

测试认证机构、3DMark 开发方 UL Solution 宣布旗下 UL Procyon AI 图像生成基准测试现已兼容苹果 macOS 操作系统。该 AI 图像生成基准测试于上月推出,是 UL Procyon 专业基准测试套件的一部分。其基于 Stable Diffusion AI 模型(包含 1.5 和 XL 两种版本),能在所有支持的硬件上得到公平且可比较的结果。UL Procyon AI 图像生成基准测试通过强大的推理负载测量专用 AI 处理硬件的性能,首发时适配支持英伟达 TensorRT、英特尔 Op

Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗

感谢当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过

腾讯音乐与长城汽车开启战略合作,聚焦智能座舱 AI 音频技术

感谢腾讯音乐娱乐集团(TME)与长城汽车 4 月 9 日举办研讨会,并宣布正式开启战略合作。腾讯音乐为长城汽车颁发了“AI 座舱先锋合作伙伴”证书,双方将聚焦智能座舱中的 AI 音频技术展开合作,并通过 TME 旗下产品实现,共同打造座舱娱乐的创新体验。此次合作将充分利用腾讯音乐在音频领域的技术优势和长城汽车在智能座舱领域的研发实力,共同推动智能座舱 AI 音频技术的发展。腾讯音乐娱乐集团提供在线音乐和以音乐为核心的社交娱乐两大服务。腾讯音乐娱乐在中国有着广泛的用户基础,拥有目前国内市场知名的四大移动音乐产品:QQ

微软宣布 4400 亿日元历史最大在日单笔投资,并为三百万人提供 AI 技能培训

感谢微软今日宣布未来两年在日投资 4400 亿日元(IT之家备注:当前约 209.88 亿元人民币),加强当地的 AI 和云基础设施建设。这笔资金是微软历史上最大的在日单笔投资,使得微软对日本算力基础设施的投资承诺翻倍。这些投资将大幅提升微软在日的基础设施处理能力,为日本提供最先进的 AI GPU 算力资源,推动日本企业的 AI 运用和数字转型。微软还承诺在未来 3 年向包括临时工在内的 300 万日本人提供 AI 技能培训。该培训计划将面向开发人员、学生、各类企业和组织员工开放。微软亚洲研究院将在东京建立新的研究

目标打造最强代码辅助工具,谷歌发布 CodeGemma AI 模型

谷歌公司近日发布了 CodeGemma 先进大语言模型(LLMs),专门用于生成代码、理解和追踪指令等,开发目的是让全球开发人员更容易获得高质量的代码辅助工具。CodeGemma 作为 Gemma 模型的开放访问系列推出,针对代码开发场景进行优化、微调(fine-tuned)。该套件包括三种不同的模型:20 亿参数的基础模型:优化补全和生成代码,在注重延迟和隐私的情况下主要为代码提供快速高效的解决方案。70 亿参数基础模型:整合代码补全和自然语言处理,增强了其在完成代码和理解语言生成任务时的实用性。用于指导追踪的

7B超越百亿级,北大开源aiXcoder-7B最强代码大模型,企业部署最佳选择

对代码大模型而言,比能做编程题更重要的,是看是能不能适用于企业级项目开发,是看在实际软件开发场景中用得顺不顺手、成本高不高、能否精准契合业务需求,后者才是开发者关心的硬实力。当下,大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。业界已经出现了一批引人瞩目的代码大模型,比如 OpenAI 的 CodeX、谷歌 DeepMind 的 AlphaCode、HuggingFace 的 StarCoder,帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升效率。有这样一支研发团队,在 10 年前便开始了

94岁诺奖得主希格斯去世,曾预言「上帝粒子」的存在

一位用诗意的语言揭示宇宙秘密的人。一位 94 岁伟大科学家的逝世,引发了人们广泛的哀思。4 月 10 日消息,诺贝尔物理学奖得主、著名物理学家彼得・希格斯(Peter Higgs)于周一去世,享年 94 岁。希格斯因提出希格斯玻色子也被称为「上帝粒子」而闻名。根据爱丁堡大学的一份声明我们得知(彼得・希格斯是该校的荣誉退休教授),希格斯经历短暂的生病后,于 4 月 8 日星期一在家中安静的离开。对于老爷子的去世,爱丁堡大学校长 Peter Mathieson 沉重的表示:「彼得・希格斯是一位杰出的科学家 —— 一位真

全面突围,谷歌昨晚更新了一大波大模型产品

这次,谷歌要凭「量」打败其他竞争对手。当地时间本周二,谷歌在 Google’s Cloud Next 2024 上发布了一系列 AI 相关的模型更新和产品,包括 Gemini 1.5 Pro 首次提供了本地音频(语音)理解功能、代码生成新模型 CodeGemma、首款自研 Arm 处理器 Axion 等等。Gemini 1.5 ProGemini 1.5 Pro 是 Google 功能最强大的生成式 AI 模型,现已在 Google 以企业为中心的 AI 开发平台 Vertex AI 上提供公共预览版。这是谷歌面向

Llama架构比不上GPT2?神奇token提升10倍记忆?

一个 7B 规模的语言模型 LLM 能存储多少人类知识?如何量化这一数值?训练时间、模型架构的不同将如何影响这一数值?浮点数压缩 quantization、混合专家模型 MoE、以及数据质量的差异 (百科知识 vs 网络垃圾) 又将对 LLM 的知识容量产生何种影响?近日,朱泽园 (Meta AI) 和李远志 (MBZUAI) 的最新研究《语言模型物理学 Part 3.3:知识的 Scaling Laws》用海量实验(50,000 条任务,总计 4,200,000 GPU 小时)总结了 12 条定律,为 LLM 在

亚马逊 AI 超市「无人」收款,1000 个印度人藏在背后……

就离谱,都 2024 了,人工智能靠人工的戏码还在上演。而且是类似 ATM 机背后坐真・柜员给你递钱的那种!当你走进一家超市,挑选完商品,无需人工、自助结账,直接拿好东西走人,等待一段时间,AI 就能基于视频识别出你选了哪些东西,然后把账单发送过来,你只需点击付款。听着是不是很方便?“拿 1000 个印度人换来的”。在摄像头背后,有一个规模达千人的印度团队,需要通过肉眼远程查看顾客拿了什么商品。好家伙,新的等式出现了:AI=Anonymous Indians(姓名不详的印度人)???这就是最近被曝光的亚马逊无人超市

Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌

真有围剿 Google 的态势啊!在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。谷歌内心:南村群童欺我老无力。第二大开源模型:Mixtral 8X22B今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B – Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.

英伟达竞品来了,训练比H100快70%,英特尔发最新AI加速卡

性能有优势,可扩展性也更好。英伟达的 AI 加速卡,现在有了旗鼓相当的对手。今天凌晨,英特尔在 Vision 2024 大会上展示了 Gaudi 3,这是其子公司 Habana Labs 的最新一代高性能人工智能加速器。Gaudi 3 将于 2024 年第三季度推出,英特尔现已开始向客户提供样品。凭借 1835 TFLOPS 的 FP8 计算吞吐量,英特尔相信它足以在广阔的(且昂贵的)AI 计算领域中分得一杯羹。根据内部基准测试,英特尔估计 Gaudi 3 性能部分超过了英伟达的 H100,并且具有更好的能耗比。在