资讯列表

实时AI,最难躺平的战场

机器之能报道编辑:Sia有人预测 2024 将是视频之年,其实今年已经看出端倪。年终将至,图像、视频生成战场仍然高潮迭起。前阵子上线的 Pika Labs 1.0 炸了一波,Meta 又推出一个免费的 AI 图像生成器,口碑不错。谷歌 DeepMind 最新文生图模型  Imagen 2 毫无悬念地登上了今天的头条 。如果有内测资格,你会发现谷歌搜索居然可以直接生图。进入谷歌实验室,测试中的谷歌搜索可以直接生图了。与此同时,之前热度不减、但一直处在内测阶段的 AI 设计工具 Krea AI Beta 版也终于开放,

Karmada正式晋级CNCF孵化项目 华为云发起,开源项目Karmada正式晋级CNCF孵化项目

12月12日,云原生计算基金会(CNCF)宣布,CNCF技术监督委员会(TOC)已投票通过Karmada为正式孵化项目。Karmada是华为云捐赠的云计算开源技术,是业界首个多云多集群容器编排项目。正式晋升CNCF孵化级,也意味着Karmada的技术生态已受到全球业界广泛认可,在分布式云原生技术领域进入了成熟新阶段。作为CNCF首个跨云跨集群容器编排引擎,Karmada由华为云、工商银行、小红书、中国一汽等八家企业联合发起。项目于2021年4月正式开源,2021年9月加入CNCF成为沙箱项目。Karmada的贡献者

还争什么「新闻女王」,AI要7x24小时播新闻了

该系统的目的是取代那些只会照着提词器念稿子的主播,而不是真正的记者。「我要做一个星期七天的黄金时段新闻,」这是近期热播剧《新闻女王》里的一句台词。该剧讲述了几位主播在电视台内部明争暗斗的故事。人人都挖空心思,想全年无休连播七天黄金档。观众不禁感慨,他们真的太爱上班了。不过,作为血肉之躯,哪怕再爱上班,人类主播也终究要休息。此时,AI 主播的优势就很明显了,他们可以 7x24 小时不间断播新闻,就像美国媒体初创公司 Channel 1 放出的这段 demo 一样:   这段 demo 的发布在美国新闻界激起了热烈讨论

ChatGPT成为Nature年度十大人物,首个非人类实体

尽管我们无法预料大模型会生成什么,也不知道算力和数据的极限在哪里,但生成式 AI 革命是不可阻挡的。2023 年已经进入尾声,是时候回顾一下今年的重要科学进展了。12 月 13 日,著名科学期刊《Nature》刚刚发布了 2023 年度十大人物(Nature’s 10),旨在评选出为科学领域做出重要贡献并引起人们对关键问题关注的个人。Nature’s 10 链接:,今年的 Nature’s 10 包含了大型语言模型(LLM)ChatGPT,这是有史以来第一次「计算机程序」入选。《Nature》表示这一做法旨在认可模

加速算力基础设施建设,「数智说」算力新基建论坛即将启幕

数字时代,算力正成为赋能科技创新、助推产业转型升级的重要引擎,以算力为核心的数字信息基础设施建设被提到前所未有的高度。数智上海 2023 峰会・上海城市数字化转型体验周开幕式将于 12 月 16 日在上海杨浦举办。为推动智算基础设施建设,助力上海城市能级和核心竞争力提升,活动当天下午将特别举办「数智说」算力新基建论坛。论坛汇聚云赛智联、上海通服、上海联通、中科曙光、燧原科技、科华云集团、UCloud 优刻得等智算服务供应商、运营商、云计算服务商、AI 芯片企业代表以及上海市算力网络协会代表,共论产业发展新趋势、新格

谷歌DeepMind最先进Imagen 2发布:这些AI图片你能辨别吗?

Imagen 2可以生成质量更高、更逼真、更准确的图像。谷歌最近真是好消息不断。先是前几天祭出大杀器 Gemini,发布会上的一系列 Demo 展示让人眼花缭乱。短短一周时间,现在谷歌又宣布了几个好消息:Gemini Pro 的第一个版本现在可以通过 Gemini API 访问;发布 Imagen 2;推出一系列针对医疗行业进行微调的模型 MedLM。在这些发布当中,文本到图像的 Imagen 2 受到大家格外的关注。此前,谷歌就推出了文本到图像扩散模型 Imagen,其生成的结果可谓是天马行空、奇幻又逼真。现在,

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。近日,滑铁卢大学、加拿大向量研究院、北京大学等机构联合发布 EAGLE,旨在提升大语言模型的推理速度,同时保证模型输出文本的分布一致。这种方法外推 LLM 的第二顶层特征向量,能够显著提升生成效率。技术报告:(支持商用 Apache 2.0): 具有以下特点:比普通自回归解码(

实现量子化学精度,同时规避几何弛豫瓶颈,深度对比学习用于分子性质有效预测

编辑 | 紫罗数据驱动的深度学习算法可以准确预测高级量子化学分子特性。然而,它们的输入必须限制在与训练数据集相同的量子化学几何弛豫水平,从而限制了它们的灵活性。采用替代的经济有效的构象生成方法会引入域偏移(domain-shift)问题,从而降低预测精度。近日,来自韩国首尔大学的研究人员提出了一种基于深度对比学习的域适应(domain-adaptation)方法,称为局部原子环境对比学习(Local Atomic environment Contrastive Learning,LACL)。LACL 通过比较不同的

品牌如何借助 AI 制造出圈热梗?来看3个人气案例!

随着 AI 技术的不断发展,我们正目睹着品牌与消费者之间互动方式的革命,这为企业提供了更多的机会来实现个性化、互动性和沉浸式的营销体验。让我们一起探索品牌如何利用 AI 技术创造社交媒体的热梗,并融入 Z 时代的文化趋势,打造全新的营销方式。 更多AI设计案例:一、前言 Z 时代即千禧一代,即出生于 1995-2009 年的群体,成长在数字化时代,更注重个性化体验和创新性。他们会有自己的“Gap Day”,嗨起来可以来趟“特种兵之旅”,停下来可以在上学和上班之间选择“上香”;会通过“多巴胺穿搭“与”美拉德穿搭”,在

OpenAI非营利实体去年收入不到4.5万,Altman薪水7万多点,独董报酬为0

机器之能报道编辑:吴昕OpenAI 的非营利实体在其最新的美国税务文件中报告的收入仅为 44,485 美元,远低于其800多亿美元的估值,也远低于其营利性实体从 ChatGPT 中赚取的数千万美元。非盈利实体真能驾驭如日中天的盈利部门?如果你正在寻找估值 860 亿美元 OpenAI 的收入数据,你会发现,这家炙手可热的明星去年收入仅为 44,485 美元。而且,绝大部分来自投资收入,极小一部分来自捐赠和资助。该公司向美国国家税务局(IRS)提交的非盈利组织所得税申报表(简称 990表格)披露了这个数字。数字来自其

练习时长两年半,特斯拉人形机器人Optimus二代上线

什么时候能买到?没有经过任何预告,特斯拉人形机器人「Optimus」第二代来了。12 月 13 日上午,马斯克突然在 X 上放出了一段视频:马斯克不多解释,直接用视频内容展示了 Optimus 的诸多新能力。从设想到蹒跚学步,再到引发恐怖谷效应,练习时长两年半,Optimus 这回的亮相惊艳了世人。在马斯克的推文下,人们纷纷表示欢迎和期待:「很急,什么时候才能买到呢?」从视频上来看,Optimus Gen2 相比上一代有了很大改进,包括:由特斯拉设计的致动器和传感器2-Dof(自由度)的脖子行走速度提高 30%重量

微软小模型击败大模型:27亿参数,手机就能跑

在「小搏大」这条技术发展路线上,微软一直在前进。上个月,微软 CEO 纳德拉在 Ignite 大会上宣布自研小尺寸模型 Phi-2 将完全开源,在常识推理、语言理解和逻辑推理方面的性能显著改进。今天,微软公布了 Phi-2 模型的更多细节以及全新的提示技术 promptbase。这个仅 27 亿参数的模型在大多数常识推理、语言理解、数学和编码任务上超越了 Llama2 7B、Llama2 13B、Mistral 7B,与 Llama2 70B 的差距也在缩小(甚至更好)。同时,小尺寸的 Phi-2 可以在笔记本电脑

共议金融科技创新与赋能之道,「数智说」金融科技与数实融合论坛即将启幕

金融是国民经济的血脉,是国家核心竞争力的重要组成部分,上海承载着国际金融中心建设的重要使命。为了进一步加强现代金融机构和金融基础设施建设,推动金融更好地服务实体经济和科技创新,在即将举办的数智上海 2023 峰会・上海城市数字化转型体验周开幕式上,将特别举办「数智说」金融科技与数实融合论坛。12 月 16 日,上海杨浦五角场凯悦酒店,论坛将汇聚来自上海大学、上海市电子商务行业协会以及工商银行、星环科技、中电金信、数库科技、海通证券、道口金科、中微汇链、棉联云科技集团等金融机构、金融科技企业、数字供应链企业的众多代表

将Transformer用于扩散模型,AI 生成视频达到照片级真实感

在视频生成场景中,用 Transformer 做扩散模型的去噪骨干已经被李飞飞等研究者证明行得通。这可算得上是 Transformer 在视频生成领域取得的一项重大成功。近日,一项视频生成研究收获了大量赞誉,甚至被一位 X 网友评价为「好莱坞的终结」。真的有这么好吗?我们先看下效果:很明显,这些视频不仅几乎看不到伪影,而且还非常连贯、细节满满,甚至似乎就算真的在电影大片中加上几帧,也不会明显违和。这些视频的作者是来自斯坦福大学、谷歌、佐治亚理工学院的研究者提出的 Window Attention Latent Tr

全方位、无死角的开源,邢波团队LLM360让大模型实现真正的透明

我们需要更全面和深入地共享。开源模型正展现着它们蓬勃的生命力,不仅数量激增,性能更是愈发优秀。图灵奖获得者 Yann LeCun 也发出了这样的感叹:「开源人工智能模型正走在超越专有模型的路上。」专有模型在技术性能和创新能力上展现了非凡的力量,但是它们不开源的性质成为 LLM 发展的阻碍。一些开源模型虽然为从业者和研究者提供了多样化的选择,但大多数只公开了最终的模型权重或推理代码,越来越多的技术报告将其范围限制在顶层设计和表面统计之内。这种闭源的策略不仅限制了开源模型的发展,而且还在很大程度上阻碍了整个 LLM 研

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

如何让 LLM “忘记” 学到的有害内容?随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。目前业界的主流解决方案为 LLM 对齐 (alignment),即通过建立对比数据(正样本和负样本)用强化学习的方式来对 LLM 进行微调 (Fine

GHDDI与微软研究院科学智能中心达成合作,联手通过AI革命性赋能新药研发

编辑 | X2023年12月12日,北京——全球健康药物研发中心(Global Health Drug Discovery Institute, GHDDI)与微软研究院科学智能中心(Microsoft Research AI4Science)宣布达成合作,双方将共同研发全球健康传染病领域的生成式人工智能与基础大模型技术,聚焦落地转化,加速创新药物研发。此前,双方已成功在结核分枝杆菌以及冠状病毒关键靶蛋白的研究中设计出多种全新结构的小分子抑制剂。全球健康药物研发中心与微软研究院科学智能中心合作启航仪式基于开放创新的

优化回收电池的质量和盈利能力,清华团队通过联邦机器学习对废旧电池材料进行分类

编辑 | 萝卜皮未经分类的「退役电池」具有不同的正极材料,由于其正极特定的性质,阻碍了直接回收的采用。报废电池的激增需要精确分类以实现有效的直接回收,但不同的运营历史、不同的制造商以及回收合作者(数据所有者)的数据隐私问题带来了挑战。清华大学团队展示了,从涵盖 5 种阴极材料和 7 家制造商的 130 块锂离子电池的独特数据集中,联邦机器学习方法可以对这些退役电池进行分类,而无需依赖过去的运营数据,从而保护回收合作者的数据隐私。通过利用从报废充放电循环中提取的特征,该团队的模型在同质和异质电池回收设置下分别表现出