Meta
Instagram 短视频板块 Reels 测试 AI 同传功能,用户可用自己声音“说外语”
开发者 Alessandro Paluzzi 今日在 X(推特)上公布了自己的最新发现:Instagram 的短视频板块 Reels 正在测试“AI 语音配音”功能,带来类似“同声传译”的体验。其放出的截图显示,Instagram 的 Reel 页面上出现了“Instagram 将通过 AI 来使你的声音听起来就在说另一门语言一样”的字样。下方的详情内容大意如下:观众将听到您的音频以您选择的语言配音。对于您现在或将来发布的 Reels,您可以为部分或所有语言关闭此功能。翻译和配音准备就绪后,您将收到通知。人们可以看
你的自拍和聊天记录,正被硅谷大厂砸数十亿美元疯抢
新智元报道 编辑:Aeneas 好困【新智元导读】2026 年的数据荒越来越近,硅谷大厂们已经为 AI 训练数据抢疯了!它们纷纷豪掷十数亿美元,希望把犄角旮旯里的照片、视频、聊天记录都给挖出来。不过,如果有一天 AI 忽然吐出了我们的自拍照或者隐私聊天,该怎么办?谁能想到,我们多年前的聊天记录、社交媒体上的陈年照片,忽然变得价值连城,被大科技公司争相疯抢。现在,硅谷大厂们已经纷纷出动,买下所有能购买版权的互联网数据,这架势简直要抢破头了!图像托管网站 Photobucket 的陈年旧数据,本来已经多年无人问津,但
拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
AI 生成工具的偏见何时休?在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。 马斯克也被系统过分矫正了。近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生
应对隐私 / 版权问题,5 月起 Meta Threads / Instagram 等平台将标记“疑似由 AI 生成的内容”
感谢AI 兴起产生的各种隐私 / 版权问题如今已成为科技行业许多人越来越关注的重点,而 Meta 公司今日发布新闻稿,宣布将在 5 月起在自家 Instagram、Threads 及 Facebook 平台为 AI 内容添加“水印标记”。Meta 在新闻稿中声称,这些变化来自公司内部监督委员会的建议、公共调查的结果和“学术界、民间社会组织和其他方面”的建议。IT之家注意到,Meta 公司将使用算法及真人检测“可能由 AI 生成的内容“,而用户也可以自行在图片中注释”相关图片由 AI 生成”,此类消息将作为水印添加至
Meta 下月将为 Ray-Ban 智能眼镜带来一系列 AI 功能:物体识别、翻译等
据《纽约时报》报道,下个月开始,Meta 将为其 Ray-Ban 智能眼镜带来一系列多模态 AI 功能,这些功能包括翻译、物体识别、动物及景物识别等等,已于去年 12 月进入早期测试阶段。用户只需说出“Hey Meta”并说出提示词或提出问题,便可激活该眼镜内置的 AI 助手,随后再通过镜框内置的扬声器进行回应。《纽约时报》经测试发现,在杂货店中、开车时或博物馆、动物园等多种场景之下,该眼镜可以正确识别宠物及艺术品,但并非“百分百”正确,例如难以识别远处或笼子里的动物。翻译功能方面,该眼镜支持英语、西班牙语、意大利
科技巨头争夺 AI 人才战况白热化,谷歌创始人亲自出马
感谢科技巨头们为了争夺顶尖人工智能 (AI) 人才,战况日益激烈,甚至使得一些大佬亲自出马。图源 Pexels据 The Information 报道,谷歌联合创始人谢尔盖・布林(Sergey Brin)曾亲自给一位考虑跳槽到 OpenAI 的谷歌员工打去电话,试图劝说他留下来,布林的电话攻势以及额外的薪酬承诺最终让这名员工决定留在谷歌。报道指出,人才争夺战是科技巨头间愈演愈烈的趋势之一。目前顶尖 AI 人才储备有限,而对这类人才的需求却达到了历史最高水平。各大科技公司纷纷出手,挖角彼此的顶尖人才,并提供令人咋舌的
消息称 Meta 正积极开展 AI 人才战:候选人无需面试,小扎亲自“摇人”
据 The Information 北京时间今晚报道,为了在争夺人工智能研究人员方面取得更大优势,Meta 正在采取一系列“非常规举措”,进一步加大了这场 AI 人才战的火药味。图源 Pexels报道称,这一系列的举措包括在不面试候选人的情况下向他们提供工作机会等,更为此前威胁离职的员工增加薪资 —— 在此之前,Meta 的“长期做法”是不加薪。另据两位查看过 Meta 相关邮件的人士透露,公司首席执行官马克・扎克伯格亲自写信给谷歌 DeepMind 部门的研究人员,想要将其纳入麾下,表明这家社交媒体公司“非常重视
Meta 推出 SceneScript AI 视觉模型,利用可编程语言实时预测建立 3D 场景
据 Meta 公司官方新闻稿,该公司开发了一款名为“SceneScript”的视觉模型,该模型号称能够使用可编程语言来快速“建立”场景,实时推断房间几何形状,并将相关数据转换为建筑学层面的近似值。▲ 图源 Meta 公司官方新闻稿(下同)Meta 声称,相关方法能够高效且轻量地建立室内 3D 模型,号称“只需要数 KB 的内存即可生成清晰且完整的几何形状”,并且相关形状数据具有“可解释性”,用户可以轻松阅读和编辑这些数据表示。IT之家注意到,开发人员借鉴了大语言模型“预测单词”的方法来开发 SceneScript,
Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3
感谢Meta 公司当地时间 12 日通过官方新闻稿公布了两座新的数据中心集群,该公司正希望通过英伟达的 GPU,在以 AI 为重点的开发中脱颖而出。据悉,这两座数据中心的唯一目的,是在消费者特定应用领域(IT之家注:包含声音或图像识别)中进行 AI 研究和大语言模型的开发,每个集群都包含了 24576 块英伟达 H100 AI GPU,将用于自家大语言模型 Llama 3 的训练。两座新建的数据中心集群都具有 400Gbps 互联功能,其中一个集群采用了 Meta 基于 Arista 7800 自主开发的 Fabr
专为训练Llama 3,Meta 4.9万张H100集群细节公布
只想知道 Llama 3 何时能来?生成式大模型给人工智能领域带来了重大变革,人们在看到实现通用人工智能(AGI)希望的同时,训练、部署大模型的算力需求也越来越高。刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了一笔重大的投资。这是 Meta 雄心勃勃的基础设施路线图中的一步。Meta 会持续扩大基础设施建设,到 2024 年底将包括 350000 个 NVIDIA H100 GPU,其计算能力将相当于近 600000 个 H100。Met
田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型
只用 24G 显存,消费级 GPU 就能搞定大模型了。上个月,Meta FAIR 田渊栋参与的一项研究广受好评,他们在论文《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases》中开始卷 10 亿以下参数小模型,主打在移动设备上运行 LLM。3 月 6 日,田渊栋又一项研究出炉,这次,他们主攻 LLM 内存效率。除了田渊栋本人,还有来自加州理工学院、德克萨斯大学奥斯汀分校以及 CMU 的研究者。他们合
全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA
半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。沿袭 ViT 的研究思路,我们能否借助创新性的 LLaMA 架构,真正实现语言和图像的架构统一?在这一命题上,最近的一项研究 VisionLLaMA 取得了进展。VisionLLaMA 在图像生成(包含 Sora 依赖的底层的 DIT)和理解(分类、分割、检测、自监督)等多个主流任务上相较于原 ViT 类方法提升显著。论文标题:VisionLLaMA: A Unified LLaMA Interfac
LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训
LLaMa 3 正寻找安全与可用性的新平衡点。过去的图像生成模型常被人们诟病人物主要以「白人」为主,而谷歌 Gemini 正在因为它的矫枉过正而深陷翻车风波。它「过度谨慎」的文生图结果会与历史事实出现极大偏差,让用户们瞠目结舌。谷歌表示,该模型变得比开发者预期的更加谨慎。这不仅体现在生成图片的问题上,还体现在常常将一些提示认作敏感提示,从而拒绝回答。在此事不断发酵时,这项安全与可用性如何平衡的难题也给 Meta 提出了巨大挑战。LLaMA 2 是开源领域的「强中手」,更是 Meta 的招牌模型,一经发布即改变了大模
端侧最强,Meta田渊栋等人卷10亿以下参数小模型,LeCun:小技巧启动
Meta 推出 MobileLLM 系列,一款适用于移动设备上的「小」模型。「在移动设备上运行 LLM?可能需要 Meta 的一些技巧。」刚刚,图灵奖得主 Yann LeCun 在个人社交平台表示。他所宣传的这项研究来自 Meta 最新论文《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases 》,在众多作者中也有我们熟悉的来自 Meta FAIR 田渊栋。田渊栋表示:「我们的 MobileLLM 预
后Sora时代,CV从业者如何选择模型?卷积还是ViT,监督学习还是CLIP范式
如何衡量一个视觉模型?又如何选择适合自己需求的视觉模型?MBZUAI和Meta的研究者给出了答案。一直以来,ImageNet 准确率是评估模型性能的主要指标,也是它最初点燃了深度学习革命的火种。但对于今天的计算视觉领域来说,这一指标正变得越来越不「够用」。因为计算机视觉模型已变得越来越复杂,从早期的 ConvNets 到 Vision Transformers,可用模型的种类已大幅增加。同样,训练范式也从 ImageNet 上的监督训练发展到自监督学习和像 CLIP 这样的图像 - 文本对训练。ImageNet 并
吉他摇滚、电子音乐都能搞定,Meta开源音频生成新模型MAGNeT,非自回归7倍提速
MAGNeT 有望改变我们体验音乐的方式。在文本生成音频(或音乐)这个 AIGC 赛道,Meta 最近又有了新研究成果,而且开源了。前几日,在论文《Masked Audio Generation using a Single Non-Autoregressive Transformer》中,Meta FAIR 团队、Kyutai 和希伯来大学推出了 MAGNeT,一种在掩码生成序列建模方法,可以直接在多个音频 tokens 流上直接运行。与以往工作最大的不同是,MAGNeT 是由单阶段、非自回归 transform
扎克伯格分红7亿刀,Meta股价大涨14%,开源大计成了?
Meta 正在走出阴霾。伴随着 Meta 的股价周四盘后上涨近 14%,升至历史新高,这家公司宣布了有史以来的首次股息派发。最近一次财报电话会议公布内容显示,Meta 公布的 2023 全年营收为 1349 亿美元,较 2022 年增长 16%;净利润为 391 亿美元,同比增长 69%。其中,第四季度营收为 401 亿美元,超出预期的 391.8 亿美元,同比增长 25%。从 3 月份开始,Meta 将按季度向 A 类和 B 类普通股派发现金股息 50 美分。根据彭博社汇编的数据,首席执行官扎克伯格持有约 3.5
小扎官宣Code Llama重量级更新,新增70B版本,但还有能力限制
功能更强大的 Code Llama 70B 模型来了。今天,Meta 正式发布 Code Llama 70B,这是 Code Llama 系列有史以来最大、性能最好的型号。我们正在开源一个全新的改进版 Code Llama,包括一个更大的 70B 参数模型。编写和编辑代码已成为当今人工智能模型最重要的用途之一。事实证明,编写代码的能力对于人工智能模型更严谨、更合理地处理其他领域的信息也非常重要。我为这一进展感到自豪,并期待着将这些进展纳入 Llama 3 和未来的模型中。Code Llama 70B 提供与之前发布