谷歌
会用ChatGPT≠工程师,谷歌资深员工发文,揭秘AI编程不为人知的真相
尽管程序员们纷纷反馈用上AI辅助之后,工作效率提升,但我们用到的软件中bug依旧不少。 针对这一现象,前谷歌产品经理Peter Szalontay,以及现任的谷歌Chrome的工程团队领导Addy Osmani都给出了自己的分析,并提供了一些如何使用AI辅助编程的建议。 AI编码工具的黑暗真相1月7日,前谷歌产品经理Peter Szalontay发推,并配上了一个令人惊心动魄的标题:「无人谈论的AI编码工具的黑暗真相」。
谷歌发布Geimini2.0,开启Agent新时代
Open AI连续几天上新,谷歌也不甘示弱。 今天谷歌深夜炸群,重磅发布了杀手锏——Gemini2.0,声称“Gemini2.0 是我们迄今为止最新、功能最强大的 AI 模型。 ”其最大的亮点是Gemini2.0 是第一家实现原生多模态输入输出的模型。
谷歌母公司 Alphabet 总裁:美国 AI 技术未必会永远领先中国
据彭博社报道,Alphabet 公司总裁兼首席投资官鲁斯・波拉特(Ruth Porat)表示,美国在人工智能(AI)发展竞赛中未必能保持对中国的领先优势。
1M长上下文,满血版Gemini 2.0又一次登上Chatbot Arena榜首
就在国内各家大模型厂商趁年底疯狂卷的时候,太平洋的另一端也没闲着。 就在今天,谷歌发布了 Gemini 2.0 Flash Thinking 推理模型的加强版,并再次登顶 Chatbot Arena 排行榜。 谷歌 AI 掌门人 Jeff Dean 亲发贺信:「我们在此实验性更新中引入了 1M 长的上下文,以便对长篇文本(如多篇研究论文或大量数据集)进行更深入的分析。
谷歌押注多模态AI,BigQuery湖仓一体是核心支柱
根据多家调研机构的预测,未来几年,全球多模态AI市场的年增长率将超过35%,而谷歌正在积极布局,以期在这一蓬勃发展的市场中占据领先地位。 谷歌云计算部门最近宣称,将文本、图像、视频、音频和其他非结构化数据与生成式人工智能(GenAI)处理相结合的多模态AI,将成为2025年五大人工智能趋势之一。 BigQuery湖仓一体引领谷歌多模态AI战略谷歌负责数据、分析和人工智能战略的产品主管Yasmeen Ahmad表示,BigQuery数据仓库是谷歌多模态AI战略的核心支柱,公司正致力于将其重塑为能够整合并分析多样化数据类型的湖仓一体(Data Llakehouse)。
搅动推理 AI 模型风云:谷歌被曝 1 月 23 日发布增强版 Gemini 2.0 Flash Thinking
消息源 @sir04680280 于 1 月 19 日发布博文,报道称观看谷歌黑客马拉松直播时,发现谷歌升级版 Gemini AI 模型“Gemini 2.0 Flash Thinking Exp-0123”,暗示 1 月 23 日发布。
人类全程没碰一个字,谷歌 Gemini 不到 4 小时写完 10 万字商业战略书籍
初创公司 DeepWriter 宣布:世界第一部完全由 AI 写作的 10 万字商业竞争书籍诞生了!全程没有人类参与工作,不到 4 小时,即可完成约 10 万单词的商业书籍创作。
谷歌公布 Titans 系列 AI 模型架构:融合长短期记忆与注意力机制、突破 200 万上下文 Token
谷歌研究院发文,公布了“Titans”系列模型架构,相应模型架构最大的特点是采用“仿生设计”,结合了短期记忆、长期记忆和注意力机制,支持超过 200 万个 Token 的上下文长度,谷歌计划将 Titans 相关技术开源。
美政府力邀 ChatGPT 产品主管出庭作证,希望增强对谷歌的反垄断指控
美国政府目前正通过邀请 ChatGPT 产品负责人 Nick Turley 作为证人来增强其对谷歌的反垄断指控,特别是为了证明谷歌的竞争对手在进入搜索市场时面临巨大的障碍。
谷歌 CEO 皮查伊认为 Gemini 能力“市面最强”,已超越竞争对手
据《华尔街日报》今日报道,谷歌CEO桑达尔·皮查伊认为,自家的AI技术在市场上处于领先地位,但要想让消费者真正关注仍需更多努力。
近8年后,谷歌Transformer继任者「Titans」来了,上下文记忆瓶颈被打破
正如论文一作所说,「新架构 Titans 既比 Transformer 和现代线性 RNN 更有效,也比 GPT-4 等超大型模型性能更强。 」终于,在 2017 年推出影响 AI 行业长达 8 年的 Transformer 架构之后,谷歌带来了全新的架构 Titans。 这次,谷歌的重点是将推理领域非常重要的测试时(test-time)计算用在了记忆(memory)层面。
谷歌新架构终结Transformer,长序列处理王者诞生?清华姚班校友新作
Transformer后继者终于现身! 2017年,Attention Is All You Need首次引入注意力机制,成为现代LLM诞生标志。 虽然Transformer依然大行其道,但其架构的缺陷却饱受诟病,尤其是无法扩展更长上下文。
谷歌宣布将 AI Studio 团队整体转移至 DeepMind 旗下,整合人工智能部门项目提升效率
谷歌目前正在加速整合其 AI 部门,参考谷歌 AI Studio 主管 Logan Kilpatrick 领英页,其透露谷歌已将其 AI Studio 团队整体转移到 DeepMind 旗下,这是为了“提升部门间合作”,以便于推进各大项目效率。
“废片”也值钱:谷歌、OpenAI 被曝购买创作者未发布视频素材,以训练 AI 模型
OpenAI、谷歌、AI 媒体公司 Moonvalley 等正在向数百名内容创作者支付费用,以获取他们未发布的视频素材。由于这些素材没有在网上公开发布,因此它们对训练人工智能算法具有很高的价值,因为它们具有唯一性。
谷歌组建新AI团队开发“世界模型”:通往AGI的关键路径
最近谷歌组建一个新团队,专门开发可以用来模拟物理世界的AI模型,也就是所谓的“世界模型”(World Models)。 蒂姆·布鲁克斯(Tim Brooks)原本是OpenAI的一名高管,也是视频生成工具Sora的主要开发者之一。 去年10月,他加入谷歌DeepMind,成为新领导之一。
AI“造物主”:谷歌招兵买马打造“世界模型”模拟真实世界,剑指 AGI
科技媒体 The Verge 昨日(1 月 7 日)发布博文,报道称谷歌 DeepMind 组建了一支专业团队,正全力打造能够模拟真实物理环境的“世界模型”。
Sora核心作者掌舵,谷歌世界模型新团队全球招募:百万底薪起步
最新消息,Sora核心作者,将领导谷歌世界模型团队! Tim Brooks——带队Sora研究的两位负责人之一,也是DALL-E 3作者之一,刚刚发布了一条热情四溢的推特,广纳天下英才:DeepMind有雄心勃勃的计划,要制作大量世界模型。 向着这个使命,我开始招募一个新团队。
谷歌 DeepMind 推 CAT4D:AI 魔法突破次元壁,普通视频活变 3D 大片
科技媒体 The Decoder 昨日(1 月 3 日)发布博文,报道称谷歌 DeepMind 联合哥伦比亚大学、加州大学圣地亚哥分校的研究人员,开发了一款名为 CAT4D 的 AI 系统,可以将普通视频转化为动态 3D 场景,降低了 3D 内容创作的门槛,为多个行业带来了新的可能性。