OpenAI 员工“疯狂暗示”内部已成功开发 ASI?被曝训出 GPT-5 但雪藏

OpenAI,有大事发生!最近各种爆料频出,比如 OpenAI 已经跨过「递归自我改进」临界点,o4、o5 已经能自动化 AI 研发,甚至 OpenAI 已经研发出 GPT-5?OpenAI 员工如潮水般爆料,疯狂暗示内部已开发出 ASI。

Mistral AI 旗下 Codestral 模型获 25.01 更新:支持超 80 种编程语言、上下文长度提至 25.6 万个 Token

Mistral AI 宣布为旗下 Codestral 编程模型推出 25.01 版本,官方强调相关版本主要在处理上下文长度和代码完成效率方面获得较大改进。

马斯克旗下聊天机器人 Grok 更换新 Logo,与 xAI 公司统一品牌形象

马斯克认为这能通过更突出的视觉呈现,加速 xAI 标志与 Grok 在公共形象上的绑定。

国家网络安全通报中心预警新型犯罪手法:利用 AI 绕过图形类验证机制

广西桂林公安网安部门通过调查,成功抓获该“黄牛”团伙,缴获电脑等作案工具一批。同时发现,部分图形类验证码组件风险隐患突出,极易被不法分子利用,提醒广大单位、个人加强防范。

NVIDIA 发布保障代理式 AI 应用安全的 NIM 微服务

AI 智能体有望成为能够完成各种任务的“知识机器人”,提升全球数十亿知识工作者的生产力。 为了开发 AI 智能体,企业需要解决信任、物理安全、网络安全以及合规性等关键问题。 全新 NVIDIA NIM AI Guardrail 微服务是 NVIDIA NeMo Guardrails.

研究公司公布 SwiftKV 技术:优化大模型提示词处理过程、降低 50% AI 推论时间

研究公司 Snowflake 公布了一款名为“SwiftKV”的 AI 模型调校技术,并在 Hugging Face 开源三款利用“SwiftKV”技术进行调校的 Llama 3.1 AI 模型。

阶跃星辰推理模型 Step R-mini 上线:宣称“文理兼修”,AIME 等数学基准测试成绩超 o1-preview

阶跃星辰昨日(1 月 16 日)宣布,自研推理模型 Step Reasoner mini(简称 Step R-mini )上线。

模拟5亿年进化的ESM3在Science发布了,可推理蛋白质序列、结构和功能

编辑 | 萝卜皮2024 年夏天 EvolutionaryScale 推出了 ESM3,一款面向蛋白质语言的大模型,成功在自然进化未曾涉足的区域设计出功能性蛋白。 同期上线了该研究的预印版本。 时隔半年,该研究以「Simulating 500 million years of evolution with a language model」为题,于 2025 年 1 月 16 日在《Science》发布。

Nature重磅:微软生成式AI材料设计工具,稳定性提升2倍,实验验证误差低于20%!

编辑 | 2049材料创新是推动技术进步的关键驱动力之一。 从 20 世纪 80 年代锂钴氧化物的发现到如今的锂离子电池技术,材料科学的每一次突破都深刻影响着我们的日常生活。 然而,传统的材料发现方法依赖于耗时且昂贵的实验试错过程,而计算筛选方法虽然加速了这一过程,但仍然受限于已知材料的数量。

AAAI2025|小红书搜索广告团队提出幻觉检测新方法:基于语义图增强的不确定建模

大型语言模型(LLMs)在生成文本时容易出现“幻觉”,即生成不真实或不忠实的内容,这限制了其在实际场景中的应用。 现有的研究主要基于不确定性进行幻觉检测,利用 LLMs 的输出概率计算不确定性,无需依赖外部知识或频繁采样。 然而,这些方法通常只关注单个 Token 的不确定性,忽略了 Token 和句子之间复杂的语义关系,导致在多 Token 和跨句子的幻觉检测中存在不足。

2025年企业扩展GenAI管道:自建与外部采购策略探索

在平衡雄心与实用性方面,扩大生成式工具的采用规模一直是一项挑战,而2025年,这一挑战比以往任何时候都要严峻。 争相采用大型语言模型(LLM)的企业正面临新的现实:扩展规模不仅仅是部署更大的模型或投资前沿工具——而且要以能够转变业务运营、增强团队能力和优化成本的方式整合AI。 成功不仅仅取决于技术,它还需要文化和运营上的转变,使AI能力与业务目标相契合。

生成式人工智能时代的数据治理挑战 ​

应对隐私、安全和合规性挑战以推动创新。 有效的数据治理由于生成式人工智能的最新发展变得更加关键。 数据治理的定义 数据治理指的是确保组织数据的管理、完整性和安全性的政策和流程。

120天复制马斯克速度!119块「乐高」搭出算力工厂,破局Scaling Law算力差

120天,119个集装箱,一座算力工厂拔地而起。 马斯克速度,竟被国内这家公司完美复刻了! 上面这座算力工厂,采用了浪潮信息专为AI时代提出的预制化AIDC解决方案。

用 AI 打假 AI,腾讯上线大模型检测工具

1 月 17 日消息,随着文生文、文生图、文生视频等领域应用成熟,随之而来的信任危机也同步爆发。 为此,腾讯今日宣布推出 AI 生成文本检测 / AI 生成图像检测工具。 腾讯官方称,虽然 AI 生成的图像在细节纹理上越来越逼真,但依然有迹可循,朱雀实验室研发了一款 AI 生成图片检测系统,将图片上传 —— 等待验证 —— 判断是否由 AI 生成,整个过程只有几秒钟,就能用魔法打败魔法 —— 用 AI“检测”AI 生成。

游戏结束了?OpenAI可能已经突破,跨过起飞的最后临界阈值

刚刚,X 上的一则帖子爆火,浏览量达到 30 多万。 该推文涉及引领 AI 潮流的 OpenAI。 内容显示「OpenAI 递归式自我改进目前在一个盒子里,准确的说是在一个无法破解的盒子!

视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

模型安全和可靠性、系统整合和互操作性、用户交互和认证……当“多模态”“跨模态”成为不可阻挡的AI趋势时,多模态场景下的安全挑战尤其应当引发产学研各界的注意。 应对挑战,淘天集团未来生活实验室团队联手南京大学、重庆大学、港中文MMLab提出了一种全新的视觉语言模型(VLM)安全对齐方法,PSA-VLM(Progressive Safety Alignment for Vision-Language Models)。 PSA-VLM通过基于概念瓶颈模型(CBM)的架构创新,允许模型在生成答案时干预模型的中间层概念预测,从而优化大模型的最终回复,显著提升VLM在应对视觉安全风险方面的性能。

一觉醒来,在逆水寒里被AI娘包围了?豆包Kimi通义现身搅动江湖

前两天,在游戏论坛闲逛时,看见一个帖子说《逆水寒》手游更新了。 这个 AI 浓度超高的游戏最近多了几位各有特色的「AI 娘」,还多了一种名叫「AI 大模型竞技场」的新玩法。 作为一家专业的人工智能媒体,AI 竞技场我们熟呀。

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。 特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内存杀手」。 虽然业界已有 MQA、GQA、MLA 等多种注意力机制变体试图解决这一问题,但这些方案要么难以在严格的显存限制下保持理想性能,要么在模型结构上引入额外复杂度,带来巨大的工程挑战和生态兼容性问题。