AI在线 AI在线

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

作者:郑佳美
2024-12-04 02:31
时隔两个月,字节模型遭攻击事件又有新后续。 今年10月份,字节商业化内部模型商业化内部模型训练遭实习生攻击一事闹得满城风雨,后这位名为田柯宇的实习生便被开除并被要求赔偿字节的侵权损失800万元及合理支出2万元。 本以为这个瓜会以字节的“雷霆手段”告一段落,没想到就在刚刚,事件迎来了大扭转。

时隔两个月,字节模型遭攻击事件又有新后续。

今年10月份,字节商业化内部模型商业化内部模型训练遭实习生攻击一事闹得满城风雨,后这位名为田柯宇的实习生便被开除并被要求赔偿字节的侵权损失800万元及合理支出2万元。

本以为这个瓜会以字节的“雷霆手段”告一段落,没想到就在刚刚,事件迎来了大扭转。田柯宇和字节合作的论文竟然被人工智能顶级会议 NIPS 被评为了 Best Paper。

网友们也是纷纷下场吃瓜:

有人感叹:有点小说那意思了,昨日的我你爱答不理,今日的我你高攀不起。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

也有人劝字节及时止损,抓紧请“老师”回家。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

更有人支持田柯宇直接下场创业。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

不过也不乏理智的网友:优秀永远也不能成为作恶的通行证。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

字节「雷霆手段」始末

两个多月前,网上流传出一则消息,“字节大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。”

10月19日,官方发布公告对这件事进行了澄清,确有商业化技术团队实习生发生严重违纪行为,涉事实习生已于2024年8月被公司辞退,并将其行为同步给行业联盟和所在学校,交由校方处理。

紧接着11月5日,字节还专门发布了面向内部全员的《企业纪律与职业道德委员会通报》,对这件事件进行了更详细地披露。

通报提到,2024年6月至7月,集团商业产品与技术部门前实习员工田某某,因对团队资源分配不满,通过编写、篡改代码等形式恶意攻击团队研究项目的模型训练任务,造成资源损耗。字节方已与其解除实习协议,同步阳光诚信联盟及企业反舞弊联盟,并同步至其就读学校处理。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

AI科技评论了解到,这名实习生本科毕业于北京航空航天大学软件学院,研究生就读于北京大学,师从王立威教授。研究兴趣为深度学习的优化与算法。自2019年起,他在商汤和字节跳动实习研究,具体包括超参数优化、强化学习算法、自监督的新型算法。

而就在事件处理期间,他却多次对外否认,声称当时攻击训练任务的人不是自己,而是其他的实习生,甚至还报警称自己遭到了造谣。

这一举动直接惹怒的老东家字节,直接一纸诉状把他告上法庭,要求其索赔公司的侵权损失800万元及合理支出2万元。

然而让人感到抽象的是,而时至今日,田柯宇的领英主页上还明晃晃的写着几个大字:勿信谣勿传谣

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

「作恶者」搞出大新闻

12月4日凌晨,田柯宇获得 Best Paper 的消息在网上不胫而走。

AI科技评论第一时间去核实了信源的可靠性,确认田柯宇的论文确实是被 NeurIPS 评为了 Best Paper,并且早在2023年,田柯宇的一项工作就曾被ICLR评选为Spotlight论文。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

在这篇 Best Paper 中,田柯宇和其所在团队首次提出了一种新的图像生成框架,这个框架在图像合成的质量、多样性、数据效率和推理速度方面首次超越了强大的扩散模型,并且具有很好的扩展性和零样本任务泛化能力,并且这个项目已经在Github上积累了4.4k多颗星。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

人工智能超级顶会 NeurIPS

让田柯宇又火了一把的 NeurIPS,是被称为「人工智能超级顶会」的存在。

NeurIPS全称为神经信息处理系统大会,是机器学习领域公认的顶级会议,与ICML(国际机器学习会议)和ICLR(国际学习表征会议)齐名,被认为是难度最大、水平最高、影响力最强的会议之一。在中国计算机学会的国际学术会议排名中,NeurIPS被列为人工智能领域的A类会议。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

而那些获得NeurIPS最佳论文奖的研究者,往往代表了神经科学和人工智能领域的前沿成就,他们的工作不仅在学术界产生重大影响,也在工业界引起广泛关注,成为引领研究趋势的关键力量。

最佳论文奖之外,NeurIPS另外一个重磅奖项为时间检验奖(Test-of-Time Award),颁发给那些在NeurIPS会议上发表的论文,这些论文在10年后仍然显示出深远的影响和持久的价值。今年有两篇论文获得这一奖项,分别为Ilya Sutskever的Seq2Seq和Ian Goodfellow的生成对抗网络GAN。

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

至于字节会如何应对这件事,还是一言不发?我们拭目以待。

获奖地址:https://neurips.cc/virtual/2024/poster/94115

论文地址:https://arxiv.org/abs/2404.02905

项目开源地址:https://github.com/FoundationVision/VAR

相关资讯

字节跳动豆包UltraMem架构将大模型推理成本降低83%

字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。 这一突破性进展为大模型的高效推理开辟了新路径。 UltraMem架构在保证模型效果的前提下,成功解决了MoE架构推理时的访存瓶颈。
2/12/2025 2:04:00 PM
AI在线

字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%

字节跳动豆包大模型团队官宣开源一项针对 MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。
3/10/2025 5:42:41 PM
远洋

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

如何让 LLM “忘记” 学到的有害内容?随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。目前业界的主流解决方案为 LLM 对齐 (alignment),即通过建立对比数据(正样本和负样本)用强化学习的方式来对 LLM 进行微调 (Fine
12/13/2023 1:27:00 PM
机器之心