斯坦福NLP课程XCS224U视频全部放出,干货满满,速来听讲

50 个视频任君学习!从对话智能体到搜索查询,自然语言理解(NLP)是当今许多最令人兴奋的技术的基础。如何建立这些模型来高效、可靠地理解语言?如果你还没有那么清楚的话,是否会找个课程来听呢?但是有些课程不仅天价还很难报名,有些课程不仅质量极高还免费公开。谁不想要这后者呢?没错,今天机器之心为大家介绍的是斯坦福 XCS224U:自然语言理解 (2023)课程。它干货满满,讲师 Christopher Potts 让这门课充满魅力。更重要的是,这堂课已经放出了全部视频,50 个视频任君学习。视频地址:、自然语言处理和机

50 个视频任君学习!

从对话智能体到搜索查询,自然语言理解(NLP)是当今许多最令人兴奋的技术的基础。如何建立这些模型来高效、可靠地理解语言?如果你还没有那么清楚的话,是否会找个课程来听呢?

但是有些课程不仅天价还很难报名,有些课程不仅质量极高还免费公开。谁不想要这后者呢?

没错,今天机器之心为大家介绍的是斯坦福 XCS224U:自然语言理解 (2023)课程。它干货满满,讲师 Christopher Potts 让这门课充满魅力。更重要的是,这堂课已经放出了全部视频,50 个视频任君学习。

图片

视频地址:https://www.youtube.com/playlist?list=PLoROMvodv4rOwvldxftJTmoR3kRcWkJBp

该课程借鉴了语言学、自然语言处理和机器学习的理论概念。在这门以项目为导向的课程中,你将开发使机器理解人类语言的系统和算法。

课程前半部分将探索自然语言理解的三个基本任务:上下文语言表征、信息检索和 NLU 模型的高级行为评估。每个任务主题都包含实践部分,你将在其中建立基线模型。这些基线模型将帮助你开发自己的模型。

课程后半部分则将开展自然语言理解方面的原创项目,重点关注该领域的最佳实践。额外的讲座和材料将涵盖重要的主题,以帮助扩展和改进你的系统,包括评估和度量、语义解析和基础语言理解。

在这些课中,你将:

开发对人类语言进行稳健机器学习理解的系统和算法;

使用大型语言模型建立神经信息检索系统;

利用上下文单词表示模型(如 transformers、BERT、ELECTRA 和 GPT),理解单词之间的语义和句法关系;

利用经典和神经信息检索方法从文本中获取所需信息;

设计并开展一个自己选择的 NLU 研究项目。

学前准备

划重点,该课程并不是针对小白的,而是需要在课程开始之前有所积累。

具体来说,学习课程之前,你需要有一些技术、知识基础,才能更加顺利地理解课程内容,完成课程相关任务。

熟练掌握 Python:编码作业将使用 Python。因为有些作业需要熟悉基本的 Linux 命令行工作流程。

熟悉微积分和线性代数:需要能够熟练应用(多元)导数,并理解矩阵 / 向量符号和运算。

掌握概率论:熟悉基本概率分布(连续、高斯、伯努利分布),能够定义连续和离散随机变量的概念:期望值、独立性、概率分布函数和累积分布函数。

斯坦福还建议大家将自然语言处理 XCS224U 课程与深度学习 XCS224N 课程结合起来,效果更好。此外还贴心地给大家准备了一份复习 NLP 相关知识的材料清单,你可按需取用。

清单链接:http://web.stanford.edu/class/cs224u/background.html

讲师介绍

Christopher Potts 是斯坦福语言学教授,同时也是计算机科学教授和语言与信息研究中心(CSLI)主任。在研究中,他致力于使用计算方法探索情感如何在语言中表达,以及语言的产生和解释如何受到语篇、语境的影响。

他于 2005 年出版了《The Logic of Conventional Implicatures》一书,并发表了大量计算语言学和理论语言学方面的学术论文。图片

课程视频下面的评论中,网友们表达了对课程的喜爱。

图片

更有推荐者直接表达了对 Christopher Potts 的赞美,认为他是一位才华横溢的教育家,解释复杂的 ML 和 NLP 概念时具有特殊的才能。「我从他的研究和讲座中学到了很多东西。强烈建议观看他的新课程。」

图片

相关资讯

探索大脑中语言理解机制,香港理工大学研究登Science子刊

编辑 | 萝卜皮当前的大型语言模型 (LLMs) 依赖单词预测作为其骨干预训练任务。尽管单词预测是语言处理的重要机制,但人类语言理解发生在多个层面,涉及单词和句子的整合以实现对话语的充分理解。香港理工大学的研究人员通过使用下一句预测(Next Sentence Prediction,NSP)任务对语言理解进行建模,从而研究话语级理解的机制。该团队表明,NSP 预训练增强了模型与大脑数据的一致性,尤其是在右半球和多需求网络中,突出了非经典语言区域对高级语言理解的贡献。NSP 可以使模型更好地捕捉人类理解性能并更好地编

墙裂推荐!Karpathy大模型培训课LLM101n上线了,非常基础

让我们训练一个 Storyteller。今天外网又被 Andrej Karpathy 这一良心课程刷屏了!项目是 11 小时前被 Karpathy 上传到 Github 的,目的是要构建一个能够创作、提炼和阐释小故事的大语言模型。如今已经被许多网友转发推荐。项目地址:,这是 karpathy 老师的新冒险。它将带您从语言建模、机器学习的基础知识开始学习,然后到多模态、RLHF、模型部署。也有网友称:看起来 karpathy 正在做一门完整的、类似 cs231n 的课程, 《LLM101n》将讲授如何从头开始构建类似

这几年让你大呼惊人的AI应用,都离不开这项技术

AI好像也更加懂人类,越来越接近“人的智能”。