斯坦福大学的新课 :CS224N 《基于深度学习的自然语言处理》
web.stanford.edu/class/cs224n/
课程从词向量等基础概念入手,逐步深入到神经网络基础、依存句法分析、循环神经网络 (RNN) 及其变体,以及近年来大火的 Transformer 架构和大型语言模型 (LLM)。
自然语言处理 (NLP) 或计算语言学是信息时代最重要的技术之一。在 2010 年代,深度学习(或神经网络)方法使用单一的端到端神经模型在许多不同的 NLP 任务上都取得了非常高的性能,这些模型不需要传统的、针对特定任务的特征工程。在 2020 年代,通过扩展大型语言模型(例如 ChatGPT),取得了惊人的进一步进展。在本课程中,学生将深入了解 NLP 深度学习的基础知识以及大型语言模型 (LLM) 的最新前沿研究。通过课程、作业和期末项目,学生将学习必要的技能,使用 Pytorch 框架来设计、实现和理解他们自己的神经网络模型。
“选这门课吧。CS221 教会了我算法。CS229 教会了我数学。CS224N 教会了我如何编写机器学习模型。”
目前课程还在更新,课程主页有课程课件、参考资料和作业可供阅读。