CS312 - 多模态大语言模型与基于人类反馈的强化学习(RLHF)
Large Language model and reinforcemnet learning based on Human feedback
3学分
12学时
6周
授课老师:
Carry Goth
授课时间:
10月29日 - 1月7日
每周日下午 15:00 - 17:00
关键词:
多模态, Transformer, GPT,multi-head transformer, Fine-Tuning, Prompt Engineering, RLHF,模型压缩与剪枝技术,知识蒸馏,ChatGLM的原理与实践

课程内容:
在这门课程中,我们将重点介绍多模态学习、Transformer模型以及其变种,包括多头注意力机制的多头变压器模型。多模态学习是指在一个模型中同时处理多种类型的输入数据,如图像、文本和语音等。我们将学习如何构建多模态模型,以及如何利用Transformer模型来处理多模态数据。我们还将深入探讨多头注意力机制,它可以使模型同时关注不同的输入信息,并提高模型的表现能力。在课程中,我们还将深入研究Fine-Tuning技术、Prompt Engineering技术以及基于人类反馈机制的强化学习(RLHF)的原理和应用。Fine-Tuning技术是指在已经训练好的模型基础上,通过微调模型参数来适应特定任务。Prompt Engineering技术是一种通过设计合适的提示语来改善模型性能的方法。我们还将学习基于人类反馈机制的强化学习,它可以通过与人类进行交互来优化模型的表现。
另外,我们还将学习模型压缩与剪枝技术,探讨如何通过减少模型的参数量和计算量来提高模型的效率和性能。模型压缩和剪枝是一种常用的方法,可以在不显著降低模型性能的情况下减小模型的规模。知识蒸馏也是我们课程的重要内容,我们将学习如何将复杂的模型知识传递给简化的模型,以提高模型的泛化能力和效率。知识蒸馏是一种将大模型的知识转移到小模型的技术,旨在在保持模型性能的同时减小模型的规模。最后,我们将深入了解ChatGLM模型的原理与实践。ChatGLM是一种生成式语言模型,广泛应用于对话系统和聊天机器人的开发。我们将研究ChatGLM的结构和训练方法,并通过实践项目来应用这些知识。
通过这门课程,您将深入了解多模态学习、Transformer模型及其变种,Fine-Tuning技术、Prompt Engineering技术、强化学习、模型压缩与剪枝技术、知识蒸馏以及ChatGLM模型的原理和应用。这些知识将为您在人工智能领域的研究和开发中提供重要的基础和实用技能。