大语言模型的开发者运维LLMOps来临,比MLOps概念还要新:吴恩达联合Google云研发人员推出免费的LLMOps课程

标签:#AI教程##吴恩达##教程##生成式AI课程# 时间:2024/01/21 21:37:30 作者:小木

开发者运维(DevOps)是一种软件开发方法论,强调开发者除了开发工作以外也要参与到软件的部署和运维管理中,通过自动化和持续改进来提高质量和效率。随着机器学习的流行,MLOps开始出现。MLOps的主要目标是创建一个更有效、可重复和可靠的机器学习工作流程。现在,随着大语言模型的流行,LLMOps概念也随之提出。即如何高效地开发大模型应用,包括自动化管理升级如prompt、模型评估等。为此,吴恩达联合Google的研发人员推出了最新的大模型短课LLMOps,帮助大家学习大语言模型开发过程中的自动化测试、自动化Prompt管理等一系列实践,提高大模型应用开发的效率和质量。

LLMOps课程

LLMOps概念简介

LLMOps是一个非常新的概念,它属于开发者运维的一种。但是更加强调大语言模型的开发运维。在实际的大语言模型开发中,我们通常需要经历几个步骤,包括数据预处理、prompt处理、大模型选型、大模型评估、大模型应用上线、大模型更换等。而这些开发工作中,我们并不希望每次做一个case或者更新一个模型就要手工重新开始走一遍,而希望尽可能的自动化完成整个过程。

LLMOps与设计一个LLM应用的差异

这里需要理解的是设计一个大模型应用与做LLMOps之间是有差别的,前者的目标是为了完成基于大模型的应用设计,而后者则强调使用什么样的开发方法和流程确保更加高效高质量地完成前者的实现将结果。


上图是课程中对二者的对比,可以说LLMOps就是大语言模型的MLOps,更加强调如何开发大模型应用以及如何管理生产系统中的模型。包括基座模型的测试、Prompt的管理、监控输出以及测试模型输出等。而设计大模型应用系统的主要工作则是设计端到端的运行流程来落地。

一个典型的LLM驱动的应用系统

下图是一个典型的LLM驱动的应用系统。


这张图展示了一个大型语言模型(LLM)驱动应用的高层次例子,分为三个主要部分:

  1. 用户界面

    • 用户输入:用户与系统交互的入口,提供需要处理的数据或问题。
    • 最终输出:系统处理后返回给用户的结果。
  2. 幕后处理

    • 模型:
      • 基础模型(Foundation model):原始的、通用的大型语言模型,可以处理各种类型的数据和任务。
      • 微调(fine-tuned):针对特定任务或数据集对基础模型进行优化的过程。
    • 预处理(Pre-processing):将用户输入格式化或转换,以便模型可以更好地理解和处理。
    • 理解(Grounding):模型理解处理用户输入的步骤,可能涉及上下文的确认、实体的识别等。
    • 模型响应(LLM response):模型生成的原始响应。
    • 后处理与负责任的AI(Post-processing & Responsible AI):对模型响应的进一步处理,以确保输出的质量和符合伦理标准。
  3. 模型定制

    • 数据准备(Data prep):收集和准备训练或微调模型所需的数据。
    • 调整(Tuning):调整模型的参数以提高其在特定任务上的性能。
    • 评估(Evaluate):评估模型的性能,确保它满足预定的质量标准。

这个流程图显示了从用户输入到最终输出的完整路径,包括用户与界面的交互,模型的内部工作机制,以及在部署模型之前的定制工作。而LLMOps的主要工作则是绿色的部分。

就绿色部分的LLMOps而言,主要的工作如下图所示:


吴恩达的LLMOps课程简介

前面只是非常粗浅地介绍了LLMOps的概念和涉及的流程。在吴恩达的课程中都有非常详细的解释。

LLMOps课程共一个小时,这门课程将教你如何通过LLMOps(Large Language Model Operations)流程来预处理训练数据,进行有监督的指令调优(supervised instruction tuning),并适配一个有监督的调优流程来训练和部署一个定制化的大型语言模型(LLM)。这对于创建针对特定应用的LLM工作流程非常有用。例如,在课程中,你将学习创建一个针对回答Python编程问题的问答聊天机器人。

在这个课程中,你将学习LLMOps流程的关键步骤:

  1. 检索和转换训练数据,以便对LLM进行有监督的微调。
  2. 版本化你的数据和调优模型,以跟踪你的调优实验。
  3. 配置一个开源的有监督调优流程,并执行该流程以训练和部署一个调优后的LLM。
  4. 输出和研究安全评分,负责任地监控和过滤你的LLM应用程序的行为。
  5. 在课堂上亲自尝试调优后并已部署的LLM。

你将练习使用的工具包括BigQuery数据仓库、开源的Kubeflow Pipelines和Google Cloud。

总之,这门课程的目标是让你能够构建和管理一个大型语言模型的整个操作流程,从数据处理到模型训练,再到部署和监控,最终能够将其应用到实际场景中,例如构建一个专业的编程问题答疑机器人。虽然这门课里面使用了较多的Google工具,但是不影响核心的流程和概念。

📝 课程名称:LLMOps
⏰ 课程时长:1个小时
🚀 适合的对象:初级水平的人

LLMOps课程地址及总结

LLMOps课程地址:https://www.deeplearning.ai/short-courses/llmops/ 目前免费。

吴恩达的大模型课程系列已经涵盖了非常多的课程了。此前,我们也介绍过其它的大模型相关课程,可以访问DataLeanrerAI的集合网址获得更多:https://www.datalearner.com/blog/blog_list/tag/%E5%90%B4%E6%81%A9%E8%BE%BE

这里也总结如下:

课程名称 链接地址
比MLOps更新,大语言模型的开发者运维LLMOps来临:吴恩达联合Google云研发人员推出LLMOps课程~ https://www.datalearner.com/blog/1051705843953138
如何微调大语言模型?吴恩达联合LaminiAI最新一个小时短课教会大模型微调!这次是面向中级水平人员~ https://www.datalearner.com/blog/1051692837461952
吴恩达再开新课程!如何基于大语言模型实现更强大的语义搜索课程! https://www.datalearner.com/blog/1051692200678574
如何基于Gradio构建生成式AI的应用:吴恩达联合HuggingFace推出最新1小时短课 https://www.datalearner.com/blog/1051690422985676
Generative AI with Large Language Models,一个面向中级人员的生成式AI课程 https://www.datalearner.com/blog/1051688052742878
吴恩达宣布和OpenAI、LangChain、Lamini三家公司一起推出三门全新AI短视频课程:ChatGPT API、LangChain和Diffusion Models https://www.datalearner.com/blog/1051685630124097
吴恩达AI系列短课再添精品课程:如何基于LangChain使用LLM构建私有数据的问答系统和聊天机器人 https://www.datalearner.com/blog/1051688611720857
吴恩达联合OpenAI推出免费的面向开发者的ChatGPT Prompt工程课程——ChatGPT Prompt Engineering for Developers https://www.datalearner.com/blog/1051682646763569
欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
Back to Top