Hugging Face 和 LangChain 入门

大模型是指具有数十亿或数千亿个参数的深度神经网络模型,其训练需要大量的计算资源和数据。这些庞大的模型在语义理解、内容生成等领域表现出了惊人的能力,为解决复杂的问题提供了新的可能性。

业内持续涌现出各种通用基座大模型及领域基座大模型,持续不断地将模型指标推向新高。当然除少数头部玩家以外,绝大部分的业务都不具备自主训练基座大模型的能力和必要,更多的是基于基座大模型和业务垂直数据进行微调,从而产出垂直领域的模型用于业务场景的研发。

什么是Hugging Face?

https://github.com/huggingface

Hugging Face 是全球最大的 AI 开源社区,被称为 AI 领域的 GitHub,成立于 2016 年,团队近 170 人,总部位于纽约。目前平台上有超过 20000 个开源数据集,超过 10 万个 demo,一万多家公司使用平台上开源的 AI 技术。Hugging Face 的官方介绍是:构建未来的 AI 社区。

Clem Delangue 是 Hugging Face 的 CEO&联合创始人。最早 2010 年在 eBay 工作 8 个月,第一次创业经历是 2011 年在 Moodstocks——为计算机视觉构建机器学习。该公司被谷歌收购。2013 年到了美国纽约负责建立 mention 营销和增长部门。2016 年创立 Hugging Face。从事人工智能工作约 15 年。

Hugging Face是一个开源社区和平台,专注于自然语言处理(NLP)相关技术。它提供了一系列NLP模型和工具,包括预训练模型、文本生成、机器翻译等。Hugging Face的目标是使NLP技术更易用和可访问,加速NLP在各个领域的应用。

Hugging Face平台提供了一个数据分享平台,平台上有大量的高质量数据集,大量的开源代码里都会使用到Hugging Face的数据集。(但是苦于网络不通的原因导致很难用起来。)

Hugging Face的模型开发和推断流程

Hugging Face提供了一系列预训练模型,transformer可以加载预训练模型,如果需要微调,根据自己的数据集合微调模型,形成新的预训练模型。

Hugging Face提供了针对每一种内容的预处理器:

  • tokenizer:文本转换经过分词和字典匹配后,转换为tensor
  • image processor:把图像转换为正确的输入格式

This chapter requires login to view full content. You are viewing a preview.

Login to View Full Content

Course Curriculum

1

LLM

我们将对比确定性编程与概率编程的根本差异,理解从“编写逻辑”到“设计引导”的范式转移。同时,将API设计、参数调试等传统研发直觉,快速映射到提示词工程与生成参数驯化上,让您在AI时代继续发挥工程优势。
2

Transformer

我们将建立从软件模块到模型组件的认知桥梁,把Transformer理解为一个新的“运行时环境”。目标是让您能像分析JVM GC或线程调度一样,洞察注意力机制、Token生成等核心过程的资源消耗与性能瓶颈。
3

Prompt Engineering

我们将建立从软件模块到模型组件的认知桥梁,把Transformer理解为一个新的“运行时环境”。目标是让您能像分析JVM GC或线程调度一样,洞察注意力机制、Token生成等核心过程的资源消耗与性能瓶颈。
4

Fine-tuning

我们将建立清晰的决策框架,像在“使用开源库”和“自研核心组件”之间做权衡一样,在提示工程与模型微调之间做出成本最优解。深入LoRA等关键技术,理解其如同软件工程中的“依赖注入”般高效参数更新原理。
5

RAG

我们将对比传统数据库查询与向量检索的核心差异,构建混合检索的新心智模型。深入文本分块、Embedding选型等生产细节,让RAG系统从“能跑”到“好用”,解决准确性、幻觉治理等实际工程挑战。
6

Agent

我们将智能体架构理解为“一个高度自治的微服务集群”,其工具调用如同服务间API调用,记忆体系如同分布式缓存与数据库。在此基础上,设计能够规划、执行并从容应对失败的鲁棒性AI系统。