Hugging Face 和 LangChain 入门
大模型是指具有数十亿或数千亿个参数的深度神经网络模型,其训练需要大量的计算资源和数据。这些庞大的模型在语义理解、内容生成等领域表现出了惊人的能力,为解决复杂的问题提供了新的可能性。
业内持续涌现出各种通用基座大模型及领域基座大模型,持续不断地将模型指标推向新高。当然除少数头部玩家以外,绝大部分的业务都不具备自主训练基座大模型的能力和必要,更多的是基于基座大模型和业务垂直数据进行微调,从而产出垂直领域的模型用于业务场景的研发。
什么是Hugging Face?
https://github.com/huggingface
Hugging Face 是全球最大的 AI 开源社区,被称为 AI 领域的 GitHub,成立于 2016 年,团队近 170 人,总部位于纽约。目前平台上有超过 20000 个开源数据集,超过 10 万个 demo,一万多家公司使用平台上开源的 AI 技术。Hugging Face 的官方介绍是:构建未来的 AI 社区。
Clem Delangue 是 Hugging Face 的 CEO&联合创始人。最早 2010 年在 eBay 工作 8 个月,第一次创业经历是 2011 年在 Moodstocks——为计算机视觉构建机器学习。该公司被谷歌收购。2013 年到了美国纽约负责建立 mention 营销和增长部门。2016 年创立 Hugging Face。从事人工智能工作约 15 年。
Hugging Face是一个开源社区和平台,专注于自然语言处理(NLP)相关技术。它提供了一系列NLP模型和工具,包括预训练模型、文本生成、机器翻译等。Hugging Face的目标是使NLP技术更易用和可访问,加速NLP在各个领域的应用。
Hugging Face平台提供了一个数据分享平台,平台上有大量的高质量数据集,大量的开源代码里都会使用到Hugging Face的数据集。(但是苦于网络不通的原因导致很难用起来。)
Hugging Face的模型开发和推断流程
Hugging Face提供了一系列预训练模型,transformer可以加载预训练模型,如果需要微调,根据自己的数据集合微调模型,形成新的预训练模型。
Hugging Face提供了针对每一种内容的预处理器:
- tokenizer:文本转换经过分词和字典匹配后,转换为tensor
- image processor:把图像转换为正确的输入格式
This chapter requires login to view full content. You are viewing a preview.
Login to View Full Content