Hugging Face 模型是预训练的机器学习模型,我们可以直接下载并将其插入到我们的应用程序中,用于文本分类、翻译、摘要等任务,而无需从头开始训练。
- 它是一个开源 AI 平台,以 transformers 库和 Model Hub 而闻名,后者托管了数千个可用于 NLP、视觉和多模态任务的现成模型。
- Model Hub 让我们可以仅用几行代码即可搜索、比较和使用社区及组织的模型。
- 预训练模型使我们免于收集海量数据集和从头开始训练深度网络的繁琐。
- 我们可以在自己的数据上对其进行微调,从而同时获得速度和灵活性。
使用预训练模型的重要性
预训练模型是已经在大型数据集上训练过的模型。使用它们具有以下优势:
- 节省时间和计算资源: 我们不需要在海量数据集上从头训练。
- 最先进的性能: Hugging Face 上的许多模型都基于前沿的研究成果。
- 易于使用: 只需几行代码即可加载模型和分词器(tokenizer)。
- 可定制: 我们可以在自己的数据集上针对特定任务对其进行微调。
- 一致的 API: 不同的任务和架构使用相同的模式。
让我们一步步来演示如何从 Hugging Face 下载模型:
步骤 1:环境设置
我们需要安装必需的包和库。
Python
CODEBLOCK_d8edc96c
步骤 2:从 Model Hub 选择模型
在浏览器中打开 Hugging Face Model Hub,我们可以从广泛的可用预训练模型中,根据任务需求选择任何模型。
!Screenshot-2025-12-06-101300Model Hub 中的模型
例如,我们将使用 "bert-base-uncased" 模型。
步骤 3:下载模型和分词器
我们使用 transformers 库中的 INLINECODEefd505cd 和 INLINECODEb7c5279b 来下载并加载模型。
Python
CODEBLOCK_5cd6014e
输出结果:
!Screenshot-2025-12-06-104108正在下载
步骤 4:在本地保存和加载模型
a. 如果我们要保留副本以供离线使用或重复使用,可以将下载的模型保存到本地目录中。
Python
CODEBLOCK_154936a3
输出结果:
!Screenshot-2025-12-06-104120保存模型
b. 要从本地目录加载已保存的模型,我们执行以下步骤:
Python
CODEBLOCK_ce2c17ea
步骤 5:使用模型
让我们通过执行一个简单的文本分类任务来使用该模型,以验证其是否正常工作。
Python
CODEBLOCK_37e0ea51
输出结果:
> tensor([[-0.1011, 0.3558]], grad_fn=)