如何从 Hugging Face 下载模型

Hugging Face 模型是预训练的机器学习模型,我们可以直接下载并将其插入到我们的应用程序中,用于文本分类、翻译、摘要等任务,而无需从头开始训练。

  • 它是一个开源 AI 平台,以 transformers 库Model Hub 而闻名,后者托管了数千个可用于 NLP、视觉和多模态任务的现成模型。
  • Model Hub 让我们可以仅用几行代码即可搜索、比较和使用社区及组织的模型。
  • 预训练模型使我们免于收集海量数据集和从头开始训练深度网络的繁琐。
  • 我们可以在自己的数据上对其进行微调,从而同时获得速度和灵活性。

使用预训练模型的重要性

预训练模型是已经在大型数据集上训练过的模型。使用它们具有以下优势:

  • 节省时间和计算资源: 我们不需要在海量数据集上从头训练。
  • 最先进的性能: Hugging Face 上的许多模型都基于前沿的研究成果。
  • 易于使用: 只需几行代码即可加载模型和分词器(tokenizer)。
  • 可定制: 我们可以在自己的数据集上针对特定任务对其进行微调。
  • 一致的 API: 不同的任务和架构使用相同的模式。

让我们一步步来演示如何从 Hugging Face 下载模型:

步骤 1:环境设置

我们需要安装必需的包和库。

Python


CODEBLOCK_d8edc96c

步骤 2:从 Model Hub 选择模型

在浏览器中打开 Hugging Face Model Hub,我们可以从广泛的可用预训练模型中,根据任务需求选择任何模型。

!Screenshot-2025-12-06-101300Model Hub 中的模型

例如,我们将使用 "bert-base-uncased" 模型。

步骤 3:下载模型和分词器

我们使用 transformers 库中的 INLINECODEefd505cd 和 INLINECODEb7c5279b 来下载并加载模型。

Python


CODEBLOCK_5cd6014e

输出结果

!Screenshot-2025-12-06-104108正在下载

步骤 4:在本地保存和加载模型

a. 如果我们要保留副本以供离线使用或重复使用,可以将下载的模型保存到本地目录中。

Python


CODEBLOCK_154936a3

输出结果

!Screenshot-2025-12-06-104120保存模型

b. 要从本地目录加载已保存的模型,我们执行以下步骤:

Python


CODEBLOCK_ce2c17ea

步骤 5:使用模型

让我们通过执行一个简单的文本分类任务来使用该模型,以验证其是否正常工作。

Python


CODEBLOCK_37e0ea51

输出结果

> tensor([[-0.1011, 0.3558]], grad_fn=)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。如需转载,请注明文章出处豆丁博客和来源网址。https://shluqu.cn/48962.html
点赞
0.00 平均评分 (0% 分数) - 0