Hugging Face Transformers 萌新完全指南
|
|
0
|
61
|
2024 年4 月 16 日
|
句子嵌入: 交叉编码和重排序
|
|
0
|
133
|
2024 年2 月 6 日
|
随机 Transformer
|
|
0
|
196
|
2024 年1 月 29 日
|
Google Colab 现已支持直接使用 🤗 transformers 库
|
|
0
|
208
|
2023 年12 月 1 日
|
深入理解 BigBird 的块稀疏注意力
|
|
0
|
210
|
2023 年11 月 23 日
|
Transformers 中原生支持的量化方案概述
|
|
0
|
357
|
2023 年11 月 13 日
|
长程 Transformer 模型
|
|
0
|
423
|
2023 年10 月 26 日
|
Hugging Face: 代码生成模型的预训练和微调
|
|
0
|
144
|
2023 年10 月 22 日
|
如何成功将 API 客户的 transformer 模型推理速度加快 100 倍
|
|
0
|
299
|
2023 年9 月 24 日
|
使用 🤗 Transformers 优化文本转语音模型 Bark
|
|
0
|
355
|
2023 年8 月 23 日
|
【不要】重复自己*——如何为现代机器学习设计开源库
|
|
0
|
272
|
2023 年8 月 4 日
|
基于 Habana Gaudi 的 Transformers 入门
|
|
0
|
284
|
2023 年8 月 1 日
|
据说,Transformer 不能有效地进行时间序列预测?
|
|
0
|
1068
|
2023 年7 月 4 日
|
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
|
|
0
|
1028
|
2023 年6 月 27 日
|
在Transformers 中使用约束波束搜索引导文本生成
|
|
0
|
278
|
2023 年6 月 11 日
|
解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
514
|
2023 年6 月 11 日
|
编码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
304
|
2023 年6 月 5 日
|
编码器-解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
316
|
2023 年6 月 1 日
|
背景 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
419
|
2023 年5 月 31 日
|
RWKV – transformer 与 RNN 的强强联合
|
|
0
|
654
|
2023 年5 月 31 日
|
Transformer 估算 101
|
|
0
|
1566
|
2023 年5 月 19 日
|
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗
|
|
0
|
324
|
2023 年5 月 16 日
|
大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accelerate 以及 bitsandbytes
|
|
0
|
815
|
2023 年4 月 25 日
|
如何生成文本: 通过 Transformers 用不同的解码方法生成文本
|
|
0
|
489
|
2023 年4 月 25 日
|
使用 Transformers 进行图分类
|
|
0
|
378
|
2023 年4 月 19 日
|
使用 DeepSpeed 和 Hugging Face 🤗 Transformer 微调 FLAN-T5 XL/XXL
|
|
0
|
2939
|
2023 年3 月 21 日
|
使用英特尔 Sapphire Rapids 加速 PyTorch Transformers,第 2 部分
|
|
0
|
480
|
2023 年2 月 26 日
|
下篇 | 使用 🤗 Transformers 进行概率时间序列预测
|
|
0
|
565
|
2023 年2 月 22 日
|
上篇 | 使用 🤗 Transformers 进行概率时间序列预测
|
|
0
|
1446
|
2023 年2 月 22 日
|
了解 Transformers 是如何“思考”的
|
|
0
|
583
|
2023 年2 月 8 日
|