更快的辅助生成: 动态推测
|
|
0
|
65
|
2024 年10 月 21 日
|
授权调用: 介绍 Transformers 智能体 2.0
|
|
0
|
262
|
2024 年5 月 27 日
|
万事通,专精部分领域的多功能 Transformer 智能体
|
|
0
|
237
|
2024 年5 月 14 日
|
Hugging Face Transformers 萌新完全指南
|
|
0
|
746
|
2024 年4 月 16 日
|
句子嵌入: 交叉编码和重排序
|
|
0
|
606
|
2024 年2 月 6 日
|
随机 Transformer
|
|
0
|
492
|
2024 年1 月 29 日
|
Google Colab 现已支持直接使用 🤗 transformers 库
|
|
0
|
651
|
2023 年12 月 1 日
|
深入理解 BigBird 的块稀疏注意力
|
|
0
|
566
|
2023 年11 月 23 日
|
Transformers 中原生支持的量化方案概述
|
|
0
|
1055
|
2023 年11 月 13 日
|
长程 Transformer 模型
|
|
0
|
1004
|
2023 年10 月 26 日
|
Hugging Face: 代码生成模型的预训练和微调
|
|
0
|
300
|
2023 年10 月 22 日
|
如何成功将 API 客户的 transformer 模型推理速度加快 100 倍
|
|
0
|
658
|
2023 年9 月 24 日
|
使用 🤗 Transformers 优化文本转语音模型 Bark
|
|
0
|
672
|
2023 年8 月 23 日
|
【不要】重复自己*——如何为现代机器学习设计开源库
|
|
0
|
471
|
2023 年8 月 4 日
|
基于 Habana Gaudi 的 Transformers 入门
|
|
0
|
530
|
2023 年8 月 1 日
|
据说,Transformer 不能有效地进行时间序列预测?
|
|
0
|
1448
|
2023 年7 月 4 日
|
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
|
|
0
|
2016
|
2023 年6 月 27 日
|
在Transformers 中使用约束波束搜索引导文本生成
|
|
0
|
463
|
2023 年6 月 11 日
|
解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
1355
|
2023 年6 月 11 日
|
编码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
786
|
2023 年6 月 5 日
|
编码器-解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
586
|
2023 年6 月 1 日
|
背景 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
659
|
2023 年5 月 31 日
|
RWKV – transformer 与 RNN 的强强联合
|
|
0
|
1075
|
2023 年5 月 31 日
|
Transformer 估算 101
|
|
0
|
2926
|
2023 年5 月 19 日
|
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗
|
|
0
|
513
|
2023 年5 月 16 日
|
大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accelerate 以及 bitsandbytes
|
|
0
|
1313
|
2023 年4 月 25 日
|
如何生成文本: 通过 Transformers 用不同的解码方法生成文本
|
|
0
|
869
|
2023 年4 月 25 日
|
使用 Transformers 进行图分类
|
|
0
|
550
|
2023 年4 月 19 日
|
使用 DeepSpeed 和 Hugging Face 🤗 Transformer 微调 FLAN-T5 XL/XXL
|
|
0
|
4351
|
2023 年3 月 21 日
|
使用英特尔 Sapphire Rapids 加速 PyTorch Transformers,第 2 部分
|
|
0
|
750
|
2023 年2 月 26 日
|