授权调用: 介绍 Transformers 智能体 2.0
|
|
0
|
224
|
May 27, 2024
|
万事通,专精部分领域的多功能 Transformer 智能体
|
|
0
|
192
|
May 14, 2024
|
Hugging Face Transformers 萌新完全指南
|
|
0
|
669
|
April 16, 2024
|
句子嵌入: 交叉编码和重排序
|
|
0
|
489
|
February 6, 2024
|
随机 Transformer
|
|
0
|
446
|
January 29, 2024
|
Google Colab 现已支持直接使用 🤗 transformers 库
|
|
0
|
569
|
December 1, 2023
|
深入理解 BigBird 的块稀疏注意力
|
|
0
|
500
|
November 23, 2023
|
Transformers 中原生支持的量化方案概述
|
|
0
|
973
|
November 13, 2023
|
长程 Transformer 模型
|
|
0
|
908
|
October 26, 2023
|
Hugging Face: 代码生成模型的预训练和微调
|
|
0
|
285
|
October 22, 2023
|
如何成功将 API 客户的 transformer 模型推理速度加快 100 倍
|
|
0
|
580
|
September 24, 2023
|
使用 🤗 Transformers 优化文本转语音模型 Bark
|
|
0
|
633
|
August 23, 2023
|
【不要】重复自己*——如何为现代机器学习设计开源库
|
|
0
|
439
|
August 4, 2023
|
基于 Habana Gaudi 的 Transformers 入门
|
|
0
|
500
|
August 1, 2023
|
据说,Transformer 不能有效地进行时间序列预测?
|
|
0
|
1384
|
July 4, 2023
|
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
|
|
0
|
1793
|
June 27, 2023
|
在Transformers 中使用约束波束搜索引导文本生成
|
|
0
|
425
|
June 11, 2023
|
解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
1249
|
June 11, 2023
|
编码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
720
|
June 5, 2023
|
编码器-解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
525
|
June 1, 2023
|
背景 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
605
|
May 31, 2023
|
RWKV – transformer 与 RNN 的强强联合
|
|
0
|
994
|
May 31, 2023
|
Transformer 估算 101
|
|
0
|
2715
|
May 19, 2023
|
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗
|
|
0
|
473
|
May 16, 2023
|
大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accelerate 以及 bitsandbytes
|
|
0
|
1196
|
April 25, 2023
|
如何生成文本: 通过 Transformers 用不同的解码方法生成文本
|
|
0
|
773
|
April 25, 2023
|
使用 Transformers 进行图分类
|
|
0
|
514
|
April 19, 2023
|
使用 DeepSpeed 和 Hugging Face 🤗 Transformer 微调 FLAN-T5 XL/XXL
|
|
0
|
4059
|
March 21, 2023
|
使用英特尔 Sapphire Rapids 加速 PyTorch Transformers,第 2 部分
|
|
0
|
723
|
February 26, 2023
|
下篇 | 使用 🤗 Transformers 进行概率时间序列预测
|
|
0
|
858
|
February 22, 2023
|