关于“Hugging Face”类别
|
|
0
|
275
|
February 1, 2023
|
将 LLMs 精调至 1.58 比特: 使极端量化变简单
|
|
0
|
18
|
September 29, 2024
|
HuggingChat macOS 版现已发布
|
|
0
|
27
|
September 28, 2024
|
对 LLM 工具使用进行统一
|
|
0
|
25
|
September 26, 2024
|
Accelerate 1.0.0
|
|
0
|
34
|
September 24, 2024
|
Hugging Face 论文平台 Daily Papers 功能全解析
|
|
0
|
31
|
September 24, 2024
|
通过打包 Flash Attention 来提升 Hugging Face 训练效率
|
|
0
|
33
|
September 18, 2024
|
Falcon Mamba: 首个高效的无注意力机制 7B 模型
|
|
0
|
69
|
September 5, 2024
|
LAVE: 使用 LLM 对 Docmatix 进行零样本 VQA 评估 - 我们还需要微调吗?
|
|
0
|
53
|
September 5, 2024
|
一次失败的实验 - 无限注意力,我们为什么坚持实验
|
|
0
|
55
|
September 5, 2024
|
Docmatix - 超大文档视觉问答数据集
|
|
0
|
85
|
August 30, 2024
|
基于 Quanto 和 Diffusers 的内存高效 transformer 扩散模型
|
|
0
|
120
|
August 30, 2024
|
Ggml 简介
|
|
0
|
86
|
August 29, 2024
|
TGI 多-LoRA: 部署一次,搞定 30 个模型的推理服务
|
|
0
|
119
|
August 12, 2024
|
XetHub 加入 Hugging Face!
|
|
0
|
74
|
August 9, 2024
|
NuminaMath 是如何荣膺首届 AIMO 进步奖的?
|
|
0
|
89
|
August 9, 2024
|
Google 最新发布: Gemma 2 2B、ShieldGemma 和 Gemma Scope
|
|
0
|
71
|
August 9, 2024
|
在 Hub 上使用 Presidio 进行自动 PII 检测实验
|
|
0
|
79
|
July 31, 2024
|
Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析
|
|
0
|
1664
|
July 25, 2024
|
在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST
|
|
0
|
110
|
July 24, 2024
|
为视觉语言多模态模型进行偏好优化
|
|
0
|
138
|
July 17, 2024
|
微调 Florence-2 - 微软的尖端视觉语言模型
|
|
0
|
170
|
July 15, 2024
|
GAIA: 一个严苛的智能体基准
|
|
0
|
112
|
July 9, 2024
|
Hugging Face 全球政策负责人首次参加WAIC 2024 前沿 AI 安全和治理论坛
|
|
0
|
147
|
July 4, 2024
|
Cosmopedia: 如何为预训练构建大规模合成数据集
|
|
0
|
167
|
July 3, 2024
|
OpenBMB × Hugging Face × THUNLP,联袂献上经典大模型课
|
|
0
|
129
|
July 3, 2024
|
BigCodeBench: 继 HumanEval 之后的新一代代码生成测试基准
|
|
0
|
142
|
July 1, 2024
|
Google 发布最新开放大语言模型 Gemma 2,现已登陆 Hugging Face Hub
|
|
0
|
108
|
June 28, 2024
|
Hugging Face Accelerate 两个后端的故事:FSDP 与 DeepSpeed
|
|
0
|
222
|
June 27, 2024
|
更难、更好、更快、更强:LLM Leaderboard v2 现已发布
|
|
0
|
146
|
June 27, 2024
|