将 LLMs 精调至 1.58 比特: 使极端量化变简单
|
|
0
|
18
|
September 29, 2024
|
对 LLM 工具使用进行统一
|
|
0
|
25
|
September 26, 2024
|
LAVE: 使用 LLM 对 Docmatix 进行零样本 VQA 评估 - 我们还需要微调吗?
|
|
0
|
53
|
September 5, 2024
|
更难、更好、更快、更强:LLM Leaderboard v2 现已发布
|
|
0
|
146
|
June 27, 2024
|
来自 AI Secure 实验室的 LLM 安全排行榜简介
|
|
0
|
301
|
March 12, 2024
|
欢迎 Gemma: Google 最新推出开源大语言模型
|
|
0
|
299
|
February 22, 2024
|
句子嵌入: 交叉编码和重排序
|
|
0
|
489
|
February 6, 2024
|
开放 LLM 排行榜: 深入研究 DROP
|
|
0
|
324
|
January 15, 2024
|
用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM
|
|
0
|
490
|
November 7, 2023
|
面向生产的 LLM 优化
|
|
0
|
577
|
October 18, 2023
|
Hugging Face 的文本生成和大语言模型的开源生态
|
|
0
|
657
|
August 9, 2023
|
用 Hugging Face 推理端点部署 LLM
|
|
0
|
705
|
July 21, 2023
|
Open LLM 排行榜近况
|
|
0
|
1001
|
July 12, 2023
|
如何使用 Megatron-LM 训练语言模型
|
|
0
|
1605
|
May 31, 2023
|
越小越好: Q8-Chat,在英特尔至强 CPU 上体验高效的生成式 AI
|
|
0
|
506
|
May 23, 2023
|
为大语言模型建立红队对抗
|
|
0
|
546
|
April 27, 2023
|
如何评估大语言模型
|
|
0
|
1417
|
March 29, 2023
|