欢迎来到 101.dev 线上社区
|
|
0
|
3403
|
October 28, 2019
|
通过打包 Flash Attention 来提升 Hugging Face 训练效率
|
|
0
|
2
|
September 18, 2024
|
Falcon Mamba: 首个高效的无注意力机制 7B 模型
|
|
0
|
35
|
September 5, 2024
|
LAVE: 使用 LLM 对 Docmatix 进行零样本 VQA 评估 - 我们还需要微调吗?
|
|
0
|
37
|
September 5, 2024
|
一次失败的实验 - 无限注意力,我们为什么坚持实验
|
|
0
|
34
|
September 5, 2024
|
Docmatix - 超大文档视觉问答数据集
|
|
0
|
52
|
August 30, 2024
|
基于 Quanto 和 Diffusers 的内存高效 transformer 扩散模型
|
|
0
|
82
|
August 30, 2024
|
Ggml 简介
|
|
0
|
62
|
August 29, 2024
|
TGI 多-LoRA: 部署一次,搞定 30 个模型的推理服务
|
|
0
|
92
|
August 12, 2024
|
XetHub 加入 Hugging Face!
|
|
0
|
59
|
August 9, 2024
|
NuminaMath 是如何荣膺首届 AIMO 进步奖的?
|
|
0
|
60
|
August 9, 2024
|
Google 最新发布: Gemma 2 2B、ShieldGemma 和 Gemma Scope
|
|
0
|
61
|
August 9, 2024
|
在 Hub 上使用 Presidio 进行自动 PII 检测实验
|
|
0
|
67
|
July 31, 2024
|
Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析
|
|
0
|
1559
|
July 25, 2024
|
在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST
|
|
0
|
94
|
July 24, 2024
|
为视觉语言多模态模型进行偏好优化
|
|
0
|
124
|
July 17, 2024
|
微调 Florence-2 - 微软的尖端视觉语言模型
|
|
0
|
139
|
July 15, 2024
|
效率与性能提升 | 可供开发者和研究人员使用的 Gemma 2 现已发布
|
|
0
|
284
|
July 14, 2024
|
GAIA: 一个严苛的智能体基准
|
|
0
|
100
|
July 9, 2024
|
平台稳定性里程碑 | Android 15 Beta 3 已发布
|
|
0
|
506
|
July 8, 2024
|
Hugging Face 全球政策负责人首次参加WAIC 2024 前沿 AI 安全和治理论坛
|
|
0
|
127
|
July 4, 2024
|
AI 体验想要更安全?Google Play 来助力!
|
|
0
|
92
|
July 4, 2024
|
更新一览 | 为您的 Wear OS 表盘注入新活力
|
|
0
|
223
|
July 3, 2024
|
即刻体验 | Android Health 全新升级
|
|
0
|
151
|
July 3, 2024
|
轻点几下,轻松访问实体设备 | Android 设备流式传输功能 Beta 版
|
|
0
|
131
|
July 3, 2024
|
Cosmopedia: 如何为预训练构建大规模合成数据集
|
|
0
|
150
|
July 3, 2024
|
OpenBMB × Hugging Face × THUNLP,联袂献上经典大模型课
|
|
0
|
118
|
July 3, 2024
|
BigCodeBench: 继 HumanEval 之后的新一代代码生成测试基准
|
|
0
|
121
|
July 1, 2024
|
Google 发布最新开放大语言模型 Gemma 2,现已登陆 Hugging Face Hub
|
|
0
|
97
|
June 28, 2024
|
Hugging Face Accelerate 两个后端的故事:FSDP 与 DeepSpeed
|
|
0
|
198
|
June 27, 2024
|