欢迎来到 101.dev 线上社区
|
|
0
|
3469
|
October 28, 2019
|
将 LLMs 精调至 1.58 比特: 使极端量化变简单
|
|
0
|
17
|
September 29, 2024
|
HuggingChat macOS 版现已发布
|
|
0
|
26
|
September 28, 2024
|
对 LLM 工具使用进行统一
|
|
0
|
24
|
September 26, 2024
|
Accelerate 1.0.0
|
|
0
|
32
|
September 24, 2024
|
Hugging Face 论文平台 Daily Papers 功能全解析
|
|
0
|
31
|
September 24, 2024
|
使用 Flutter 3.19 更高效地开发
|
|
0
|
28
|
September 20, 2024
|
使用 Jetpack Compose,adidas CONFIRMED 开发者构建功能的速度提高了 30%
|
|
0
|
23
|
September 19, 2024
|
Android 15 正式发布至 AOSP
|
|
0
|
103
|
September 19, 2024
|
通过打包 Flash Attention 来提升 Hugging Face 训练效率
|
|
0
|
33
|
September 18, 2024
|
Falcon Mamba: 首个高效的无注意力机制 7B 模型
|
|
0
|
69
|
September 5, 2024
|
LAVE: 使用 LLM 对 Docmatix 进行零样本 VQA 评估 - 我们还需要微调吗?
|
|
0
|
53
|
September 5, 2024
|
一次失败的实验 - 无限注意力,我们为什么坚持实验
|
|
0
|
55
|
September 5, 2024
|
Docmatix - 超大文档视觉问答数据集
|
|
0
|
84
|
August 30, 2024
|
基于 Quanto 和 Diffusers 的内存高效 transformer 扩散模型
|
|
0
|
120
|
August 30, 2024
|
Ggml 简介
|
|
0
|
85
|
August 29, 2024
|
TGI 多-LoRA: 部署一次,搞定 30 个模型的推理服务
|
|
0
|
118
|
August 12, 2024
|
XetHub 加入 Hugging Face!
|
|
0
|
74
|
August 9, 2024
|
NuminaMath 是如何荣膺首届 AIMO 进步奖的?
|
|
0
|
89
|
August 9, 2024
|
Google 最新发布: Gemma 2 2B、ShieldGemma 和 Gemma Scope
|
|
0
|
71
|
August 9, 2024
|
在 Hub 上使用 Presidio 进行自动 PII 检测实验
|
|
0
|
77
|
July 31, 2024
|
Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析
|
|
0
|
1664
|
July 25, 2024
|
在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST
|
|
0
|
108
|
July 24, 2024
|
为视觉语言多模态模型进行偏好优化
|
|
0
|
137
|
July 17, 2024
|
微调 Florence-2 - 微软的尖端视觉语言模型
|
|
0
|
169
|
July 15, 2024
|
效率与性能提升 | 可供开发者和研究人员使用的 Gemma 2 现已发布
|
|
0
|
327
|
July 14, 2024
|
GAIA: 一个严苛的智能体基准
|
|
0
|
112
|
July 9, 2024
|
平台稳定性里程碑 | Android 15 Beta 3 已发布
|
|
0
|
555
|
July 8, 2024
|
Hugging Face 全球政策负责人首次参加WAIC 2024 前沿 AI 安全和治理论坛
|
|
0
|
147
|
July 4, 2024
|
AI 体验想要更安全?Google Play 来助力!
|
|
0
|
104
|
July 4, 2024
|