最近我们刚刚发布了新的开源模型 Zephry-7B,这个模型的诞生离不开全球三大洲开源社区的协作 。
我们的 CSO Thomas 录了一个视频介绍了它的起源故事:
就在几个月前,巴黎的一个新团队发布了他们首个模型: Mistral 7B,这个模型体积小巧但性能强劲,在基准测试中的表现超过了所有同类模型。而且这是个开源模型,这意味着大家都可以在此基础上进行开发。
开发者 Lewis 在瑞士伯尔尼,Ed 在法国南部里昂,他们俩都是 Hugging Face H4 团队的一员。在 Hugging Face 举办的一次小聚中,他们边喝咖啡边讨论用斯坦福大学新发表的 DPO 方法对模型进行微调的可能性。于是大家决定用他们已经构建好的代码库来尝试一下
接下来的一天,他们在 HF hub 上找到了一些公开的数据集,主要是由清华的 OpenBMB 团队新近开源的两个大型、高质量的微调数据集: UltraFeedback 和 UltraChat
经过几轮训练实验,他们的想法得到了证实: 这个新模型非常强大,在伯克利和斯坦福的基准测试中是他们见过的最强模型。Clémentine 是 Hugging Face Open LLM Leaderboard 的领头人,她对模型的深入分析确认了其卓越性能。于是 H4 团队中另一位成员 Sasha Rush 教授迅速起草了一篇研究报告,将所有细节分享给整个社区
几天后,这个名为 Zephyr 的模型、研究论文以及所有细节都向世界公开了。不久之后,全球各地的公司开始应用这一模型。LlamaIndex,一个知名的数据框架和社区,分享了这个模型在实际用例基准测试中超乎预期的表现。与此同时,研究者和实践者们在 Hugging Face hub 上讨论着这篇论文和相关工作。
很难相信,这一切的实现仅仅用了几周时间 !这一切都得益于世界各地 (欧洲、加利福尼亚、中国) 对知识、模型、研究和数据集的开放,以及开源社区之间的相互协作
这样的故事在开源社区比比皆是,也正是这些人和事让开源社区始终保持不断创新的原动力
齐心协力,我们可以一起创造出惊人的成果