Evo:基因组尺度上的生成式AI生物基础模型
Evo是由Arc研究所(Arc Institute)、斯坦福大学和加州大学伯克利分校的研究团队开发的生成式AI […]
Evo:基因组尺度上的生成式AI生物基础模型 Read More »
Evo是由Arc研究所(Arc Institute)、斯坦福大学和加州大学伯克利分校的研究团队开发的生成式AI […]
Evo:基因组尺度上的生成式AI生物基础模型 Read More »
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,旨在通过从大型的复杂模型(教师模型
浅谈知识蒸馏(Knowledge Distillation) Read More »
微调是利用预训练的大型模型在特定下游任务上获得最佳性能的一种有效方法,特别是对于大型语言模型(LLMs)和其他
通过令牌选择(Token Selection),实现Transformer的内存高效微调 Read More »
论文Distilling System 2 into System 1(《将系统2蒸馏到系统1》)研究了一种将
用蒸馏(Distilling)让复杂推理(System 2)“转换”为快速、直觉化推理(System 1) Read More »
MedGo 是一个专门针对中文医学领域的大型语言模型,论文MedGo: A Chinese Medical L
MedGo:中文医学领域的大型语言模型 Read More »