通过令牌选择(Token Selection),实现Transformer的内存高效微调
微调是利用预训练的大型模型在特定下游任务上获得最佳性能的一种有效方法,特别是对于大型语言模型(LLMs)和其他 […]
通过令牌选择(Token Selection),实现Transformer的内存高效微调 Read More »
微调是利用预训练的大型模型在特定下游任务上获得最佳性能的一种有效方法,特别是对于大型语言模型(LLMs)和其他 […]
通过令牌选择(Token Selection),实现Transformer的内存高效微调 Read More »
论文Hunyuan-Large: An Open-Source MoE Model with 52 Billi
腾讯混元大模型(Hunyuan-Large) Read More »
视觉语言模型(Vision-Language Models, VLMs)是同时处理视觉信息和文本信息的深度学习
浅谈视觉语言模型(Vision-Language Models, VLMs) Read More »
论文“Global Lyapunov functions: a long-standing open prob
用symbolic transformers发现李雅普诺夫(Lyapunov)函数 Read More »