浅谈大模型的微调/精调(Fine-tuning)
大模型的微调/精调(Fine-tuning, 译为精调更为准确些)是指在预训练的大规模模型基础上,使用较小规模 […]
浅谈大模型的微调/精调(Fine-tuning) Read More »
大模型的微调/精调(Fine-tuning, 译为精调更为准确些)是指在预训练的大规模模型基础上,使用较小规模 […]
浅谈大模型的微调/精调(Fine-tuning) Read More »
论文LlamaFactory: Unified Efficient Fine-Tuning of 100+ L
LLaMAFactory:支持超过100种大模型的LLM高效微调框架 Read More »
论文Your Brain on ChatGPT: Accumulation of Cognitive Debt
长期依赖大型语言模型(LLMs)带来“认知负债”(Cognitive Debt),对学习质量、批判思维和独立写作能力构成威胁 Read More »
论文Harnessing the Universal Geometry of Embeddings提出了首个无
文本嵌入(text embeddings)可在不同向量空间之间转换。将转换后的嵌入输入至预训练的零样本反演模型,能还原出输入文本的关键信息 Read More »
近日,DeepMind发布技术报告AlphaEvolve: A coding agent for scient
AlphaEvolve:具备发现新知识、优化系统、改进算法能力的自动化代码进化代理系统 Read More »
近日,主持人 David Friedberg 与 Alphabet CEO 桑达尔·皮查伊(Sundar Pi
“搜索本身将进化成包含AI模式(AI Mode)的新形态…搜索不会被替代,而是被重新定义” Read More »