DeepSeek-OCR:不是“一目十行”,而是“百行”乃至“千行”的上下文理解
当今大模型在处理长文本时,注意力计算随长度二次增长,算力与显存压力巨大。DeepSeek的最新模型DeepSe...
Read More用于自驱动实验室(self-driving laboratories, SDL)的AI智能体
大型语言模型(LLM)正被用于构建“自驱动实验室(self-driving laboratories, SDL...
Read MoreChatGPT的新建聊天中,能否指定一个或多个历史聊天记录作为本次对话的context?其实这是一个硬需求
短答:不能在“普通新建聊天”里直接指定某几段“历史对话”作为上下文自动载入。 但有几种官方支持的替代方案,能实...
Read More整合MinerU + Chonkie + RAG-Anything 的 RAG系统技术实现
今日略研究了一下整合MinerU + Chonkie + RAG-Anything 的 RAG系统技术实现:...
Read More自对数演化解码(Self Logits Evolution Decoding, SLED):修正模型“知道的”(潜在知识)与“说出来的”(最终层logits经softmax得到的输出分布)之间的偏差
大型语言模型(LLM)在多任务上表现强劲,但“编造/幻觉”导致事实性不足,限制了实际可信度。论文SLED: S...
Read More包含数据/模型/工程三位一体内容的机器人学习(Robot Learning)教程
Robot Learning: A Tutorial是一篇面向研究者与实践者的“机器人学习”教程型综述,主张在...
Read MoreREFRAG (REpresentation For RAG) :解决RAG处理大量外部知识时遇到的速度慢和内存占用大问题
论文REFRAG: Rethinking RAG based Decoding介绍了一种名为 REFRAG (...
Read MoreDeepMMSearch-R1:通过“多工具、多轮交互”检索增强推理循环,实现面向真实网页的多模态检索/推理一体化
现实应用中的多模态大模型(MLLM)在知识密集与信息检索型视觉问答任务上常受限于静态训练语料与长尾知识分布,难...
Read More寻路型AI(Wayfinding AI):打造“更像医生”的健康对话系统
现代人获取健康信息的入口极多,但也伴随低质信息、理解偏差与焦虑等风险。大型语言模型(LLMs)虽然在医学知识与...
Read More








