自对数演化解码(Self Logits Evolution Decoding, SLED):修正模型“知道的”(潜在知识)与“说出来的”(最终层logits经softmax得到的输出分布)之间的偏差
大型语言模型(LLM)在多任务上表现强劲,但“编造/幻觉”导致事实性不足,限制了实际可信度。论文SLED: S […]
大型语言模型(LLM)在多任务上表现强劲,但“编造/幻觉”导致事实性不足,限制了实际可信度。论文SLED: S […]
现代人获取健康信息的入口极多,但也伴随低质信息、理解偏差与焦虑等风险。大型语言模型(LLMs)虽然在医学知识与
寻路型AI(Wayfinding AI):打造“更像医生”的健康对话系统 Read More »
大型语言模型(LLM)驱动的智能体正被用于长期、持续的真实世界任务(如网页浏览、软件工程自动化),但主流智能体
ReasoningBank:构建“面向推理的记忆”机制,使智能体实现自主进化能力 Read More »
个人健康与日常福祉高度相关,但传统“单体式”对话大模型在面对真实用户的多样化健康诉求(数据解读、医学知识查证、
Personal Health Agent(PHA):面向个人健康的多智能体框架,数据科学、领域专家、健康教练三种智能体协同 Read More »
大模型在推理任务中已可调⽤代码解释器与搜索等外部工具,但“何时用文本推理、何时写代码、何时检索、以及如何把这些
TUMIX(Tool-Use Mixture):多代理并行+多轮迭代,稳态提升推理表现 Read More »
论文In-Context Fine-Tuning for Time-Series Foundation Mod
用“上下文内微调(In-Context Fine-Tuning, ICF)”方法改进TimesFM(跨领域零样本预测的时序基础模型) Read More »