人工智能AI

论文AI models collapse when trained on recursively generated data关注一个将长期影响生成式AI生态的核心问题:当模型不断在由前代模型生成的数据上再训练时,会发生什么?作者提出并系统刻画了“模型坍塌(model colla Read more
大型语言模型(LLM)正被用于构建“自驱动实验室(self-driving laboratories, SDL)”,期望把复杂实验的“规划—执行—分析”全链条自动化。但现有SDL多依赖“固定脚本+单一目标”,缺少专家在现场做出的灵活调参、跨工具协同与异常处置能力。论文Evalua Read more
短答:不能在“普通新建聊天”里直接指定某几段“历史对话”作为上下文自动载入。 但有几种官方支持的替代方案,能实现“把既往内容带进来”的效果: 给你的可落地做法 In a brand-new ChatGPT chat, can I designate one or more pas Read more
今日略研究了一下整合MinerU + Chonkie + RAG-Anything 的 RAG系统技术实现: MinerU:开箱即用的高保真版面解析(表格/跨页/公式/图题),且输出结构化 JSON + Markdown,特别适合后续切块与证据回显。 Chonkie:专注“切块就 Read more
Reducto 和 RAG-Anything 都利用视觉-语言模型(VLM)来增强对多模态文档的理解,确保图像、表格等非文本内容被转化为 LLM-ready 的数据 或整合为上下文以提供更深入的洞察。然而,两者在架构、目的和 VLM 实施重点上存在显著差异。 1. 架构焦点与系统 Read more
论文RAG-Anything: All-in-One RAG Framework提出 RAG-Anything,一个“面向一切模态”的统一 RAG 框架,用于弥合现实世界多模态知识库(文本、图片/图表、表格、公式)与现有以纯文本为中心的 RAG 方案之间的错配。作者指出,把多模态 Read more
大型语言模型(LLM)在多任务上表现强劲,但“编造/幻觉”导致事实性不足,限制了实际可信度。论文SLED: Self Logits Evolution Decoding for Improving Factuality in Large Language Models指出,相比训 Read more
投资公司Andreessen Horowitz(a16z)对AI应用初创公司的建议:可以转向规模不重要的赛道,用“稀缺性”来打造护城河。可防御性来自那些私有、可信且难以复制的数据领域。 围墙花园的果实 当基础设施沿着技术栈向上攀升 生成式 AI 起步时许诺的是分层生态:底层是模型 Read more
Robot Learning: A Tutorial是一篇面向研究者与实践者的“机器人学习”教程型综述,主张在不抛弃传统动力学/控制学成果的前提下,以数据驱动的学习范式(RL/BC 与通用语言条件化策略)重塑从“感知到动作”的端到端控制栈。作者不仅体系化梳理了传统与学习范式的分野 Read more
论文REFRAG: Rethinking RAG based Decoding介绍了一种名为 REFRAG (REpresentation For RAG) 的新型高效解码框架,专为检索增强生成 (RAG) 应用设计。简单来说,REFRAG 的目标是解决大型语言模型 (LLMs) Read more
Chunking的目标不是“平均分字数”,而是让每个块都在语义上自洽、可被独立检索,且能回到原文定位,以支撑 RAG 的“召回→重排→引用”。因此原则是: Read more
今日试用了Reducto的产品,可以用于RAG,例如专业文档的chunking。 Reducto公司介绍 一、公司与定位 Reducto 是一家面向开发者与企业的“文档智能(Document Intelligence)/数据摄取(Document Ingestion)”平台,核心 Read more