大语言模型与图灵测试
近年来,大规模预训练语言模型(LLM)的对话能力突飞猛进。2025年,Jones和Bergen发表论文《Lar […]
✅ 首次在超大模型(Claude 3.5)中系统性实施circuit tracing分析; ✅ 揭示模型行为不
Anthropic基于circuit tracing揭示LLM内部机制 Read More »
论文TextGrad: Automatic “Differentiation” via
TextGrad:“文本反馈”作为“梯度”,并反向传播优化 Read More »
听一个历史讲座视频时,临时起意,想了解清朝同年代英、美、日的一些重要历史事件。于是乎让ChatGPT Deep
1661年至1912年,中英美日四国历史并行时间线图(政治、军事、经济、教育事件) Read More »
在神经网络中,归一化(Normalization) 是一种用于调整和标准化神经元激活值的方法,主要目的是 加速
浅谈神经网络的归一化(Normalization) Read More »
一、引言GPT-4.5 是 OpenAI 迄今为止最大、最具知识性的 AI 模型,其目标是相较于前代模型(如
OpenAI GPT-4.5 系统说明(OpenAI GPT-4.5 System Card) Read More »