人工智能AI

Evo是由Arc研究所(Arc Institute)、斯坦福大学和加州大学伯克利分校的研究团队开发的生成式AI生物基础模型。Evo用生成式AI来理解和设计基因组,其不仅能够在DNA层面进行深入的预测和设计,还可扩展到RNA和蛋白质层面,是一个真正的生物基础模型,为复杂的生命系统提 Read more
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,旨在通过从大型的复杂模型(教师模型)中提取知识,并将其传递给较小的模型(学生模型)来提高后者的表现。这种方法使得较小的模型在保持高性能的同时能够大幅降低计算成本,适用于资源受限的设备或应用场景。 1. 知 Read more
微调是利用预训练的大型模型在特定下游任务上获得最佳性能的一种有效方法,特别是对于大型语言模型(LLMs)和其他基于Transformer的模型。然而,微调这些大型模型需要大量的计算资源和内存资源,尤其是当涉及到数十亿参数的模型时。例如,对于GPT-3(175B)或Llama(65 Read more
论文Distilling System 2 into System 1(《将系统2蒸馏到系统1》)研究了一种将复杂推理过程(称为系统2)“编译”回到标准大语言模型(LLM)输出的方式,即无需中间推理步骤的直接响应输出,这称为“系统1”。 论文作者为Ping Yu, Jing Xu Read more
MIT的Aidan Toner-Rodgers博士基于其研究成果发表论文Artificial Intelligence, Scientific Discovery and Product Innovation,该论文通过深入的实验证据,展示了AI对科学发现和产品创新的巨大潜力,同 Read more
MedGo 是一个专门针对中文医学领域的大型语言模型,论文MedGo: A Chinese Medical Large Language Model对其进行了详细介绍。 论文作者为Haitao Zhang(张海涛), Bo An,来自Shanghai East Hospital( Read more
Nature发表文章AI protein-prediction tool AlphaFold3 is now open source,深入报道了AlphaFold3的开源历程以及其在科学界的反响。这一决定不仅有助于推动蛋白质结构预测的学术研究,也为药物发现和生物技术创新提供了新的 Read more
论文Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse探讨了思维链(或称“逐步推理”,Chain-of-Thoug Read more
谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)之前提到,目前谷歌新生成的代码中超过四分之一是由AI完成的。Google Research发表的这篇文章AI in software engineering at Google: Progress and the path Read more
论文How Far is Video Generation from World Model: A Physical Law Perspective(《视频生成距离世界模型有多远:物理法则的视角》)从物理法则的角度,系统性地探讨了视频生成模型在学习物理规律方面的能力和局限性。研究 Read more
论文Relationships are Complicated! An Analysis of Relationships Between Datasets on the Web(《关系很复杂!对网络数据集之间关系的分析》)由Google研究团队的Kate Lin、Tarfah Read more
科技大咖John Carmack(@ID_AA_Carmack)谈了自己对机器人的看法,对人形机器人( humanoid robot)的近期实用性提出了质疑: I am more skeptical than a lot of people in the tech space a Read more