人工智能AI

论文《That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design》由Anna Goldie、Azalia Mirhoseini和Jeff Dean等人撰写,旨在针对一些对Al Read more
论文Scalable Learning of Segment-Level Traffic Congestion Functions提出了一种可扩展的数据驱动框架,用于识别道路分段级别的交通拥堵(模式)函数。这种方法能够在全球范围内实现交通拥堵模型的高效识别和泛化,通过深度学习模型 Read more
近日,微软研究院发布了“BiomedParse”模型,该模型为生物医学图像分析提供了一个全面、一体化的解决方案。BiomedParse的出现极大地改变了传统生物医学图像处理的方式,使得对象识别、检测和分割这三个任务在同一个框架中统一实现,从而实现更加智能化和整体化的图像分析。 一 Read more
麻省理工学院(MIT)工程教授Markus J. Buehler开发了一种基于图(Graph-based)的生成式人工智能模型,该模型通过科学与艺术的结合,旨在加速科学发现,提出具有创新意义的新材料。Buehler教授不仅在材料科学的应用领域进行了探索,还深入研究了不同学科之间的 Read more
论文Boltz-1: Democratizing Biomolecular Interaction Modeling(《Boltz-1: 民主化生物分子相互作用建模》)介绍了一种名为Boltz-1的开源深度学习模型,用于预测生物分子复合物的三维结构。Boltz-1作为首个达到Al Read more
向ChatGPT提出要求:based on what you know about me. draw a picture of what you think my current life looks like. ChatGPT应该是通过历史聊天记录,总结描绘了提问者(我本人)的 Read more
Evo是由Arc研究所(Arc Institute)、斯坦福大学和加州大学伯克利分校的研究团队开发的生成式AI生物基础模型。Evo用生成式AI来理解和设计基因组,其不仅能够在DNA层面进行深入的预测和设计,还可扩展到RNA和蛋白质层面,是一个真正的生物基础模型,为复杂的生命系统提 Read more
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,旨在通过从大型的复杂模型(教师模型)中提取知识,并将其传递给较小的模型(学生模型)来提高后者的表现。这种方法使得较小的模型在保持高性能的同时能够大幅降低计算成本,适用于资源受限的设备或应用场景。 1. 知 Read more
微调是利用预训练的大型模型在特定下游任务上获得最佳性能的一种有效方法,特别是对于大型语言模型(LLMs)和其他基于Transformer的模型。然而,微调这些大型模型需要大量的计算资源和内存资源,尤其是当涉及到数十亿参数的模型时。例如,对于GPT-3(175B)或Llama(65 Read more
论文Distilling System 2 into System 1(《将系统2蒸馏到系统1》)研究了一种将复杂推理过程(称为系统2)“编译”回到标准大语言模型(LLM)输出的方式,即无需中间推理步骤的直接响应输出,这称为“系统1”。 论文作者为Ping Yu, Jing Xu Read more
MIT的Aidan Toner-Rodgers博士基于其研究成果发表论文Artificial Intelligence, Scientific Discovery and Product Innovation,该论文通过深入的实验证据,展示了AI对科学发现和产品创新的巨大潜力,同 Read more
MedGo 是一个专门针对中文医学领域的大型语言模型,论文MedGo: A Chinese Medical Large Language Model对其进行了详细介绍。 论文作者为Haitao Zhang(张海涛), Bo An,来自Shanghai East Hospital( Read more