人工智能AI

Mapping the Brain,建立脑内神经元全连接图谱

Mapping the Brain,建立脑内神经元全连接图谱

Google Research近日提到,在其从事连接组学(Connectomics,一门研究神经元之间连接模式...
Read More

GBRL, Gradient Boosting Reinforcement Learning, 梯度增强强化学习

摘要 论文Gradient Boosting Reinforcement Learning介绍了梯度增强强化学...
Read More
DoRA: Weight-Decomposed Low-Rank Adaptation(权重分解低秩适配)

DoRA: Weight-Decomposed Low-Rank Adaptation(权重分解低秩适配)

论文DoRA: Weight-Decomposed Low-Rank Adaptation(权重分解低秩适配)...
Read More
训练AI模型就像是炼丹…

训练AI模型就像是炼丹…

训练AI模型就像是炼丹😄 #AI模型训练 #炼丹看公司小伙伴训练AI模型,通过优化输入层例如拉宽数值时间区间...
Read More

用于深度学习推理的整数量化(Integer Quantization):原理与经验评估

对于深度学习推理的整数量化(Quantization),这篇论文《用于深度学习推理的整数量化:原理与经验评估》...
Read More
MambaVision:一种新型混合Mamba-Transformer视觉Backbone

MambaVision:一种新型混合Mamba-Transformer视觉Backbone

Nvidia这两天发布了MambaVision,即一种新型混合Mamba-Transformer视觉Backb...
Read More

PaliGemma:一种可有效进行任务迁移的视觉语言模型(VLM)

PaliGemma 是一个开放的视觉语言模型(VLM),它结合了 SigLIP-So400m 视觉编码器和 G...
Read More

LoRA和LoRa不一样,别搞错了

一、LoRA(Low-Rank Adaptation) LoRA(Low-Rank Adaptation)是一...
Read More
Football AI, 足球AI⚽

Football AI, 足球AI⚽

来自Roboflow的Piotr Skalski正在研究的足球AI项目⚽,很有趣。实现了如下功能: 1.训练一...
Read More

测试时训练层Test-Time Training(TTT),一种新的序列建模层

自注意力机制在长上下文中表现良好,但其复杂度为二次方。现有的RNN层具有线性复杂度,但其在长上下文中的性能受限...
Read More

MobileLLM:优化适用于设备上使用的十亿参数以下语言模型

论文《MobileLLM:优化适用于设备上使用的十亿参数以下语言模型》(MobileLLM: Optimizi...
Read More
基于图的RAG方法实现查询聚焦总结

基于图的RAG方法实现查询聚焦总结

来自Microsoft Research的最新研究成果:From Local to Global: A Gra...
Read More
天兵科技火箭“试车”变成“试飞”,AI怎么看?

天兵科技火箭“试车”变成“试飞”,AI怎么看?

2024年6月30日,天兵科技(https://spacepioneer.cc)的天龙三号火箭进行试车。试车过...
Read More