深度学习驱动大气降尺度技术研究取得进展

在全球气候变化研究中,将低分辨率的大尺度气候模式数据转化为高分辨率区域数据,是准确评估极端天气与区域微气候的关键。然而,现有主流国际工具普遍受限于固定尺度约束。近日,中国科学院南海海洋研究所等团队,研发出一种基于隐式神经网络混合专家模型(MINet)的大气降尺度新方法。团队通过多尺度隐式特征构建,和基于坐标的混合专家解码器,实现了仅需一次固定尺度训练,即可完成任意尺度气象数据的超分辨率重建。在与地球科学基础大模型ClimaX的对比测试中,MINet性能更优,且具备ClimaX所缺乏的任意尺度推断能力。在MPI-ESM到ERA5的标准降尺度任务(4倍放大)中,MINet在Z500(500hPa位势高度)、T850(850hPa温度)等五个关键气象变量上的加权均方根误差,均明显低于ClimaX,且皮尔逊相关系数更高。结果显示,MINet在陆地与海洋区域的误差分布较ResNet、U-Net等经典架构更为平稳,且能灵活适应不同科研任务对......阅读全文

深度学习可识别显微照片中的细菌

美国华盛顿大学研究人员开发出一种深度学习软件Omnipose,其能帮助解决在显微镜图像中识别各种微小细菌的挑战。研究结果发表在17日的《自然·方法学》杂志上。 研究人员发现,在大型细菌图像数据库上训练的Omnipose在表征和量化混合微生物培养物中的无数细菌方面表现良好,并消除了其前身可能出现的

深度学习模型筛查新药快千倍

据美国麻省理工学院(MIT)官网12日报道,该校科学家开发出一款名为EquiBind的几何深度学习模型,其将类药物分子与蛋白配对的效率比现有最快的计算分子配对模型QuickVina2-W快1200倍。相关研究已经提交预印本服务器,并将提交给国际机器学习大会。 在药物开发之前,研究人员必须找到有潜

基于深度学习的时间序列预测研究获进展

  时间序列预测是大规模数据无损压缩和极端天气预报等领域的核心技术。随着应用场景多样化和数据复杂性提升,现有模型在异构数据的统一表达、长序列结构依赖建模、极端天气波动捕捉等方面存在挑战。中国科学院计算机网络信息中心人工智能团队围绕上述挑战开展研究,提出一系列创新算法与模型,并在实际系统部署应用。  

深度学习增强型智能镜可指导健身

意大利布雷西亚大学的研究人员最近开发了一种用于智能镜子的计算机视觉系统,可以提高家庭和健身房环境中健身训练的效率。在国际体育生物力学学会会议上公布的一篇论文中介绍了这一系统,该系统基于一种深度学习算法,经过训练可以识别健身视频中记录的人体姿势。 这款低成本计算机视觉系统利用骨架化算法,在带

深度学习模型筛查新药快千倍

  据美国麻省理工学院(MIT)官网12日报道,该校科学家开发出一款名为EquiBind的几何深度学习模型,其将类药物分子与蛋白配对的效率比现有最快的计算分子配对模型QuickVina2-W快1200倍。相关研究已经提交预印本服务器,并将提交给国际机器学习大会。  在药物开发之前,研究人员必须找到有

深度学习增强里德堡多频微波识别

 图为机器学习解码结果。(a-c)为训练时间不同时,深度学习模型对传输信号的恢复结果 中国科大供图 里德堡原子具有较大的电偶极矩,可以对微弱的电场产生很强的响应,因此作为一个非常有前景的微波测量体系,备受人们青睐。但基于里德堡原子的微波测量领域还存在

北京:大气治理目标今年要实现“双降”

  《北京市污染防治攻坚战2020年行动计划》正式发布,今年北京大气、水和土壤污染防治有了路线图。今年的行动计划,继续将三年滑动平均值纳入年度考核目标,即除了PM2.5年均浓度继续下降,三年滑动平均浓度也要同步下降。根据计划,今年要组织开展打赢蓝天保卫战三年行动计划评估及新一轮PM2.5精细化源解析

美国IBM研究院实现深度学习性能突破

   美国IBM研究院近日宣布,通过全新的分布式深度学习软件,实现了接近理想的扩展能力,该软件在64台IBM Power系统服务器中的256个GPU上并行运行深度学习框架,实现了95%的扩展效率,并使运算速度与准确率得到了显著提升。此前最佳的系统扩展能力是Facebook人工智能研究院所取得的89%

2016值得关注的技术:基因组分析深度学习

  《Nature Methods》盘点2015年度技术,选出了最受关注的技术成果:单粒子低温电子显微镜(cryo-EM)技术。 除此之外,也整理出了2016年最值得关注的几项技术,分别为:细胞内蛋白标记(Protein labeling in cells)、细胞核结构(Unraveling nuc

相比GPU和GPP:FPGA才是深度学习的未来?(二)

  除了编译时间外,吸引偏好上层编程语言的研究人员和应用科学家来开发FPGA的问题尤为艰难。虽然能流利使用一种软件语言常常意味着可以轻松地学习另一种软件语言,但对于硬件语言翻译技能来说却非如此。针对FPGA最常用的语言是Verilog和VHDL,两者均为硬件描述语言(HDL)。这些语言和传统

相比GPU和GPP:FPGA才是深度学习的未来?(一)

  相比GPU和GPP,FPGA在满足深度学习的硬件需求上提供了具有吸引力的替代方案。凭借流水线并行计算的能力和高效的能耗,FPGA将在一般的深度学习应用中展现GPU和GPP所没有的独特优势。同时,算法设计工具日渐成熟,如今将FPGA集成到常用的深度学习框架已成为可能。未来,FPGA将有效地

科研人员发现深度学习揭示基因相互作用

  近日,卡内基梅隆大学计算机科学家采用了一种深度学习方法,近年来彻底改变了人脸识别和其他基于图像的应用程序,并将其功能重定向到探索基因之间的关系。  他们说,诀窍在于将大量的基因表达数据转换成更像图像的东西。善于分析视觉图像的卷积神经网络(CNN)方案随后可以推断出哪些基因正在相互作用。  (图片

科学家构建深度脉冲神经网络学习框架

  脉冲神经网络(Spiking Neural Network,SNN)被誉为第三代神经网络,使用更低层次的生物神经系统的抽象。它既是神经科学中研究大脑原理的基本工具,又因稀疏计算、事件驱动、超低功耗的特性,备受计算科学的关注。随着深度学习方法的引入,SNN的性能得到大幅提升,脉冲深度学习(Spik

深度学习在基因表达谱分析上取得重要进展

  近日,一项刊登在国际杂志Bioinformatics上的研究论文中,来自加州大学尔湾分校和博德研究所的研究人员通过深度学习算法进行大规模基因表达预测,并在预测精度上获得了显着提升。  全基因组表达谱分析被广泛应用于描述细胞在不同生理病理条件下的活动状态,例如不同的癌组织细胞在各种给药条件下会产生

深度学习可超快分析三维医学影像

  英国《自然·医学》杂志8月13日在线发表的两项独立研究显示,最新的人工智能(AI)已可以基于三维医学影像,对神经系统疾病和视网膜疾病给出快速、准确的自动诊断。这意味着深度学习算法已成功应用于三维医学影像的超快分析。  深度学习方法已经能识别二维医学影像,实现疾病诊断,但其对复杂详细的三维影像的识

研究人员基于深度学习无创获得血液输入函数

全面量化大脑PET图像,常常需要精确的血流输入函数。然而传统方法中,获取这一函数通常依赖于侵入性且耗时的动脉导管采血,这在临床实践中往往难以实现。7月2日,中国科学院深圳先进技术研究院副研究员孙涛团队与河南省人民医院副院长王梅云团队合作,在医学影像顶级期刊《IEEE医学影像汇刊》发表最新研究。研究团

Advanced-Science:-深度学习方法预测分子激发光谱

  芬兰阿尔托大学Patrick Rinke教授及其合作者一起提出了用于预测分子激发光谱的深度学习方法。 以132k有机分子的电子态密度为例,训练和评估了三种不同的神经网络结构:多层感知器(MLP),卷积神经网络(CNN)和深张量神经网络(DTNN)。 神经网络的输入是每个分子中原子的坐标和电荷。

Advanced-Science:-深度学习方法预测分子激发光谱

  芬兰阿尔托大学Patrick Rinke教授及其合作者一起提出了用于预测分子激发光谱的深度学习方法。 以132k有机分子的电子态密度为例,训练和评估了三种不同的神经网络结构:多层感知器(MLP),卷积神经网络(CNN)和深张量神经网络(DTNN)。 神经网络的输入是每个分子中原子的坐标和电荷。

新疆理化所在深度学习预测抗癌多肽研究中取得进展

  癌症是人类健康最致命的杀手,在全球范围内每年造成数百万人的死亡。传统的物理和化学方法,包括靶向治疗、化疗和放射治疗等医疗实践中常见的治疗手段,在一定程度上能杀死病变癌细胞,但是同时也会杀死大量正常的细胞,带来严重的副作用。这些治疗手段费用昂贵且预后效果不佳,迫切需要开发新的定向清除癌细胞,治疗癌

深度学习加快了3D微观神经成像的速度

  德克萨斯州奥斯汀和圣地亚哥Salk研究所的研究人员使用深度学习技术,开发了一种新的显微方法,可以使用于大脑成像的显微技术快16倍。研究人员使用德克萨斯大学奥斯汀分校(UT Austin)德克萨斯高级计算中心(TACC)的数据训练了他们的深度学习系统。索尔克生物学研究所Waitt先进生物光子学核心

科学家开发出深度学习超分辨显微成像方法

  1月21日,中国科学院生物物理所、广州生物岛实验室研究员李栋课题组,与清华大学自动化系、脑与认知科学研究院教授戴琼海课题组,在Nature Methods上以长文(Article)形式发表了题为Evaluation and development of deep neural networks

未来,深度学习帮助人类决策你应该吃什么药

  韩国研究团队开发了一款名为DeepDDI的计算框架,它可以准确地预测86种类型的药物-药物(DDIs)和药物-食物(DFIs)相互作用,并输出人类可读句子,帮助人类理解不良药物事件(ADEs)。  药物之间和药物与食物之间经常会触发意外药理作用(就是我们所谓的“食物相克”),但是,其因果机制在很

新型深度学习框架可应用于电池健康状态预测

  近日,中国科学院大连化学物理研究所研究员陈忠伟、副研究员毛治宇团队,联合西安交通大学教授冯江涛,在电池健康管理领域取得新进展。合作团队开发了一种新型的两阶段联邦迁移学习框架,有效解决了快充电池健康状态(SOH)预测中的数据不足和个性化建模难题,为快充电池SOH预测提供了新思路。相关成果发表在《电

科学家开发出深度学习超分辨显微成像方法

1月21日,中国科学院生物物理所、广州生物岛实验室研究员李栋课题组,与清华大学自动化系、脑与认知科学研究院教授戴琼海课题组,在Nature Methods上以长文(Article)形式发表了题为Evaluation and development of deep neural net

深度学习技术及应用国家工程研究中心正式揭牌

《中国科学报》近日获悉,经国家发展和改革委员会批复,深度学习技术及应用国家工程研究中心(以下简称工程研究中心) 纳入新序列管理。4月26日,工程研究中心举行了揭牌仪式。 揭牌仪式  图片来源:工程研究中心 纳入新序列管理后,工程研究

深度学习技术及应用国家工程研究中心正式揭牌

《中国科学报》近日获悉,经国家发展和改革委员会批复,深度学习技术及应用国家工程研究中心(以下简称工程研究中心) 纳入新序列管理。4月26日,工程研究中心举行了揭牌仪式。 揭牌仪式  图片来源:工程研究中心 纳入新序列管理后,工程研究

深度学习三巨头共同获得2018年度图灵奖

  今日晚间,ACM(国际计算机学会)宣布,有“深度学习三巨头”之称的Yoshua Bengio、Yann LeCun、Geoffrey Hinton共同获得了2018年的图灵奖,这是图灵奖1966年建立以来少有的一年颁奖给三位获奖者。ACM同时宣布,将于2019年6月15日在旧金山举行年度颁奖晚宴

研究团队在深度学习泛化能力研究中获进展

  近日,中国科学院沈阳自动化研究所机器人学国家重点实验室在深度学习泛化能力研究中取得进展,相关研究成果Depth selection for deep ReLU nets in feature extraction and generalization为题,发表在IEEE Transactions

中科大实现全球公里尺度大气数值模拟

近日,中国科学技术大学在新一代神威超级计算机上,首次实现了长达7天的全球3公里空间分辨率大气物理-化学全耦合数值模拟试验,或将显著改善极端天气事件预报的准确性。近年来,频繁发生的极端和高影响天气及空气污染事件,如暴雨、暴雪、高温、干旱、雷暴、台风、冰雹、寒潮、霾、沙尘暴等,不仅对人民生产生活带来严重

多尺度神经可塑性调制机制启发的类脑连续学习

  人工智能迫切需要借鉴生物系统中的微观、介观、宏观等多尺度神经可塑性融合计算机制,以便启发实现更加高效的类脑连续学习算法,消除人工神经网络由于采用反向传播(Backpropagation, BP)等人工学习方法而导致的广泛灾难性遗忘现象。生物系统中常见的多巴胺、5-羟色胺、血清素、去甲肾上腺素等神