您现在的位置:首页 > 新闻动态 > 学术活动
 
【07.27】“青年科技工作者园地”第148次活动:浅层QAOA线路期望值的有效经典模拟计算、基于FPGA的卷积神经网络加速、系统框架及用户层的内存技术分享
2022-07-26|文章来源: |【
 

“青年科技工作者园地”第148次活动

时间:2022年07月27日 (周三) 下午14:30

地点:计算中心二楼会议室

腾讯会议:630-285-673

 

报告1:浅层QAOA线路期望值的有效经典模拟计算(报告人:普亚南)

Efficient Classical Computation of Quantum Mean Values for Shallow QAOA Circuits

  量子近似优化算法是一种变分量子算法,旨在给出组合优化问题的次优解。人们普遍认为,QAOA有潜力在电路深度较浅的噪声中尺度量子(NISQ)处理器中展示应用级量子优势。由于QAOA的核心是计算问题哈密顿量的期望值,因此一个重要的实际问题是,我们能否找到一种有效的经典算法来求解一般浅量子电路的量子平均值。在这里,我们提出了一种新的基于图分解的经典算法,该算法在除完全图情况外的大多数优化问题中与浅QOA电路的量子比特数成线性比例。与最先进的方法相比,在最大割、图着色和Sherrington-Kirkpatrick模型问题中的数值测试表明性能提高了几个数量级。这次报告首先介绍组合优化问题的QUBO建模,接着介绍VQE变分算法和QAOA算法的基本思路,在此基础上介绍基于图分解的改进思路,然后通过MAX-CUT举例说明算法流程并展示实验结果。最后,总结分析并介绍基于此工作完成的软件Qcover,希望在算法和软件的进一步改进方面与大家相互讨论,一起探索。

  普亚南,2020年硕士毕业于中国科学院计算所,毕业后进入量子院从事量子操作系统软件的开发工作,完成了基于QAOA的组合优化问题求解器Qcover的开发与改进。目前的工作研究方向有:并行优化,量子电路模拟,量子算法等。

 

报告2:基于FPGA的卷积神经网络加速(报告人:张敏行)

  卷积神经网络CNN作为深度学习DL最重要的算法之一,通过感受区域和参数共享降低了网络参数并提高了模型扩展性。随着CNN的不断发展,其网络深度和数据库的不断增大,神经网络训练的时间也越来越长,因此如何对网络训练进行加速成为了一个重要挑战。现场可编程门阵列FPGA作为一种可重复编程的硬件结构,不但可以实现低功耗的计算而且并行计算的特点刚好与卷积神经网络相契合。使用FPGA对CNN中的各个环节进行加速已经成为一种应用较广的加速方式。本次主要介绍一些适用于FPGA实现的卷积神经网络加速方法。

 

报告3:系统框架及用户层的内存技术分享(报告人:夏立斌)

  在面对爆炸式的数据增长及高精度的计算需求时,诸多计算应用都对性能、容量、延迟、吞吐率、扩展性等指标提出了严苛的要求。内存作为连接传统计算和存储系统的媒介,需要尽可能得发挥出其速度优势,并解决在高性能、分布式计算环境下遇到的种种问题。本报告将从内存分配器出发,自底向上介绍与Cache和内存相关的系统框架设计,以及上层应用的访存优化方法。

 

 
中国科学院高能物理研究所    备案序号:京ICP备05002790号-1    文保网安备案号:110402500050
地址:北京市918信箱    邮编:100049    电话:86-10-88235008    Email:ihep@ihep.ac.cn