澳门老虎游戏机_澳门老虎机游戏平台网址

新闻中心

澳门老虎机平台网址 当前位置: 首页 > 新闻中心 > 澳门老虎机平台网址 > 正文

计算机学院“云端”学者讲坛第三期成功举办

作者:学院研究生会 来源: 澳门老虎游戏机阅读次数:日期:2020年04月24日


 

4月18日,由电子科技大学研究生会主办,计算机学院研究生会、数据智能研究组承办云端学者讲坛第在线上开讲。本次讲座邀请到了谷歌西雅图研究科学家宫博庆博士以“Learning the Distributions of Adversarial Examples  for an Improved Attack on Deep Neural Networks”为主题介绍计算机科学神经网络攻击方法的前沿知识。讲座由计算机学院李文教授主持,学院师生近200人参加。

李文教授首先对宫博庆进行了简单介绍:宫博庆于2015年从南加州大学取得博士学位。曾担任佛罗里达中心大学(UCF)助理教授,荣获NSF CRII和NSF BIGDATA等奖项。目前担任多个顶级会议如NeurIPS, ICML等主席。



        宫博士首先对深度神经网络进行了介绍。他指出深度神经网络是机器学习领域中一种重要技术,这种技术无论是在激活函数、损失函数还是在进一步优化方面所展现的特点都十分显著。同时,该网络在监督学习和非监督学习问题上都提供了高价值的应对方案。

 

随后,宫博士向大家阐述了白盒攻击和黑盒攻击的原理。和其他攻击不同,对抗性攻击主要发生在构造对抗性数据的时候,之后该对抗性数据就如正常数据一样输入机器学习模型并得到欺骗的识别结果。在构造对抗性数据的过程中,无论是图像识别系统还是语音识别系统,根据攻击者掌握机器学习模型信息的多少,可以分为两种情况:白盒攻击——攻击者能够获知机器学习所使用的算法,以及算法所使用的参数。攻击者在产生对抗性攻击数据的过程中能够与机器学习的系统有所交互;黑盒攻击——攻击者并不知道机器学习所使用的算法和参数,但攻击者仍能与机器学习的系统有所交互,比如可以通过传入任意输入观察输出,判断输出。应该说到目前为止机器学习模型是最好的预防风险的一种手段,但如果攻击者进行细微的数据修改则一样可以发起攻击。

最后,宫博士围绕构造函数如何更好的学习对抗样本分布进行了讲述。宫博士指出,对抗样本是机器学习模型的一个有趣现象,攻击者通过在源数据上增加人类难以通过感官辨识到的细微改变,但是却可以让机器学习模型接受并做出错误的分类决定。对抗样本不是过拟合的结果,而是因为输入特征维度过高和模型的线性性质导致的。

讲座之后,宫博士通过线上问答的方式与数十位师生们进行了热烈交流。计算机学院“云端”学者讲坛系列讲座持续开展,拉近了同学们与国内外知名学者的距离,帮助同学营造在家研学氛围,提升专业素养。