您好,欢迎来到华中科技大学自动化学院官网!

联系我们| English

院系新闻

当前位置: 首页 > 院系新闻 > 正文

西安交通大学陈霸东教授来我院进行学术交流

发布时间:2017-08-17 编辑:朱平 来源:

    2017816日 下午4点,西安交通大学陈霸东教授应王小平教授邀请来我院进行学术交流,在南一楼311会议室为我院师生做了一场题为“Information Theoretic and Correntropic Learning” 的学术报告。报告由我院王小平教授主持,20余名师生参加了本次报告会。

    陈霸东教授是西安交通大学教授,博导,陕西省“百人计划”特聘教授。2008年毕业于清华大学计算机专业获博士学位,20087月至20109月在清华大学精密仪器与机械学系做博士后研究,201010月至20129月在美国佛罗里达大学 (University of Florida) 电气与计算机工程系做博士后研究 (合作导师Jose C. Principe教授)20157月到8月在新加坡南洋理工大学(NTU)做访问科学家。研究兴趣包括信号处理、机器学习、人工智能、脑机接口等。目前发表学术论文180余篇,其中SCI期刊论文100余篇,发表在IEEE TSP, IEEE TNNLS, IEEE SPL, AUTOMATICA 等著名期刊。撰写学术章节4章,学术专著2部,其中以第一作者撰写的英文专著(Elsevier出版社)被国际计算评论(Computing Reviews)评选为2013Notable BookWeb of Science 中论文被引1000多次,其中4篇论文获“ESI高被引论文”。陈教授是IEEE高级会员,担任IEEE TNNLSJournal of the Franklin InstituteEntropy 等著名国际刊物编委或副主编,并作为负责人承担了国家自然科学基金青年、面上、重点和973课题等多项重要科研项目。

    报告中,陈霸东教授给出了将信息论用于机器学习的方法,将训练过程中误差的熵作为学习中的代价函数。在数据含有非高斯噪声或者模型是非线性的情况下,可以得到更好的学习效果。陈教授先给我们介绍了信息论学习的应用:最小化误差熵;机器学习中的特征提取;利用信息论学习解释深度学习理论的优越性等。接着,他向我们生动地解释了信息论中熵的概念:信息熵是接收的每条消息中包含的信息的平均量。也就是说,我们描述对象所需要的信息越少,熵越小。然后,陈霸东教授向我们演示了使用最大相关熵(MCC)代替均方误差(MSE)在有大异常值的情况下的精度和鲁棒性方面的提升。最后, 陈霸东教授和与会师生进行了热烈的交流,就相关学术领域展开讨论。

    本次报告中,陈霸东教授创新的研究思路与深厚的专业知识为我院师生带来了一场精彩的学术盛宴,令大家受益匪浅。