本网讯 2022年6月28日下午,香港科技大学(广州)文泽忆博士为我院师生开展主题为“传统机器学习研究的一些潜在价值”的学术报告,信息学院教师、研究生和感兴趣的本科生聆听了报告,讲座由信息学院李霞副院长主持。
文泽忆博士做“传统机器学习研究的一些潜在价值”学术讲座
现场师生聆听讲座
文泽忆博士从深度神经网络(DNN)与传统机器学习模型的对比切入,他指出,基于DNN的模型是当前众多现实问题的首选解决方案,但通常需要大模型、较长的训练和推理时间。而传统机器学习模型,如SVMs,通常较小而且训练和推理速度更快。文泽忆博士在报告中为大家介绍他所在团队的最新研究进展,包括通过自动化模块增强基于SVM模型的准确度。他通过“细粒度情感分析”的实际案例,为大家展示其团队设计的基于SVM的方案能取得和DNN相似的结果,甚至超过大部分基于BERT的模型。与基于BERT的模型相比,他们的方案在推理速度上快约40倍、在模型数量上少约100倍。最后的实验结果表明,增强后的SVM,在效率和准确度上都比已有的SVM方案更好。讲座后,文泽忆博士也与现场师生进行问答与交流。
讲座问答环节
附:主讲人文泽忆博士简介:
文泽忆博士,从澳大利亚墨尔本大学获得博士学位,现任香港科技大学(广州)助理教授。此前任澳大利亚西澳大学讲师、新加坡国立大学和墨尔本大学博士后。文博士主要从事机器学习系统、高性能计算及数据挖掘相关领域的研究,特别是利用图形处理器(GPU)及多核处理器优化机器学习训练及推理算法的执行效率。他带领研发的开源机器学习系统代表作包括:ThunderSVM 和ThunderGBM。两个机器学习系统的论文,均发表于机器学习顶刊Journal of Machine Learning Research (JMLR)。其中发表于2018年JMLR的论文,目前已经受到了140多篇学术论文的引用,并被用于图像分割及分类和蛋白质行为预测等现实任务中。ThunderSVM是目前世界上单机版最快的支持向量机(SVM)训练及推理系统,在获得相同的训练模型和相同的硬件环境的情况下,比常用的LibSVM库快10到100倍。两个项目在GitHub开源社区中获得近2,000个收藏,也被媒体报道(如Hacker News的头条)和在社交媒体上转发近5,000次。文博士目前已发表35篇科技论文,其中一作文章17篇、CCF A类文章21篇,现任JMLR副主编(Action Editor,负责开源机器学习系统区的投稿),经常在国际顶级会议(如KDD,SC,AAAI,CVPR,SIGIR)当程序委员会委员。他还是并行及分布式计算顶级期刊IEEE TPDS 2019年的最佳论文获得者(1/987),及并行计算知名会议ICPP的2021年最佳论文入围者(4/329)。
初稿:陈劲鸥
审核:刘丽玉
终审:李霞