本科物理和音乐理论双学位,博士应用数学
梦晨 发自 凹非寺
非常AI 报道 | 公众号 QbitAI
世界上最大人工智能协会AAAI颁发的第二届“AI诺贝尔奖”正式出炉!
由杜克大学计算机科学教授Cynthia Rudin获奖,同时领走百万美元奖金。
获奖原因不是她开发了性能超强的算法,而是她致力于在医疗、法律等敏感领域推广透明可解释的AI模型。
Rudin刚开始发表论文时,“数据科学”和“可解释机器学习”这两个术语还不存在,她的研究也没有恰当的分类,连审稿人和编辑都不知道该如何处理。
她发现一篇论文如果没有证明定理或提出更精准的算法就很难发表,不过她还是在可解释AI领域坚持了15年。
AAAI的评委会主席Yolanda Gil称:
以往只有诺贝尔奖和图灵奖这种世界知名荣誉,才能获得百万美元级别的奖金。
Rundin教授在解决争议性问题上的勇气,突显了人工智能在社会责任和道德方面的重要性。
她推广和开发可解释AI
当许多机器学习领域的学者致力于改进算法时,Rudin更关注如何用AI服务社会。
她的AI模型第一次应用是在2007年,和纽约的能源公司合作检测供电系统中因损坏和超负荷造成的隐患。
这个过程中她发现,她可以在代码中不停地增加了新发表论文中的花哨技巧,却很难做出有意义的性能提升。
反而是从经典统计学方法中获得了更多的准确性。
Rundin意识到,如果人能够理解AI模型在计算过程中使用了哪些信息,就可以找电力公司的工程师去询问到有用的反馈,再去改善整个过程。
也就是说,更有助于提高预测的准确性的是可解释性,而不是更高级或规模更大的机器学习模型。
接下来的十多年间,她开发了可解释的机器学习技术,并在现实世界中推广应用。
她和医院合作开发了一个系统,可以预测哪些病人在中风或其他脑损伤后最有可能发生破坏性癫痫,让医院可以同时监测三倍于以前数量的病人。
在MIT任教期间还和波士顿的警察局合作开发了一个模型,帮助发现犯罪行为之间的共性,检测是否可能属于同一个人的系列犯罪。
Rudin教授强烈批判在刑事司法、医疗诊断等领域使用“黑箱”模型可能造成的不公平现象,
在分类一张照片是猫还是狗这种浅层应用中,AI到底依据什么做出判断似乎无关紧要。
但在可能改变人们生活和命运的高风险领域,准确、公正和无偏见就至关重要。
她引用最高的一篇论文是呼吁在高风险领域使用可解释的模型,并阐述了Interpretable和Explainable两种可解释性的区别。
寻找数据特征像解谜游戏
Rudin出生于1976年,她的学术经历也非常丰富。
本科就读于纽约州立水牛城大学,拿了数学物理(Mathematical Physics)和音乐理论双学位。
博士毕业于普林斯顿大学应用数学与计算数学专业。
后来在纽约大学做博士后研究员,再到哥伦比亚大学任副研究员,2009年又在MIT斯隆管理学院任教。
2017年,Rudin加入杜克大学,同时在计算机科学、电子与计算机工程、生物统计学和生物信息学和统计学四个专业开课。
还在学校主页上放了一张很有个性的照片。
从学习应用数学开始,Rudin就一直希望用理论去帮助他人。
开始接触机器学习的时候,她觉得从数据集中找出模式特征的过程就像破解一个谜题。
而站在理论和应用的不同视角去看同一个数据集,什么特征才重要就完全不一样。
在教学中,她积极引导学生研究如何解决现实问题,至少也要研究现实问题的某个方面。
获奖消息公布后,很多她的学生都在网络上表示祝贺,说上学时候她的课很受欢迎,并且理论和应用同样受重视的课程并不多见。
她在杜克大学有一门选修课,在选课阶段因为太火爆,最后还开成了两个班。
她以前的合作者也表示她是自己遇到过的最Nice,最热情的人。
关于“AI诺贝尔奖”
该奖项由AAAI和松鼠AI联合颁发,全称为“人工智能人类福祉奖”,也被称为”AI界的诺贝尔奖”。
松鼠AI是国内一家AI教育公司,百万美元奖金就是由松鼠AI赞助提供。
奖项颁给使用人工智能保护、增强和改善人类生活产生的积极影响,产生长期效果的研究人员。
奖项于2019年设立,2020年首次颁发,今年刚刚举办到第二届。
上一届颁给了身患癌症后开发出可以提前诊断出癌症AI模型的科学家,MIT教授Regina Barzilay。
今年的获奖者Rudin也说,很感谢AAAI和松鼠AI创造了这个奖,让人们认识到AI造福社会这个话题其实很重要。
参考链接:
[1]https://pratt.duke.edu/about/news/rudin-squirrel-award
[2]https://www.aaai.org/Awards/squirrel-ai-award.php
[3]https://ece.duke.edu/faculty/cynthia-rudin
[4]https://news.ycombinator.com/item?id=28837998