首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

沈向洋打破清华记录,成史上首位视频聘任清华教授,呼吁可解释AI

今天早上,离开微软的沈向洋正式续聘清华,在清华讲了第一堂课。

去年11月沈向洋离职微软后,就在本周前几天,沈向洋续聘清华,在清华的title是清华大学高等研究院双聘教授

清华大学校长邱勇说,这是清华大学历史上第一次以视频会议的形式举行聘任仪式,校长连线发聘任书。

这次聘任仪式的两端分别在中美两地,校长和工作人员们在位于北京的清华大学工字厅,而沈向洋博士在位于西雅图的清华大学全球创新学院(GIX)大楼127室。

邱勇校长还开玩笑说:“我也是第一次跟向洋博士以这种形式见面,向洋博士在屏幕上很帅,比以前都帅。”

之所以是“续聘”,是因为这其实是沈向洋在清华的第二场聘任仪式。2005年,沈向洋首次受聘清华高等研究院双聘教授,距今已经过去了15年。

聘任仪式之后,借助Zoom直播平台,沈向洋进行了主题为Engineering Responsible AI的课程演讲。

沈向洋提到,AI目前在社会各界中都有应用,人们借助AI来做决策。但现在,AI已经在做我们不懂的决策。

许多AI系统就像黑箱一样,AI做了决策,但我们不知道它为什么这样做。

因此,负责任的AI是很重要的,每个创造AI的人都应该了解一些AI创造的原则。

之后沈向洋重点讨论了可解释的AI和AI的偏差(bias)

关于可解释的AI,沈向洋举了一个AI分辨哈士奇和狼的例子。

在以下6张照片中,只有左下角的一张被识别错了。

但其实,AI可能并非像我们理解的那样,通过动物的外形来辨别的,它的辨别方法可能是这样:

AI的判断并非通过图片中的动物部分,而是通过图片中除了动物之外的部分进行的。

因此,可解释的AI非常重要,不然你永远都不知道AI可能是用这种作弊的方法来判别哈士奇和狼的。

而关于偏差,沈向洋举了性别偏差的例子。

曾经有人发现一个人脸识别系统里,识别不准的都是女性、不化妆、短发、不苟言笑的照片,而其他人就相对更准一些。

而在词嵌入中,问题更为明显。

同一段描述,当文中用的是she/her等女性词汇时,AI判断这段文字描述的是老师;

而当里面的she/her变成he/his/him等男性词汇时,AI就会判断这段文字描述的是律师。

一个典型的例子是“He’s Brilliant, She’s Lovely”。

在一个词嵌入系统中,当主语分别是“她(she)”和“他(he)”时,出现的词是不一样的:

她是“姐妹”,他是“兄弟”;她是“护士”,他是“大夫”,谈到这里,沈向洋吐槽说,你们没发现哪里不对么?她是“家庭主妇”,他是“程序员”;她说“OMG”,他说“WTF”;她是“女权主义者”,他是“现实主义者”;她“怀孕”了,他“肾结石”了;……

这是词嵌入里的偏差,很多时候人们想都不想,就直接用了。

最后,沈向洋教授总结说,我们是第一代和AI共存的人类,我们得决定怎么构建AI、怎么用AI。我们能接受一个AI做的决定、我们人类无法理解的世界吗?

One More Thing

最后,沈向洋还表达了他对NLP领域的期待。

他说,CV现在还很火,但未来十年自己看好NLP:

“懂语言者得天下。”

这是沈向洋全程唯一一句中文。

传送门

如果你想了解沈向洋演讲的具体内容,清华大学微博上可以查看回放:

https://weibo.com/1676317545/Ixadc8PhK?from=page_1002061676317545_profile&wvr=6&mod=weibotime&sudaref=weibo.com&display=0&retcode=6102&type=comment

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

  • 发表于:
  • 原文链接http://news.51cto.com/art/202003/611953.htm
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券