咱们应该怎样了解李飞飞价值十亿美金的“人文AI”方案?

脑极体 2019-03-30阅览:

原标题:咱们应该怎样了解李飞飞价值十亿美金的“人文AI”方案?

AI自从以运用视点走进群众视界,就一向逃不出“人文主义”的苛责。作为一种依托于海量数据作业的技能,AI之所以可以作为提高功率的东西,首要仍是由于对人类经历的高度集中。

而“人类经历”这件事,自身便是不行完美的。遍及可以累积成海量数据的经历,有时反而愈加充溢成见。就像假如把AI带入哥伦布年代,AI也会成为一位坚决的地心论支撑者。

而李飞飞脱离谷歌回归斯坦福后,主导的第一个项目HAI——以人为本人AI研讨院(Stanford Human-Centered AI Institute),就在侧重处理AI与人文主义之间的沟壑。

AI拟人化,竟是一位“殷实的白人男性”?

首要要知道的,终究是什么让AI无法“以人为本”?

现在从人文、从公正的视点来看,AI公认的两个问题是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

所谓白人至上,是指在算法驱动下AI所做出的一些种族轻视行为。例如谷歌的图片主动分类从前将黑人相片分类成大猩猩,以及惠普的摄像头算法无法辨认深肤色的人。在违法猜测软件中,乃至会将黑人的违法率辨认成一般白人的两倍以上。

而男性之海,则指的是AI从业者中有极大的性别歪斜,在2015年的NIPS上,女人与会者的人数居然只占到了13.7%,李飞飞说到,在论文引证量,男性作者的被引证次数要比女人作者高100倍。


用《纽约时报》的话讲,两者结合,让AI被刻画出了一个“殷实白人男性”的价值观——刚好和那些掌握着科技霸权的企业主们如出一辙。

如此以来,关于AI的运用很或许反而会让人们一向以来关于推进种族、性别间相等所做的极力白搭。

就像平权主义者一向在推进男女收入相等,而上一年卡内基梅隆大学的计算机科学家却发现,在谷歌的广告推送机制中,更倾向于将高收入作业的招聘广告推送给男性用户。

而当美国各地差人部分在履行猜测性警务作业时,数据驱动的危险点评东西会让他们更多的前往有色人种集合区,无形中加剧了对某一人群的成见和标签化。

可怕的是,当女人在职场上遇到轻视时,她还可以对自己状况进行发声。而当AI驱动全部在无声中进行时,女人乃至不知道自己正在处在轻视链之中——假如从没见过这项招聘启事,女人天然不知道高收入作业更倾向于招聘男性。

而当AI职业中充满着“殷实的白人男性”时,他们天然也很难注意到算法黑箱中产生了这样的问题。终究万事万物都在人类轻视造就的规矩下工作,被驱动的每一个集体却又看不清规矩的真实面貌。

十亿美金的远大方针

李飞飞在斯坦福主导的HAI项目,大约有着以下三个方针:第一是推进和开展下一代AI科学(要点在于脑科学和认知科学),第二是研讨和猜测AI对人类社会和日子的影响,第三是规划和实践以人为本的AI技能和运用。

这么一看,所谓“以人为本”的说法其实挺虚的。但归纳斯坦福的一些揭露材料,以及李飞飞的一些说话,咱们可以大约总结出HAI终究想做些什么。

首要是在AI研讨中引进更多样化的视角和穿插思想。

最首要的,便是支撑女人和有色人种进入AI研讨。例如斯坦福所支撑的“Black in AI”项目,就在召唤有色人种重视现在的AI研讨,重视AI无形中所带来的轻视问题。

一同还有继续追寻各个范畴运用AI后所带来的影响。

初度之外,HAI还邀请了社会各界人士一同参加,如教育、工业、艺术等等范畴,企图让他们一同发表定见,特别是对技能研制者给出反应,通知他们AI终究对这一范畴产生了哪些影响,以权衡技能的未来走向。

至于推进下一代AI科学就很好了解了,首要是协助研讨者圈定研讨方向,推进AI的可解释性等等,这儿就不再进行赘述。


但风趣的是,HAI作为一个十分政治正确并伟光正的项目,并没有在言论取得一致性的支撑。特别有媒体指出,该组织有121位教职工,其中有100位以上都是白人,并只要30%的女人。

所以工作就变成了,HAI邀请了一群殷实的白人男性,企图征集10亿美金去从人文视点纠正人工智能的“殷实白人男性”价值观。

齿轮之下:怎样看待商业功率以外的AI?

尽管HAI取得的点评纷歧,但AI所带来的公正性问题,的确现已开端影响人们的正常日子。

就像上文说到的算法过错估量有色人种违法率将其提高了两倍,相同意味着算法将白人的违法率过错的轻视了两倍。假如执法者依靠这种过错的算法,则意味着不只或许委屈好人,也或许错放坏人。

又比方前两年亚马逊从前闹出的丑闻,用户发现算法在分配货品能否当日送达时,一旦输入了黑人集合区的邮政编码,就无法运用当日送达效劳。


(被点评为“高危险”的有色人种,和具有数次违法记载却被评定为低危险的白人)

这种成见现象正在越来越多地出现在种种效劳中:借款的AI风控、稳妥的AI审阅机制。终究就导致了越是弱势集体,越简单被算法边缘化,从而难以取得资源与协助,终究进一步地向弱势一方歪斜,乃至终究走向违法,加剧了算法轻视。

如此看来HAI的许多战略,是十分值得咱们细心考虑的。

例如,当咱们在重视工业AI的功率问题时,咱们是否也应该考虑在功率之外,AI关于工业的更多影响?当AI关于具有强壮IT根底的零售集团发挥作用,他们愈加了解用户心智时,那些小而美的微型零售店是否在风潮中被忘记和揉捏,终究退出舞台?

又比方除了那些研制技能和为技能买单的人之外,咱们是否有职责去倾听更多人的声响?AI的研制者与技能采买者或许明晰地知道AI是怎样推进咱们日子作业的,但那些相同被卷在齿轮之下的人,是否也有权利了解到这些齿轮的作业规矩?

更重要的,咱们是否应该极力去推进AI黑箱的透明化,在发现问题时可以从内部技能机制上处理?

以往咱们总觉得,技能永久仅仅研制者和运用之间的故事。现在看来,或许AI现已成为了一个国际出题。

国际出题,就应该广泛参加。

(免责声明:此文内容为第三方自媒体作者发布的调查或评论性文章,一切文字和图片版权归作者一切,且仅代表作者个人观点,与bwin无关。文章仅供读者参阅,并请自行核实相关内容。投诉邮箱:editor@92hzh.com)

  • 脑极体
    邮箱:caoceng@92hzh.com
    写让你脑洞大开且能看懂的人工智能、流媒体、海外科技
    共享本文到