当前位置:福建生活都市网 >> 商业杂谈 >> 文章正文

谷歌AI伦理团队创始人:我被炒了!

发布于:2021-02-21 本文来源:热心网友投稿,侵权投诉qckb tousu@ qq.com

去年年底,谷歌AI伦理团队联合负责人蒂姆尼特格布鲁(Timnit Gebru)被解雇,这在全世界引起了很大的轰动。

新年伊始,你觉得Google会有“新年新气象”吗?

无辜!

不,就在昨天,谷歌人工智能伦理部门的创始人玛格丽特米歇尔在社交媒体上说,“我被开除了”.

对于这一举动,谷歌在一封电子邮件中表示:

在审查了经理的行为后,我们确认他多次违反公司的行为准则和安全政策,包括泄露机密的业务敏感文件和其他员工的个人数据。

根据阿希奥斯的报告,早在1月份,谷歌就去了撤销了Margaret Mitchell的公司访问权限,因为它使用自动脚本来寻找该公司“滥用”蒂姆尼特格布鲁的相关证据。

邮件全文链接:

https://docs . Google.com/document/d/1e ri2crdtoyyjejxroozo-uouelgdolpf n1 joerg2w/edit

米切尔认为,发生在格布鲁身上的事情“似乎源于现代技术缺乏远见,所以事件本身就是这个问题的表现”。

支持格布鲁是米切尔被解雇的原因吗?

正如Axios之前报道的那样,米切尔在谷歌宣布重组其AI伦理团队的第二天就被解雇了。谷歌工程组织副总裁玛丽安克罗克(Marian Croak)现在领导着“谷歌研究中心一个负责任的人工智能新专业中心”。

根据米切尔的领英数据,她在2016年以高级研究科学家的身份加入谷歌。两年后,她与Gebru一起成立了谷歌AI伦理团队.

去年12月,米切尔和格布鲁正在写一篇关于大型语言处理模型的危害的论文。当谷歌大脑副总裁梅根卡库利亚要求撤回论文时,格布鲁说谷歌需要更加开放,思考“为何这项研究不被接受”.

此后不久,格布鲁被解雇,尽管谷歌将其描述为自愿辞职。

在格布鲁事件之后,米歇尔启动了公开批评谷歌高管,包括谷歌人工智能部门负责人杰夫迪恩和谷歌首席执行官桑德尔皮帅。今年1月,当谷歌开始调查相关事宜时,米切尔发现他已经无法访问该公司的电子邮件。

在这方面,人们普遍推测Mitchell被解雇在很大程度上都是因为其与Gebru的关系,以及在后续一系列活动中对Gebru的声援.

在调查了Gebru事件后,谷歌宣布将改变研究和多元化政策。杰夫迪恩(Jeff Dean)在一封内部电子邮件中向员工道歉,称他对公司对格布鲁离职的处理深感遗憾。

“我听说并承认,格布鲁博士的退出是因为女性技术人员、黑人社区成员和其他追求技术职业和谷歌的代表性不足的群体使用人工智能

表示深切关怀的人代表着什么。这会使得这些人质疑他们在公司的位置,对此我感到遗憾。”

自Gebru事件于去年12月发酵以来,谷歌的AI伦理团队就一直处于危机中。在宣布重组后,高级研究员Alex Hanna写道,直到周三晚上新闻报道后,团队才知道Croak的任命

“他们都让我们要相信他们的处理方式,相信Marian Croak这样的决策者,他们会把我们利益最大化,”她在推特上写到,“但所有的决定都是背着我们做出的”。

谷歌连续曝出的解雇风波在业界引起巨大轰动,也引发了人们对谷歌对异议的容忍度的质疑。

2018年至今,谷歌内部已经发生过多次大规模的抗议活动。最近,多位谷歌员工宣布共同成立Alphabet工会,希望在薪酬和伦理等问题上向公司施压。

伦理问题需要得到相同程度的重视

Mitchell以在人脸识别偏见的批评而闻名于世。

去年7月,MIT正在使用的一个高引用图片数据集Tiny Images被曝出存在强烈种族歧视和厌女症标签

这个数据库内,当黑人或猴子出现时,标签显示为N*gger这一对黑人的蔑称词汇;此外,身穿比基尼或抱着孩子的妇女的图片被标记为b*tch等这一侮辱性词汇。

这在学术圈迅速引发广泛关注和激烈争议。得知消息后,MIT迅速下线了这一数据集,并发布公告称,由该数据集训练出的AI系统,会潜在地使用种族主义、厌女症和其他激进术语来描述对象,请所有研究员暂停使用和训练

下线该数据库后,MIT还表示,将敦促研究人员和开发人员停止使用培训库,并删除所有副本。

ImageNet也有同样的问题,因为它也是使用WordNet进行注释的。一项名为“ImageNet Roulette”的实验允许人们将照片提交给由ImageNet训练出来的神经网络,该神经网络将使用数据集中的标签来描述这些图片。不出所料,人们在系统中输入的是他们最感兴趣的照片:自拍,而软件会输出一些种族主义和冒犯性的标签描述他们。

在这些庞大的数据集中,有问题的图像和标签所占的比例很小,并且很容易将其作为异常现象清除掉。Prabhu和Birhane认为,如果将这些材料用于训练现实世界中使用的机器学习模型,则很可能导致真正的伤害。

他们在论文中写道:“缺乏对规范数据集的规范,会对女性、种族和少数民族以及处于社会边缘的弱势个体和社区造成不成比例的负面影响。”

少数群体在AI训练数据集中往往没有得到重视,这也是人脸识别算法在识别女性和肤色较深的人时遇到困难的原因。今年早些时候,底特律的一名黑人被面部识别软件误认为小偷嫌疑人,被警察错误逮捕。

这也是为什么此前,一个有争议的人工智能算法从低分辨率的快照中生成高分辨率的图像,把一张奥巴马的模糊照片变成更像白人而不是黑人的原因。

尽管随着技术的成熟,科技公司都在不同领域取得了不小的进步,但是与技术相伴生的伦理问题却并未得到相同程度的重视

谷歌的系列事件到底会成为导火索,还是伦理问题被提上台面的引线,我们将拭目以待。

相关报道:

https://techcrunch.com/2021/02/19/google-fires-top-ai-ethics-researcher-margaret-mitchell/

https://www.theverge.com/2021/2/19/22291631/google-diversity-research-policy-changes-timnet-gebru-firing

https://www.nytimes.com/live/2021/02/19/business/stock-market-today

标签: 伦理 数据 黑人

上一篇:太空史:64 暴雪

下一篇:男朋友爱赌博 我从来没有确定要嫁给他 他要分手我该怎么办?

福建生活都市网整站推荐
本类推荐
TOP 10