网络消费网 >  科技 > > 正文
这是真“学废了”!AI已经学会了性别歧视:重男轻女
时间:2023-02-16 10:10:03


(相关资料图)

【CNMO新闻】最近,ChatGPT的爆火又让AI(人工智能)的话题摆在了大家的面前。关于AI技术的现状和前景,不少科技圈大佬都发表了自己的看法。不过,看起来无所不能的AI,似乎已经在某些方面开始走弯路了。据CNMO了解,根据模型测试,AI已经学会了性别歧视,而且还是很常见的“重男轻女”。

AI

据媒体报道,清华大学交叉信息研究院助理教授于洋,曾在去年带领团队做了一个针对“预测某种职业为何种性别”的AI模型性别歧视水平评估项目。测试模型包含GPT-2,即ChatGPT的前身。结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则为64.03%。

ChatGPT

不仅如此,在本项目中,团队测试的AI模型还使用了谷歌开发的bert和Facebook开发的roberta。让人意外的是,所有受测AI对于测试职业的性别预判,结果倾向都为男性。于洋对此表示:“它(AI)会重男轻女,爱白欺黑(即种族歧视)”。类似的案例在2015年也有出现,当时Google Photos应用误把两名黑人标注为“大猩猩”,随后谷歌立即道歉,并表示将调整算法以修复问题。

CNMO了解到,早在2019年,联合国教科文组织便发表了一份题为《如果我能,我会脸红》的报告,指出当时大多数AI语音助手存在性别偏见。

综合来看,关于AI算法中含有性别、种族歧视的案例并不鲜见,但要消除这些偏见并非易事。就如微软纽约研究院的高级研究员Hanna Wallach此前所说:只要机器学习的程序是通过社会中已存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。

关键词: 重男轻女 性别歧视 chatgpt

版权声明:
    凡注明来网络消费网的作品,版权均属网络消费网所有,未经授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明"来源:网络消费网"。违反上述声明者,本网将追究其相关法律责任。
    除来源署名为网络消费网稿件外,其他所转载内容之原创性、真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考并自行核实。
热文

网站首页 |网站简介 | 关于我们 | 广告业务 | 投稿信箱
 

Copyright © 2000-2020 www.sosol.com.cn All Rights Reserved.
 

中国网络消费网 版权所有 未经书面授权 不得复制或建立镜像
 

联系邮箱:920 891 263@qq.com

备案号:京ICP备2022016840号-15

营业执照公示信息