dudud
2021-11-30T15:13:08+00:00
又有算法被曝歧视黑人。近日,有用户在Facebook观看一段主角是黑人的视频后,被询问是否“愿意继续观看灵长类动物视频”。对此,Facebook致歉表示这是一个“不可接受的错误”,正在调查其算法功能。
此前,Twitter、Google均有被发现算法歧视黑人的事件。据悉,算法偏见与AI核心技术之一机器学习的技术环节有关。比如,机器学习使用的数据集如果带有来自现实社会的偏见,那么算法就会习得这些偏见。换句话说,如果AI歧视黑人、歧视女性,很大一部分原因是现实生活中本来就存在歧视黑人、歧视女性的现象。
黑人遇到算法偏见,这不是第一次 今年五月,Twitter的研究团队发表了一篇论文,通过实验证实了Twitter的缩略图算法在裁剪图片时更偏向白人以及女性,在裁剪多人照片时会更多裁掉黑人。随后,Twitter取消了在手机App上自动裁剪照片的功能,并发起算法偏见黑客竞赛,寻找代码中可能存在的偏见。
2015年,Google Photos 也曾将两位黑人的照片标记为“大猩猩”。OpenAI于今年2月发布的一篇论文用数据量化了AI系统可能存在的算法偏见。他们发现,一些AI系统将黑人识别为非人类类别的概率最高,达到14.4%,是排在第二位的印度人的近2倍。
此前,Twitter、Google均有被发现算法歧视黑人的事件。据悉,算法偏见与AI核心技术之一机器学习的技术环节有关。比如,机器学习使用的数据集如果带有来自现实社会的偏见,那么算法就会习得这些偏见。换句话说,如果AI歧视黑人、歧视女性,很大一部分原因是现实生活中本来就存在歧视黑人、歧视女性的现象。
黑人遇到算法偏见,这不是第一次 今年五月,Twitter的研究团队发表了一篇论文,通过实验证实了Twitter的缩略图算法在裁剪图片时更偏向白人以及女性,在裁剪多人照片时会更多裁掉黑人。随后,Twitter取消了在手机App上自动裁剪照片的功能,并发起算法偏见黑客竞赛,寻找代码中可能存在的偏见。
2015年,Google Photos 也曾将两位黑人的照片标记为“大猩猩”。OpenAI于今年2月发布的一篇论文用数据量化了AI系统可能存在的算法偏见。他们发现,一些AI系统将黑人识别为非人类类别的概率最高,达到14.4%,是排在第二位的印度人的近2倍。