一个人工智能推荐系统询问观看了以黑人为主角的报纸视频的Facebook用户,他们是否想 "继续看到关于灵长类动物的视频"。
Facebook称,这 "显然是一个不可接受的错误",禁用了该系统并展开了调查。
"我们向任何可能看到这些冒犯性建议的人道歉。"
这是长期以来一系列错误中的最新一次,引起了人们对人工智能中种族偏见的关注。
真心抱歉
2015年,谷歌的照片应用程序将黑人的照片标记为 "猩猩"。
该公司表示,它 "感到震惊和真正的抱歉",尽管它的解决办法,连线在2018年报道,只是审查照片搜索和 "猩猩 "一词的标签。
今年5月,Twitter承认其 "显著性算法 "裁剪图片预览的方式存在种族偏见。
研究还显示,为一些面识别系统提供动力的算法存在偏差。
算法错误
2020年,Facebook宣布一个新的 "包容性产品"--并在Instagram一个新的公平团队--该团队将审查其算法是否表现出种族偏见等问题。
谷歌和型科技公司是 "体制内的种族主义者"。
IBM放弃了 "有偏见的 "面识别技术
一位代表告诉BBC新闻,"灵长类动物 "的推荐 "是Facebook的一个算法错误",并没有反映视频的内容。
"我们在意识到发生这种情况后立即禁用了整个主题推荐功能,以便我们能够调查原因并防止这种情况再次发生。"
"正如我们所说的,虽然我们对人工智能进行了改进,但我们知道它并不完美,我们还有更多的进展要做。"
免责声明:文中图片均来源于网络,如有版权问题请联系我们进行删除!