找回密码
 注册
搜索
查看: 207|回复: 0

误称黑人为灵长类动物 脸书为AI功能出错而道歉

[复制链接]
发表于 2021-9-4 11:29 AM | 显示全部楼层 |阅读模式



2021-09-04 23:49 经济日报 / 编译林奇贤/综合外电



脸书的主题建议功能最近把一段影片中的黑人男子说成是灵长类动物,脸书随即停用该功能,承认这确实是不能接受的错误,并向用户致歉。 图片撷自脸书

脸书的主题建议功能,最近把一段影片中的黑人男子说成是灵长类动物,尽管人类也算是灵长目的一员,但脸书指的应是猩猩、猿猴等其他灵长类动物,显然「政治不正确」,脸书随即停用该功能,承认这确实是不能接受的错误,并向用户致歉。

纽约时报报导,脸书用户最近在英国《每日邮报》的贴文观看一段影片时,系统却自动询问,是否想「继续观看关于灵长类的影片?」 但这段影片的内容是,几名黑人和白人以及警方发生争执,与猴子、猩猩这类的灵长类动物无关。

脸书已停用这个运用人工智能(AI)来推荐讯息的功能,并对这个「无法接受的错误」致歉。 脸书表示,正在调查这个推荐功能,以防止同样的事未来再度发生。

Google、亚马逊等其他科技公司,多年来都因AI系统的偏见而受外界的批判,尤其是跟种族相关的议题。 多项研究显示,脸部辨识技术对有色人种带有偏见,在辨认这些族群时会出现较多问题,导致黑人被歧视,或发生因电脑认错而让警方抓错人的事件。

例如Google Photos曾在2015年把黑人的照片标签为「大猩猩」,尽管Google说对此感到「真的很抱歉」,并会致力于立即修复这个问题,但两年多后,科技媒体Wired发现,Google的解决方式是,对搜索内容中出现的「大猩猩」进行审查,同时也隐藏「黑猩猩」、「猴子」等词汇。 这个拙劣的权宜之计,凸显Google和其他科技公司在先进图像识别技术上面临的难题。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|小黑屋|www.hutong9.net

GMT-5, 2025-2-10 10:48 AM , Processed in 0.041495 second(s), 15 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表