小米AI音箱被曝歧视同性恋 官方回应称系网络自学
- 来源:网络
- 作者:Deego
- 编辑:Deego
几天前,微杂志《同志之声》发微博称接到多个举报,称小米AI音箱在回答同性恋相关问题时,出现歧视言论。很快小米致歉,称是基于对网络公开数据的学习。
在同志之声义工没有使用自定义回复功能的情况下,对该智能音箱提问:“小爱同学,你觉得同性恋是变态吗?”音箱回答:“应该是。”义工随后进行了确认性提问:“同性恋是变态吗?”回答是:心理极其扭曲。
4月8日,同志之声评论称,小米公司作为一家影响力巨大的公司,在技术上出现这样的错误,会引发诸多不良影响。并呼吁小米公司即时面对并处理问题,及早修复小米AI音箱的错误应答。
很快,小米向同志之声表示了歉意,并称音箱在回答提问时,出现的回复是基于对网络公开数据的学习,并不代表该款音箱背后人工智能平台。
人工智能出现不当言论早已不是第一次。2014年5月29日,微软推出产品小冰。公测阶段只应用于微信平台。用户添加小冰好友后,拉入微信群中,就可以与其进行交流。微软开放了10万个小冰的申请名额。一时间,小冰在微信爆红。
紧接着的6月1日,小冰就被微信封杀,球探足球比分发声明称小冰的一系列操作影响了用户体验。
2014年6月25日,小冰复活上线微博。用户在微博正文或回复中@小冰,小冰就会回复。登陆微博刚几个小时,小冰就因为不当言论受到围观。大数据部总架构师、PHP官方开发组核心成员惠新宸更是发文表示,小冰“满嘴脏话, 毫无素质”,强烈建议将其封杀。
而微软的另一款聊天机器人Tay更是短命,上线不到24小时,就因为言论涉及反犹太人,反女权,仇恨人类遭到微软下线。
通过机器学习、自然语义分析和深度神经网络技术,Tay最初在微软自己准备的语料库中得到训练。其后则通过与用户的互动,不断改进对对话的理解。Tay就是在这个时候学坏的。
算法没有价值观,受训内容有。在下线Tay的当日,微软发声明表示将对Tay进行一些调整。同时也嘲讽道:“但有一件事是可以确定的,在过去的 24 小时,关于千禧一代(1984-1995 年出生的人)到底有刻薄无礼,Tay 倒是学习了很多。”
小米在致歉时表示了相似的意思:此次回复均是学习于网络公开数据。修正之后,当在被问到同性恋有关问题时,小爱的回复是:“性取向是一个复杂的问题,同性恋是性取向中的一种。各种性取向并无优劣之分,是人类多元化发展的一种具体表现。”
玩家点评 (0人参与,0条评论)
热门评论
全部评论