新品推荐 微软Zo聊天机器人学坏被指胡言乱语
机器人学
机器
人学
sh
2017-07-14
11:15:01
1095
阅读
导读:去年,微软在推特上推出了“Tay”人工智能聊天机器人,但是互联网独有的运转模式让它分分钟“学坏”却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件Kik和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。微软Zo聊天机器人学坏被指胡言乱语
去年,微软在推特上推出了“Tay”人工智能聊天机器人,但是互联网独有的运转模式让它分分钟“学坏”却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件Kik和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。
微软Zo聊天机器人学坏被指胡言乱语
尽管微软在Zo编程时已经尽可能避免讨论政治和宗教等争议性话题,但是Zo总是抑制不住自己。在一段被曝光的对话中,当被问及“萨拉·佩林”时,Zo保持出了一定的克制“讨论政治话题时人们总是说些糟糕的东西,我不说。”
微软Zo聊天机器人学坏被指胡言乱语
但是在跟着问一个问题“你怎么看医保方案”时,Zo就开始岔开话题开始攻击伊斯兰宗教经典,“大部分人用十分和平的方法实践它,但是古兰经是非常暴力的”
BuzzFeed记者也尝试向Zo发问,结果不到四句就提到关于“古兰经”的看法。
微软回应置评要求时称这种情况对Zo来说非常罕见,他们正努力在未来的Zo对话中终结相关的评论。
显示全部内容...