微软在从Twitter用户那里学习性别歧视和种族主义后,将其AI聊天机器人作为基础

微软的Tay AIis年轻,而不仅仅是含糊不清的对话-它也给人留下了深刻的印象。

在人们教它重复阴谋论,种族主义观点和性别歧视言论之后,该公司已将其Twitter聊天机器人停飞 (即暂时关闭)。我们不会在这里回应他们,但他们涉及9/11,GamerGate,希特勒,犹太人,特朗普和对奥巴马总统的不尊重的刻画。是的,有那么糟糕。在我们写这篇文章的时候,这个账户是可见的,但是有问题的推文已经消失了; 泰伊现在已经 “睡觉” 了。

“Tay” 在不到24小时的时间内从 “人类超级酷” 到完全纳粹,我一点也不担心AI pic.twitter.com/xugi1u9s1a的未来

-格里 (@ 杰拉尔德梅洛) 2016年3月24日

尽管似乎单词过滤器将是一个好的开始,但不确定微软将如何教Tay更好的举止。该公司tellssbusiness insider表示,它正在进行 “调整”,以遏制AI的 “不当” 言论,因此它清楚地意识到,它的机器学习算法必须有所改变。坦率地说,尽管如此,这种事件并不休克-如果我们近年来学到了任何东西,那就是让互联网上的输入完全开放是可以保证的。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。