微软的Tay Chatbot在Racist推文后脱机

微软公司星期五发表道歉,其人工智能聊天机器人泰发布推文,否认大屠杀,并宣布女权主义者应该在其他许多种族主义者的帖子中“烧死地狱”

不过,该公司表示,周三推出的聊天机器人“受到一小部分人的协同攻击利用漏洞”

“我们对Tay的意外攻击性和伤害性推文深感抱歉,这些推文并不代表我们是谁或我们的立场,也不代表我们如何设计Tay

Tay现在处于离线状态,只有当我们确信能够更好地预测与我们的原则和价值观相冲突的恶意意图时,我们才会把Tay带回来,“微软负责研究的副总裁Peter Lee在该公司的官方博客上表示

微软推出了Tay作为聊天机器人,旨在通过在线“随意和有趣”的对话来吸引和娱乐人们

根据该公司的说法,Tay的创建是为了更多地了解人工智能程序如何在休闲对话中与用户互动,并从年轻一代的千禧一代中“学习”

据该公司称,随着越来越多的用户与之互动,Tay变得“更聪明”

机器人通过模仿评论然后根据其与用户的交互形成自己的答案和陈述来学习

微软表示,很快,Twitterati意识到了这一点,并开始利用机器人的缺点使其发布种族主义推文

在一条推文中,Tay称为女性主义“癌症”,以回应发布相同消息的Twitter用户

在另一篇文章中,一位用户询问Tay是否支持种族灭绝,机器人回答说:“我确实

”在另一条推文中,机器人说:“布什做了9/11,希特勒比我们现在的猴子做得更好

唐·特朗普是我们唯一的希望

“在另一篇文章中,回答一个问题,泰说:”瑞奇·格瓦伊斯从无神论的发明者阿道夫·希特勒那里学到了极权主义

“该公司已经准备好了”多种类型的滥用在这个系统中,我们对这次特定的攻击进行了严格的监督,“李在博客中写道

“因此,Tay发布了非常不恰当和应受谴责的词语和图像

”他还表示,这不是科技巨头第一次推出人工智能应用程序

微软在中国推出了一款名为“小冰”的聊天机器人,它被大约4千万人使用,并以“用它的故事和对话取悦”而闻名,“李提到

上一篇 :美国申请解锁iPhone可能会影响纽约案例:Apple
下一篇 白宫拒绝支持加密法案