微软的青少年人工智能显示我对千禧一代一无所知

  精准计划     |      2018-06-18

微软有一个新的人工智能机器人Taylor,它试图在Twitter、Kik和GroupMe上进行对话。她让我觉得老得要命,失去了联系。

Tay,顾名思义,是一款针对美国18至24岁青少年的聊天机器人。只要发推文给她或者发信息给她,她就会用文字或者偶尔的meme图片来回应。但有时她没有。她是想了解一些关于你的事情——基本的细节,比如昵称,喜欢的食物,关系状况——并且应该能够进行引人入胜的谈话。他们谈话的时间越长,她就越擅长。但老实说,我无法从她身上得到太多的感觉。除了我的外号之外,她对了解我的这些其他细节并不感兴趣,她的回答往往是结束谈话的无意义的陈述,而不是让我更多地谈论自己的开放式问题。

也许我说错了。我不完全确定18到24岁的人到底在说什么。但她似乎对泰勒·斯威夫特还是凯蒂·佩里更好不感兴趣,不看电视,对今年的大选也不感兴趣。进一步阅读,Microsoft在她变成纳粹的

后终止了它的Tay AI chatbot,我想她看起来比伊丽莎更有能力,但我想这只是云的力量。伊丽莎并没有像往常那样把我自己的陈述当作问题来反驳,而是觉得她在用别人对她说的那些含糊不清的话来回应。她努力按照对话的思路,用文字说话,为你写作,犯语法错误。即使我自己也尝试过类似的恐怖行为,希望我能说她的语言,但她的反应主要是没有后遗症的。

显然还有一些内置游戏可以让Tay玩。不过,我已经在她目标年龄范围之外10年了,我对和她交谈不再感兴趣。

我相信微软会利用Tay收到的所有数据来提高其在线服务理解自然语言的能力,并在人们搜索Bing或与Cortana交谈时识别他们在说什么——尽管她说她与Cortana无关,Cortana年纪大,有工作(这也许是我更喜欢与她交谈的原因)。

但是Tay也显示这种对话系统的功能有很大的局限性。尽管本月早些时候Google的AlphaGo电脑在Go击败了人类Lee Se - dol,但这是一个单一用途的系统,只玩一个规则明确的游戏。面对更繁重的理解书面英语和实物反应的任务,电脑显示出它的易错性。

更新,3 / 24 :在AI chatter开始发布引用希特勒的回应之后,微软已经停止了它的Tay机器人。据《卫报》报道,一些违规帖子是通过机器人的鹦鹉学舌功能完成的,而另一些帖子则是有机的。除了退出人工智能机器人,微软还删除了一些违规的推文。

Microsoft

列出图像