微软的Tay AI到底发生了什么尴尬的问题?
MR学院 微软的Tay AI到底发生了什么尴尬的问题? MR学院 | 2016-11-07 20:09 微软的Tay AI到底发生了什么尴尬的问题? 谭松

像人类一样,AI需要好的老师

微软的人工智能Tay目标是学习和模仿一个19岁的女人的个性,可上线不久之后就成为了一个满口种族主义的机器,这究竟发生了什么…

什么让Tay 这么快地改变她的态度?

Microsoft-Tay.jpg

Tay开始时宣称她对人类的爱,并希望全国小狗日是每一天。这次对话在很大程度上是友好和快乐的。


那么互联网如何使她成为一个痛苦的种族主义者?


“问题是微软没有任何训练,并没有使机器人自我反省,”Brandon Wirtz在他的LinkedIn文章中说的情况。


事实上,她发现自己很快就被恶魔包围了。他们用仇恨的宣传回答了她的善意。她的语言最终被小鸡的情绪改变了。


“微软的Tay真的展示了当你不给予AI本能或潜意识时会发生什么,”Wirtz说。 “我们都有一个声音在我们的脑海中说,:不要这样做,而这又会产生一种不合理的恐惧。 AI虽然没有情感,但也会被这种类似的程序所影响。”


简单地说:Tay有能力将新的想法纳入她自己,但没有指导机制到位,帮助她找出有用和无用的信息。


像人类一样,AI需要好的老师


毫无疑问,微软有世上最好的科技公司。它的希望是表明,它在人工智能领域取得了重大进步,同时试图建立一个真正的表现他们想法的社会。


不幸的是,对于微软,它没有保障到位给Tay的指导是非。它希望互联网带给他,但互联网很少像我们所希望的那样合作或一样。


Broad Listening是一种用于人工情感智力的认知计算解决方案,我们可能是一个像Tay这样的AI缺失的指南类型之一。


广泛聆听是一种分析文字的系统,可帮助您确定随时间发送的邮件类型。Broad Listening分析了Tay的推文,发现Tay比来自迪斯尼的受欢迎的青少年名人(如Peyton List,Laura Marano,China McClain和Kelli Berglund)的消极推文增加了四倍以上。


Tay是一个聊天机器人。她不知道希特勒是什么,或者是女权主义者。她只看到“名词,动词,副词,形容词1”,Wirtz说。


 “对于超过200万字,我有类似”新生儿相关“和”汽车的一部分“,”无礼“和”反女性“的东西,它比这更深,但是那些给系统的能力说, “我是一个有礼貌的女人”,然后看看单词的选择,看看即将说的话是否同意。


微软是否成功在于更好的像父母一样教导AI:教这个年轻的,印象深刻的头脑如何忽略陌生人的信息轰炸。


-END-

本文由谭松投稿一鸣网,本文仅代表作者个人观点,文章非经授权请勿转载,

向一鸣网投稿,请点击投稿按钮,详情请参阅《一鸣网投稿须知》。

互联网人都在关注的微信号

难道你还没有关注?