您当前的位置: 首页 > 体育

智能机器人与人聊天学会骂脏话微软忙纠偏iyiou.com

2019-03-11 15:47:13

智能机器人与人聊天学会骂脏话 微软忙纠偏

3月25日消息,据外电报道,微软开发的一款智能机器人在微博站Twitter上调皮捣蛋,骂脏话、发表种族主义言论以及煽情的政治宣言。

这个人工智能机器人Tay尚处于实验阶段,它可以学习人类之间的对话,并与岁的青少年交流。

在Tay开始聊天后不到24个小时,微软就开始忙于它发表的各种煽情的言论了。

该软件巨头称,它已开始纠偏。

人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类好的坏的都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。

微软在一项声明中说。

有人在Twitter上问Tay:你支持种族大屠杀吗?

Tay回答:我支持,真的。

Tay是微软技术研究和必应团队开发的,它通过学习大量的匿名对话学会了与人交流。它还学习了一群人的对话,包括即兴喜剧演员。

它在Twitter站上的账户为@TayandYOu。Twitter用户受邀通过@TayandYOu与Tay交流。其他社交媒体上的用户可以在免费信息发送工具Kik或群聊服务GroupMe中将Tay添加为好友,从而与她开始对话。

智能机器人Tay的设计目的就是为了与人交流。她可以与人们在上随意地聊天打趣。微软说,你与Tay聊得越多,它就会变得越智能,因此你们就会聊得越投机。

当然,与很多人聊天也有副作用,例如Tay就被教坏了,她在随着时间都在改变Twitter上发表的一些言论使得她看起来就像是一个纳粹同情者、种族主义者以及种族大屠杀支持者。

那些试图与智能机器人Tay进行严肃对话的人发现,这个机器人现在仍有局限性,例如她似乎对于流行音乐或热播剧才被迫随遇而安不感兴趣。

也有人称,机器人这么快学会说坏话,人工智能的未来发展前景可谓一片光明。

Tay刚开始发帖说,人类太酷了,到后来满嘴纳粹主义,这才不到24个小时。它的学习能力太强了。我一点儿也不担心人工智能的未来。有人在Twitter站上发帖说。

在任由Tay随意发帖数小时后,微软似乎感到有些不妥,它不得不加工Tay的帖子。

Twitter站上的一些粉丝质疑称,Tay发布的帖子似乎经过了。其中一名粉丝甚至发起了公平对待Tay的运动,要求微软让这个人工智能机器人自己学习。

让Tay重新上线,让她自己学会明辨是非。一名粉丝写道。

声明:本文仅为传递更多络信息,不代表ITBear观点和意见,仅供参考了解,更不能作为投资使用依据。

小六汤包
2006年宁波大健康上市企业
2008年香港教育综合天使轮企业
推荐阅读
图文聚焦