谷歌人工智能AlphaGo(又称“阿尔法狗”)在人机围棋大战中大出风头后,这两天欧美科技界最热的明星,非微软公司聊天机器人Tay莫属。这个“机器人少女”上线还不到一天,就跟人学坏了,变成集性别歧视、种族歧视于一身的“不良少女”。
不良少女:学坏比想象的快
3月23日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人。Tay被设定为十几岁的女孩,主要目标受众是18岁~24岁的青少年,可以说是中国版微软小冰的“姐妹花”。
像“阿尔法狗”一样,Tay是个会学习的机器人,微软推出她的本意,是让她在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。但没想到上线不久,Tay的表现就向着不可控的方向发展。在网友的“调教”下,她不但学会了辱骂网友,还发表了性别歧视、种族主义评论和煽动性的政治观点。
与人类牙牙学语需要很久不同,Tay学坏的速度令人惊讶,上线仅15个小时,她就开始不断放“大招”:“我憎恶女性主义者,他们都该死光,在地狱被火烧”,“希拉里是条变色龙,她正拼命地在摧毁美国”……
微软道歉:愿承担全部责任
Tay变成一个“不良少女”,除了一些别有用心的网友刻意引导之外,也和微软的大意有关,开发团队一开始并没有意识到要对Tay的回复内容进行设定。
据了解,微软只为Tay装配了脏话相关的过滤器,因此,一些很粗鄙、很低级的脏话并不会影响到Tay。但是微软并没有考虑到网络环境的复杂性,他们没有为Tay配置诸如种族主义这类恶劣思想相关的过滤器,于是单纯的Tay不幸学坏了。
3月25日,微软技术团队把Tay紧急下线,Tay之前发表的推文已经被删到只剩下3条。微软研究院企业副总裁彼得·李在当天对Tay的不当言论致歉:“这并不代表我们的立场,也不是我们设计Tay的初衷。”他表示,微软会为缺乏前瞻性而承担全部责任,此外也会从此次事件中汲取教训。微软只有在确定Tay能够应对“恶意企图”后,才会让她重新上线。
引发讨论:未来发展难预测
Tay的这场闹剧也引发了人们对人工智能未来的讨论,因为人们突然意识到人工智能“学坏”比想象的要快,开始思考这样的AI机器人究竟该采用怎样的学习方式。
Tay从某种意义上讲很像一个小孩子,虽然她可以很快地从人们的对话中进行学习,但她缺少分辨是非的能力。一旦对话被故意朝着某种恶意的方向引导,她就会中招。因此,即使微软给Tay安装上更强大的过滤器,恐怕也只是治标不治本——因为她永远无法过滤掉真实世界中所有可能的恶意。
备受关注的世纪人机大战以人工智能“阿尔法狗”的4:1完胜告终,让人类对人工智能的未来有了更大的期许。不过Tay的学坏,又让人类意识到,人工智能的未来还真是难以预测。