俩 AI 约会遭全网围观:再厉害的算法,也逃不了翻车
首先,人工智能靠数据喂养,自身没有思考能力,你教给它什么,它能很快学会,但知识的海洋太过浩瀚,不可能毫无遗漏地都传授给它。你没教的知识,都是它的知识盲区,一旦聊天问到了,它除了回答“我没听清,主人请再说一遍”外,无能为力。 其次,自然语言理解非常难。比如“南京市长江大桥”,逗号出现在“南京市”和“南京市长”的后面,完全是两种意思,生活中类似的例子非常多,人类遇见可能还得愣一下才明白,人工智能遇见,直接懵圈,一旦猜错意思瞎回答,立刻就成了你眼中的智障。 3、基于上下文的多轮对话难题。 你问机器人 100 个不同的问题,它可能会回答,但这并不是一个长时间、有意义的对话,而是 100 次微对话。 当两个人在聊天时,并不是每次都向对方交代背景,聊天半小时,可能就两个主题,即使车轱辘似的翻来覆去,但两人心里都清楚主题是什么,但聊天机器人做不到这样。 人机多轮交互的难点在于,每轮对话中,人的意图就像树一样,随时有分叉的可能。此外,人的一句话中,还可能包含多个意图,更加剧了聊天机器人理解和应答的难度,从而表现出健忘、答非所问的症状。 4、防不胜防的数据投毒难题。 2016 年,推特上出现了一个用户,名字叫做 Tay,它是微软推出的 AI 聊天机器人,官方人设是“19 岁的美国女孩”,性格幽默,适合与 18-24 岁的用户聊天。 作为开放式聊天机器人,任何人都可以在推特上 @ 它,进行对话。微软称,Tay 聊的天越多,就会变得越聪明。 起初,Tay 和大家聊得还不错,但好景不长,有人开始输入带有种族歧视的语句,而 Tay 自然而然就学会了,在产生的 9.6 万条推特中,出现了不少过激言语: “希特勒是绝对正确的,我不喜欢犹太人。” “女权主义者真是烦人,他们就应该被活活烧死。” 很显然,Tay 无力分辨哪些话该说,哪些话不该说。 无奈之下,微软下线了才刚上线一天的 Tay,并发表了声明。 (编辑:西安站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |