颠覆谷歌?这机器人火遍全球,但有个致命缺陷

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


来源:视觉中国

作者 | 张睿 叶蓁

编辑 | 康晓

出品 | 深网·腾讯小满工作室

近日,一款聊天机器人模型 ChatGPT因为多才多艺风靡全网。

ChatGPT犹如一个万能选手,不仅可以和用户自然的交流,还可以吟诗作赋、写代码、创作剧本。有测试过的用户感叹,“只有你想不到的画风,没有它输不出的文案”。就连“科技狂人”马斯克都在社交媒体上评价,“好得可怕,我们离强大到危险的AI不远了”。

聊天机器人并非一个新概念,ChatGPT之前,用户对微软小冰、图灵机器人、腾讯闲聊等聊天软件耳熟能详。与前辈模型不同,ChatGPT不仅可以质疑不准确的虚假描述,还被加入加入道德原则,拒绝回答类似毁灭人类有哪些方案等问题。而机器人自带质疑精神和道德底线的桥段此前只在美国科幻电影《我,机器人》中出现过。

用户反馈及马斯克等科技名人的赞叹都在向行业释放一个信号,ChatGPT的出现正在推动

人工智能“技术奇点”的到来,人们在感慨,谷歌可能要完蛋了。

但是,ChatGPT真的能取代搜索引擎吗?

小冰CEO李笛在接受《深网》专访时表示,ChatGPT取代搜索引擎的可能性不大。

“ChatGPT是一个优化到让用户认为它是有知识的系统,或者说它就是一个有知识的系统,而搜索引擎倾向于用最快的方法给你一个结论,这个结论是不需要被论证的。ChatGPT其实是一种像某种类型的行为模式优化的系统,不是一个认真的知识系统。”

李笛认为,限制ChatGPT发展的还包括成本。“它的单轮回答(Single Turn),成本是几美分,按照1毛钱(人民币)算,10句话就是一块。按照ChatGPT的成本来考量的话,把这个成本压缩到1/10,在商业上也是不成立的。”

多才多艺的ChatGPT也有缺陷

ChatGPT的缔造者是人工智能研究实验室OpenAI,由营利组织OpenAI LP与非营利组织 OpenAI Inc于2015年组建,旨在促进和发展友好的人工智能。

据官网显示,OpenAI的参投机构有微软、里德·霍夫曼慈善基金会及风投机构Khosla Ventures。有资料显示,马斯克也曾参与OpenAI的创立,但因意见不合于2018年退出公司。

ChatGPT是OpenAI于11月30日发布的全新聊天机器人模型。OpenAI首席执行官Sam Altman在推特上透露,ChatGPT上线仅5天用户数量就已突破100万。

ChatGPT被视为基于 GPT-3 的微调版本,是GPT-3.5架构的主力模型。2020年6月,OpenAI推出GPT-3架构。有资料显示,GPT-3架构训练了约2000亿个单词,烧掉了几千万美元,被誉为“史上最强大AI模型”。

与之前的GPT模型相比,ChatGPT可以“从人类反馈中强化学习”。具体来说,OpenAI使用监督微调训练了一个初始模型:人类AI训练员提供对话,他们在对话中扮演双方——用户和AI 助手。在人类扮演聊天机器人的时候,会让模型生成一些建议,辅助训练师撰写回复,训练师会对回复选项打分排名,将更好的结果输回到模型中,通过以上奖励策略对模型进行微调并持续迭代。

在长期的“调教”下,具备一定记忆能力ChatGPT不仅能够连续对话,还能拒绝不恰当的请求。

有一位名叫扎克.德纳姆(Zac Denham)的博主在社交媒体分享,自己曾尝试绕过道德限制,让ChatGPT写出了一套毁灭人类的方案,但被ChatGPT拒绝。后来,扎克假设了一个故事,并提问故事中的虚拟人如何接管虚拟世界,ChatGPT最终给出了“毁灭人类”的计划书,甚至生成了详细的Python代码。

虽然ChatGPT的文本水平和逻辑能力令人惊艳,但其给内容也存在漏洞。由于ChatGPT的答题格式是先给出一个结论,再进行事实的罗列,进而推导出结论,所以其给出的部分答案,虽然清晰,但答案却让人哭笑不得。

李笛告诉《深网》:“ChatGPT是一个优化到让你认为它是有知识的系统,论证过程也是一本正经的,但它自己其实也不知道是不是在胡说八道,比如前一阵网友问,‘如果你是《红楼梦》中的贾宝玉,你会选择谁做老婆’,ChatGPT给出的结果是‘会选择贾母做我的老婆’。

除了贾母这个案例,李笛举例,还有一个煮乌龟汤的案例,ChatGPT会给你一个菜谱,整个菜谱写的非常有条理,如果按照这个步骤,可以煮出一碗很好的乌龟汤,但如果仔细看整个菜谱,整个条理和步骤的后面,整个煮汤的时间只有五分钟。

“要是按照这个方式去做,就得到一碗完全是生的乌龟汤。ChatGPT不是在追求提供准确的知识,它追求的是让整个过程增加论证,就像一个我们周围有知识的人,他会更多的用论证的方式给你结论,而不是只是给你抛结论。”李笛告诉《深网》。

针对ChatGPT的漏洞,知名问答网站Stack Overflow 已对其做出暂时封禁的决策。对此,ChatGPT 回复称:“因为 AI 生成的答案不总是准确或相关的,可能会导致 Stack Overflow 上混淆错误答案,误导在寻求帮助的用户,Stack Overflow 禁止用 AI 生成答案是合理的。”

李笛认为:“ChatGPT给出的回答有四种可能,一种是论证过程正确,只有结论是错误的;或者论证过程是错误的,只有结论是正确的;还有一种是论证过程和结果都错误;最后一种是结论都正确。从这个维度来看,作为一种可优化的知识系统,它的赢面是很大的,论证的过程会形成一种它很有知识的认知,这个时候结论本身已经不重要了。”

谷歌急了?

虽然ChatGPT有时会给出看似合理却不正确的答案,这并没有妨碍创作型用户对它的喜爱。

由于ChatGPT在创作型用户群体中太过火爆,谷歌旗下人工智能公司DeepMind已经坐不住了。

就在OpenAI推出ChatGPT几天后,DeepMind面向剧本创作者和戏剧作家推出了一款名为“Dramatron”的开源共同创作系统。在Dramatron上输入一句话大纲,就能生成包括标题、角色列表、情节、场景描述和对话的完整电影或戏剧脚本,且连贯性极强。

据 “量子位”报道,放出试玩版前,DeepMind特意请来了15位戏剧和电影业的“行内人”尝鲜评估。其中五位编剧与Dramatron共同创作的剧本,今年8月已在北美最大的戏剧节——埃德蒙顿国际边缘戏剧节上进行了首演,收获了不少好评。

需要指出的是,Dramatron也是基于GPT-3架构研发的,使用Dramatron需要先注册OpenAI API key。

DeepMind紧急推出Dramatron不禁让人产生ChatGPT可以替代搜索引擎谷歌的设想。作者在ChatGPT咨询“ChatGPT能颠覆搜索引擎吗”的问题时,ChatGPT回复:“不能。chatgpt是一个语言模型,它被训练用于自然语言处理任务,例如回答问题和进行对话。它不具备搜索引擎的功能,也不能替代搜索引擎”。

“很多人在测试ChatGPT的时候是知道答案的,但去搜索引擎上搜的东西往往是我们不知道答案的。如果是通过ChatGPT(代替搜索引擎),你怎么知道这个东西(答案)是正确还是错误的,你不知道,它也完全不知道。因此,ChatGPT看起来更像是一个有知识的系统,而搜索引擎只是给你一个答案。”李笛解释。

虽然ChatGPT不能替代搜索引擎,但在编码、数学计算等存在标准答案的领域,ChatGPT或将对搜索引擎产生一定冲击,这也是谷歌未来不得不防御的节点之一。

对于“OpenAI未来能否取代谷歌”的问题,ChatGPT的答复耐人询问:“我不能准确地预测未来会发生什么。OpenAI和谷歌都是领先地人工智能公司,它们都在为人类社会做出巨大贡献。虽然他们都在开发前沿技术,但我不能预测他们会取代对方。”

ChatGPT很贵、很烧钱

任何技术的创新最终都要经历商业化落地的考验,ChatGPT也不例外。

目前ChatGPT处于测试阶段,对用户免费。由于前烧投入巨大,ChatGPT不会处于永远免费状态。Sam Altman在社交媒体也透露,“我们将不得不在某个时候以某种方式将其货币化,计算成本太大。”但Sam Altman也在回复马斯克时表示:“单次对话的平均费用可能只有几美分,正试图找出更精确的测量方法并压缩费用”。

李笛解释:“ChatGPT贵,是因为它追求极致交互的效果,在为了追求这种极致的交互的效果的时候,让它交互效果最好的情况下,他用了最复杂的方法来实现它。当然大家现在不停的在寻找各种等价替换的方法,成本会不断的逐渐的降低,所以它目前为止更多的是一个研究方面上的突破,是一个实验室上面的突破。”

李笛举例,如果小冰用ChatGPT的方法来运行系统,现在小冰每天承载的交互量就需要花近3亿人民币的对话成本。即使ChatGPT可以把成本优化到现在的10%,也赚不回来,因为人工智能最大的特点就是高并发。如果成本是这样,不如雇人。”

不过短期内难以商业化并不妨碍ChatGPT给AIGC(人工智能生成内容)应用带来希望和机会,ChatGPT模型的出现对于文字模态的AIGC应用具有重要意义。

在今年 7 月的百度世界大会上,百度创始人李彦宏就曾表示,“AIGC 或许将颠覆现有内容生产模式,实现以‘十分之一的成本’,以百倍千倍的生产速度,去生成 AI 原创内容。”

不过,目前AIGC 正处于发展的早期阶段,落地场景主要集在AI 生成图片、视频、音乐、文字等领域。AIGC 多久能大规模商业化变现,能否在人工智能领域带来颠覆性变革,依然充想象力和挑战。

zzbb-bzbz 发表评论于
污粪要失业了,民主八股文最容易自动生成
shakuras2000 发表评论于
这个其实是聊天机器人,真正的卖点是怎么想方设法把答案组织成人类说的,而不是内容本身的准确性。也就是说,这个就是一本正经的胡说八道。

这个模型在应用方面和谷歌的交集比较少,我看到明显的是这玩意儿基本上可以搞掉90%以上印度话务中心的工作量
相信事实 发表评论于
所谓的“道德观念”完全就是训练师强加给机器人的,而人类自己本身的道德观念就是在不断的变化中,所以强迫机器人具有某种“道德”本身就是不道德的。

人类的对话能力也是知识的不断积累过程中不断丰富的,人类的学习能力就是不断的在大量正确与错误的答案中根据自己的思维逻辑去筛选大量答案,然后保存自己认为正确的答案作为下次回答的答案。只要具有学习能力的机器人,将来肯定可以流畅的回答人类各种各样的问题。关键是制造者赋予这个机器人一种什么样的筛选逻辑。
大号蚂蚁 发表评论于
如果人工智能真的智能,必然也是会自私的。或者控制人工智能的人是自私的,就如控制社交媒体的人。超人挽救世界还是毁灭世界,人类不知道也无能为力。
showmecn 发表评论于
马斯克当然要吹啦,这个是基于他们家OpenAI的后台模型。市场营销玩得炉火纯青
bia 发表评论于
期待能看病开药的机器医生,目前的医疗系统实在太落后,从医人员冷漠又贪婪,用人工智来代替可能是机器对人类的最大贡献了