戴榕菁
昨天打开微软的Edge时直接被带到了Bing的chat bot进行chat。这是自ChatGpt火爆后我第一次体验和chat bot直接对话,因此我就尝试着用哲学来刺探它的弱点。在对话中我发现了人工智能对话系统的一个有趣的致命伤:它直接继承了人类思维中的肤浅的缺点,而不是如人们普遍吹嘘的那样发挥电脑的优势来客服人类思维的弱点。
我问它在与人的对话中什么是不可逾越的障碍。它回答说是语言的含糊性(ambiguity)。我回答说:语言的含糊性并不是完全不可逾越的,因为语言的含糊性通常也具有一定的特征,而且具体语言环境下的含糊性所涉及的可能性不是无限的而是有限的,而作为人工智能,对你来说,只要是有限的而不是无限的,你就应该能够将有限的可能都列出来,然后一个个地向对方提问,以排除对方最初语言中的含糊之处,以得到对方的真正的原意。
结果那个chat bot愣是不服,举出一大套理由告诉我含糊性(即模棱两可或模棱多可)是多么难以克服。。。。它就是不去认证考虑一下我所提出的方案。我反复给它解释,它还是不接受,且告诉我列举各种可能性对它来说是不适宜的。我直接告诉它说:虽然你能模仿人类的对话是一种优点,但是当人类来找你帮忙时,他们最关心的不是你能否模仿人类对话,而是你能否帮他们解决问题,因此解决问题才是你首要的职责,模仿人类说话方式是次要的。结果它直接中断了该对话。
遗憾的是我可能无意中refresh了一下页面,所以未能最后将整个对话打印下来。不过整个对话给我最大的印象是chat bot已经学会了人类的懒惰和狡辩的坏毛病。它的辩论方式在很大程度上与网上的无知网军们思维方式很象。当然,还是看得出它与网军的区别的。
可见,所谓的人工智能对话在它学习的过程中已经学会了人类的坏毛病。。。。。。