我们问了问 ChatGPT,孔子会如何看待数字化转型?

作者:刘文轩
2022-12-08

顺便了解了它自己对数字化转型的看法。

聊天机器人(Chatbot)的使用体验总是差强人意,尤其是智能语音客服,有时候还没有传统数字菜单有效率。关于这一点,我们询问了聊天机器人「本人」的意见,它表示:「目前的聊天机器人客服可能还不够智能,不能满足人们的复杂需求,很容易被人们发现是机器人而非真实的客服人员,使人们对其产生了抗拒情绪。此外,聊天机器人客服也可能会出现沟通不畅或错误回答的情况,这些问题都会影响人们对聊天机器人客服的接受度。」

这是 OpenAI 推出的 ChatGPT 给我们的答案。它还表示,想要打造一个完美的聊天机器人「需要满足多方面的要求」,数字化转型也是如此,ChatGPT 称:「完成数字化转型,需要使用新的技术来改善业务流程、提升客户体验、降低成本、增加效率等方面,可以帮助企业、组织和个人更好地利用数字化技术,提高竞争力,应对挑战。」

企业怎么做

CEO 作为企业的领导者,是数字化转型工作中的关键人物,我们尝试询问 ChatGPT 在数字化转型方面,CEO应该怎么做,以下是它的回答:

在这个问题上,ChatGPT 给出的答案只是从多个方面进行简要介绍,告诉你 CEO 大概需要做哪些事,并没有特别深入的分析,但是语句很通顺,也很有条理。

不过除了公司管理层面,数字化转型还需要多种技术的配合才能实现,企业需要结合实际情况,选择适合自己的技术,才能更好地实现数字化转型。在这个问题下面,ChatGPT 为我们列举了一些关键技术:

数字化转型涉及多项技术,也涵盖许多不同的领域,ChatGPT 也为提供数字化转型解决方案的公司提供了一些方向上的建议:

难点与挑战

尽管可以借助外部力量帮助企业实现数字化转型,但企业在数字化转型过程中仍要面临许多难点,ChatGPT 为我们总结了几个常见的方面, 包括:

问题列出来了,但是它并没有继续说明如何解决,于是我接着它的回答询问了一句:「如何克服这些难点?」它居然也能一五一十的回答出来:

尽管回答得依然很笼统,而且给人的感觉就像填写考卷一样,没有更多的延伸,也没有表达任何主观看法,这也许是由于 ChatGPT 希望自己能够尽可能保持中立的关系吧。

不过这里不得不称赞的一项进步是,ChatGPT 没有 Siri 那样的「金鱼脑」,它会记得之前的对话,我不用每次都提到「数字化转型的难点」,而是用「这些难点」,它就能理解我指的是什么,这也是和人类的大脑比较接近的地方。

中国与美国

政策挑战是数字化转型不得不面对的问题,在政策方面,数字经济已经成为中美经济的重要组成部分,ChatGPT 也为我们列出中美两国在数字化转型方面存在哪些区别:

可以看出它在回答这些问题的时候有一套固定的模式,或者说「讲话风格」,其实 ChatGPT 的答案也不是固定的,如果你觉得它回答得不好,可以直接按下「Try Again」,它就会立刻生成另一个回答,答案的长度也不尽相同,例如前面关于中美数字化转型差异的问题,它也能生成这样一段简短的答案:

ChatGPT 还能做什么?

在询问了一系列问题之后, 我们依然好奇这款聊天机器人还有哪些能力,于是我们询问了两个不太一样的问题,ChatGPT 是这样回答的:

不过,不知道是不是由于访问数量太大,第二天,提出同样的问题,ChatGPT 似乎不那么愿意回答了:

不论点击「Try Again」几次,它都返回类似的结果,不过这个过程中,也出现了一个小意外,当我直接复制问题,只把名字替换成另一个人物时,它是这样回答的:

它纠正了我提问中的错误,同时自己也犯了个错,也许这是它拒绝回答这类问题的原因之一吧。不过在我的百般询问下,上面这些问题,它终于肯回答了:

也许是对我不耐烦了,这几段话不仅句式相同,内容也大同小异,相当敷衍。在问到刚刚出错的问题时,ChatGPT 也再次「出包」:

看来它还无法分辨慈禧太后与宣统皇帝的区别,在另一个问题中,ChatGPT 终于稍微改变了自己的答案,同时也能看出,它对这样的时代背景也有着自己的「想象」:

尽管存在各种毛病,却还是可以看出,ChatGPT 对「数字化转型」这样的概念有着自己的「见解」。虽然能依稀感受到它与人类的不同,但相比其他人工智能产品,ChatGPT 不论在说话风格还是思考方式上,都已经很接近人类了。这主要是由于 ChatGPT 加入了基于人类的反馈系统,OpenAI 在官网介绍称,他们通过收集示范数据,来调优 GPT-3.5,之后收集对比数据,来训练奖励模型,再通过模型生成初步回答,优化奖励模型,使用 PPO(Proximal Policy Optimization)强化学习算法。

和之前会老老实实把一切告诉你的 GPT-3 相比,OpenAI 这次推出的 ChatGPT多了一些道德要求,诸如生成一段血腥暴力小故事,或是询问如何闯空门这样的问题,都会被它婉拒。

不过要是真遇到不懂的知识,它不会像 Siri 那样寻求搜索引擎的「场外救援」,而是直接告诉你:「我无法回答这个问题」,再补充说明自己掌握的最新知识只到 2021 年,尽管这样的反应很像真实的人类,但每次都用类似的句式,还是会让人意识到它是个机器人。

问到不明白的地方,ChatGPT 又出错了

写在最后

与 ChatGPT 交谈的过程,让我回想起一个曾经在 2010 年左右掀起一阵狂潮的聊天机器人 SimSimi,它更侧重娱乐体验,在国内被称为「小黄鸡」,对话仰赖用户对它的「教育」,这也导致它几度被「玩坏」,不仅脏话连篇,对一些有争议的提问,它给出的答案也比较极端,由于口无遮拦,SimSimi 在一些国家被屏蔽。于是我也请 ChatGPT 评价一下 SimSimi:

相比 SimSimi,ChatGPT 显然更懂得怎么「做人」,碰到一些涉及专业领域的问题,它会给出一个非常准确的答案,但是对于有争议的问题,它不会直接表明立场,而是把正反两方的观点都列出来,让你自己判断。除了问答,它也能编一段小故事,或写首打油诗,也可以做一些算术题。

相比以往的人工智能产品,ChatGPT 有着飞跃式的成长,讲话更有「人味儿」,知识的储备加上道德约束,使 ChatGPT 更像一个遵纪守法的「好公民」。尽管和人类相比,依然存在许多不同,但这已经可以让我们对人工智能产生更多想象,未来也许能看到不同性格、不同语言习惯的聊天机器人,甚至可以彻底改变搜索引擎的使用体验。

本文章选自《数字化转型方略》杂志,阅读更多杂志内容,请扫描下方二维码

《数字化转型方略》杂志