ChatGPT越来越“有人味” 人类该何去何从?

2023年02月19日

最近,许多人都多了一位“网友”——ChatGPT。它是一个聊天机器人,由美国人工智能公司OpenAI推出,从2022年12月1日正式发布至今,月活跃用户已达1亿,成为历史上增长最快的消费者应用程序。

说是聊天机器人,它可不只能“唠嗑”。大数据、大算力、强算法赋予了它“超级大脑”。它能写作业、写论文、当助教,写代码更是“老本行”,能通过工程师测试、硕士期末考试,俨然一个“全能学霸”。那么,ChatGPT是否宣告“强人工智能”时代的到来?ChatGPT如何影响人类的未来?

当AI越来越强大甚至无限趋近于人,甚至超越于人,那么属于人的,还有哪些抢不走的领地和独特的价值?

近日,新华社中国搜索团队召集业界权威专家,剖析前沿,华山论剑,透视“风口”,把脉AI的发展。

“强人工智能”时代就此到来?

王金桥(中国科学院自动化研究所研究员):ChatGPT基本上把2021年及以前互联网上所有的数据都学习了一遍,相当于一个世界知识的统一建模。在如此规模的参数下,更好的关联推理就能够实现了,也能够通过算法更好地模拟人的意图。所以业内很多人认为ChatGPT是人工智能的再一次革命性突破。但也有人不认可,认为ChatGPT还只是世界知识的一个组合,基于组合产生了一些观点和判断。

我认为ChatGPT现在的问题,一是对常识的建模弱了点,很多网友晒出了ChatGPT“翻车”、令人啼笑皆非的回答;二是缺乏多模态的信息,目前它的推理较弱,理解不了诸如“说曹操曹操到,到底是小明到了还是曹操到了”这样的信息。

凌强(中国科学技术大学自动化系教授):ChatGPT比我想象得要好。在我的想象中,ChatGPT可能会给我“和稀泥”的回答,相当于没有对也没有错,但实际上它给我的答案还是有针对性的,从AI技术的角度讲,ChatGPT在特征工程上应该有非常强大的方案。另外,当我用同一问题反复问它,它的回答并非千篇一律,而是具有一定的差异性。这也让它更像“人”,这说明ChatGPT的随机决策模型也做得不错。

沈阳(清华大学新闻学院教授):我认为,ChatGPT在技术上是弱人工智能走向强人工智能的重要节点。从商业上来说,应该会引发一场大洗牌。对善于使用网络的人来说,ChatGPT可以成为非常好的助手,在文案写作、检索等领域,能简化三四成的工作量。

无所不能,但对真实性概不负责?

高跃(清华大学软件学院副教授):ChatGPT生成的内容,面临真实性、准确性以及版权方面的问题。这也给我们带来很多挑战——除了辨别真伪、保护版权,还要能够识别这到底是不是个人的创作,或者能区分出哪部分是AI生成,哪部分是人的创作。

陈雨强(第四范式首席科学家、联合创始人):对于一篇专业性或学术性的文章,署名作者是一定要负责的,而恰恰ChatGPT是不能负责的。学术论文的署名作者,既要对论文做出了“实质性贡献”,又要能承担相关的责任,而这两条ChatGPT都不满足。

何俊良(上海交通大学计算机系助理教授):如果问ChatGPT我们自己不熟悉的专业领域的问题,它的回答会看起来非常专业,但实际上可能包含很多错误的知识和误导性观点,而我们难以分辨。

真实性问题会带来信赖危机,而一旦公众不敢信赖一款应用,它也便难于发展。所以,大语言模型目前最亟待解决的问题之一,就是怎么去判断AI的输出到底是对是错,学界也特别关心。

AI的普及给教育体系带来哪些挑战?

沈阳:有人做试验,让ChatGPT参加考试,其能达到硕士的入学水平,这预示着一般性脑力劳动在未来的价值会大幅降低。如果ChatGPT发育得比较充分的话,我们未来的整个教育体系是要改变的。我们要培养下一代增加创造性知识的能力,提供AI所不能提供的价值。

唐明(中国科学院自动化研究所研究员):我认为,ChatGPT能极大提高人类的工作效率,但所谓取代人类,则远远谈不上。AI再怎么发展,最终还是需要人做出判断,不可能完全信赖机器。据新华社