chatGPT_是不是能理解人的语言?算不算有了人的智能?

#挑战30天在头条写日记#

去年年底《美国科学院院报》(PNAS)上有一篇综述,讨论了这个问题,就是关于“大型语言模型能不能理解语言”,如上一期介绍的,chatGPT 使用的技术就是“大型语言模型”(LLM)。

chatGPT_是不是能理解人的语言?算不算有了人的智能?

文章的结论是:没有人能对“什么是理解”有一个可靠的定义。

文章里面有一句话很经典:“机器会不会‘思考’?这个问题就像问潜水艇会不会‘游泳’一样。by Dijkstra”

类似的,我们也可以这样去看待 “chatGPT 有没有智能”。

我们称一个东西“智能”,是说作为功能来说,以前只有人能做,现在机器也能做了。我们把高级一点的“自动化”也叫“智能”,比如 “智能家居”、“智能汽车”。当然这些的“智能”程度,跟chatGPT 没法比。

从原理上来说,机器的 “智能”和人的“智能”有很大差别。就好比说,鸟能飞,飞机也能飞,但它们飞的原理不太一样。你看航天飞机还能飞出大气层呢,鸟肯定是不能的。

有一些人去讨论机器是否能够归纳、推理、规划等等,出于沟通来说可以理解,不过代价是容易引起误解。顺着这些词去想象推演目前机器能做的事,往往和现实不符。这也是为什么PNAS那篇文章对“模型是否能理解语言”这事保持谨慎的原因。

就好比我们用鸟的翅膀去解释飞机能不能飞,可是飞机的翅膀可不用扑腾,而且,即使没有翅膀,比如火箭,也是能飞的。

可能你觉得难的事 chatGPT 能做得很好,而你觉得简单的事它却做不好,比如 chatGPT 能回答怎么做炸弹、算起四则运算来却出错。如果我们对标人的“思维能力”去理解机器,会发现机器显得难以预测。

为了可以较全面的评估语言模型的表现,也为了让未来的AI更可预测,研发者在做所谓的“AI对齐”的工作。“对齐”就是建立评测框架、系统性的评估AI在各方面的表现,采取措施让AI的表现更符合人的预期,无论是推理、综合等能力,还是稳定性、伦理、价值观等。这些都是让chatGPT走向实用必须要做的。

chatGPT_是不是能理解人的语言?算不算有了人的智能?

据报道,去年8月GPT-4就完成了训练,半年后才发布,中间的工作就是在做“AI对齐”,这还只是起码的、让 chatGPT 能面世的工作。随着类似 chatGPT 的工具被推广使用,“AI对齐”的工作量是巨大的,而且要社会各方参与。

对chatGPT的能力,如果讲一个更合适的词,我觉得“泛化”这个词可能更准确。

“泛化”是说,机器对文本有“压缩-解压缩”的能力,这个能力不仅在训练它的文本上适用,也适用于更广泛的文本——这意味着知识在表达方式上得到了“扩展”——这就是“泛化”的意思。这个词对算法人员来说是熟悉的,对公众来说有点陌生。

“泛化”听起来有点“举一反三”的意思,也不完全是,因为AI对文本的扩展还不是很可控、不是完全符合人们的预期。

chatGPT_是不是能理解人的语言?算不算有了人的智能?

生意营销3大宝:彩铃、定位、认证,一个也不能少,如有需要,添加 微信:xnc528  备注:3

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 820277912@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.clzz8.com/47816.html