人工智能及其它

一次讨论

实际上这不是一次讨论,而是好几次讨论,差不多从去年AI作图走红开始断断续续在几个群里参与过相关的讨论。不过因为我的电脑都是没有独立显卡的,玩不了那些东西,只能纯扯淡。直到今年用上了chatGPT之后,有实际的感受就有了更多的讨论。

关于AI的讨论其实有很多话题,比如一直保持热度的AIGC(人工智能生成内容——AI画图,AI孙燕姿之类)。另一个方面就是关于AGI(通用人工智能)。

早在AlphaGo的时代,我和朋友们其实就已经有过一波关于AI的争议:AI是否可以超越人的智能?

当时我们在群里讨论的结果是:不能。

因为即使是强如AlphaGo甚至AlphaZero,本质上还是基于大数据的统计拟合,只是硬件技术足够强大,实现了以前不能完成的大规模数据处理任务。这种算法不能说不强大,但是应用局限性也很大,缺乏对未知情况的推理能力,所以沿着这条路是无法达到人类的智能的,更别说超越了。

去年开始红起来的AIGC更多的是作为一种工具,即使是所谓的”艺术创作“,很大程度上也是基于现有的作品的再创作,本质上没有真正的原创艺术,只能说是仿作,即使是组合式的仿作,其中起到创新作用的也还是人。

而且从实现原理上来说也不存在所谓创作的成份——AIGC的实现原理基本上是基于GAN:

一个生成器用于生成内容,一个基于神经网络等AI技术实现的分类器,用户输入的prompts本质上是分类器的输出结果。分类器对生成的内容进行分类,然后将分类结果与用户输入的prompts进行比较,再反馈给生成器修改生成内容,如此反复最终实现生成符合prompts的内容。

归根到底还是大力出奇迹。

用一个更合适的比喻来说:先用莎士比亚的作品训练了一个筛子,然后让一群猴子在打字机上乱打,再把这些打出来的内容用这个筛子去筛一下,可以出来一本仿莎翁的新作。但你不能说这群猴子里诞生了一个莎翁。

同样的,这样的AIGC再强大,也离人的艺术创作很远。

立场问题

再次讨论这个话题是因为马逆的《睡前消息574期》谈到了chatGPT,他认为目前的AI只一个是超强做题家,只能取代人类的助理性质的工作,并不具有真正的创造力。

令狐对此表示赞同,他认为现在的AI技术虽然比之前强了很多,但仍然没有脱离统计学的本质,只是换了个统计方法并用了更大数据规模的统计模型。而且对于AI模型中的参数意义目前仍然不具有可解释的意义,只是纯粹通过统计获得的某种数据,这意味着这种AI技术不具有通用性——只针对用于训练的数据有用,没有逻辑推理能力。

这种看法很普遍,我在毛象上也看到过这样的说法:大语言模型(例如 GPT4)并没有智能,它只是统计最可能的言辞搭配来形成看似有内容的语句。

当然AI巨佬杨立昆也认为OpenAI这种大力出奇迹的做法是误入歧途。

不过我的想法有点不同。

虽然目前的AI技术仍然还是大力出奇迹的阶段,但是当数据规模大到了一定的程度,是不是有可能进入到一种量变走向质变的过渡阶段。未来继续发展下去,也许就突破了。

在讨论之后,我得到一个想法:这事可能是立场决定看法——站在保守主义的立场会觉得AI还差得远,但站在激进主义的立场会觉得AI很快就要超越人类。

人脑智能

其实人脑智能也可以用统计学去理解:

大量神经元对刺激的反馈形成的统计学表现就是人类的智能……并没有科学能证明这其中有任何灵魂之类的东西存在。

模拟一下使用人类的智能是如何来看待这个问题:

逻辑推理——比如前面说的,因为现在这种基于数据统计的方法是基于训练数据来的,只能具有有限的智能,不具有通用性,更没有逻辑推理能力。(但我觉得这个统计出来的逻辑有个问题在于:这是基于规模还不够大的历史经验)

拍脑袋——我说不行就是不行,我说可以就是可以。

这两种其实在现有AI技术中,其实都有对应的算法在:

前者其实是基于历史经验的总结,本质上就是对历史数据的统计训练。因为历史经验告诉你,统计结果只对被统计的数据有效,并不具有扩展性,统计只能分析其内在的联系,并不能因此进行进一步推理……

后者则更简单,现有的AI技术中有一个很重要的环节叫做dropout——就是随机丢弃一部分中间结果,只要丢弃得足够多,结果就能显示出拍脑袋效果。

现在来说说我的逻辑推理,我的逻辑也是基于历史经验——

从ENIAC开始,人类的计算工具元件规模增长到了怎么样的程度,同时,数据处理能力也直线上升——从简单计算,到字符处理,再到声音图像视频的处理,再到3D建模渲染,不断发生质变。现在最大的质变就是AI从理论走向实用。这些都是随着计算规模的发展而来的,以此类推,规模大到一定程度,是会有一些质变发生。从AlphaGo到ChatGPT也是这样一步步变过来的,之后会如何变不好说。至于这个方向对不对,其实也不好说,当年也有很多人认为二进制不是计算的正道,十进制才是王道。

硅基智能发展推测

用更离谱一点的历史逻辑,我们可以来以碳基智能的发展史来推测硅基智能的发展……

碳基智能是基于神经元的突触连接实现的,从原始生命到人类,神经元从无到有,从少到多,智能从无到有,到越来越高。这里也有明显的规模效应。而智能的形成,也是基于外界刺激对神经网络的训练。所以克隆人最多也只是基因的复制,无法复制你的思想——

因为没有经过同样的训练,而且也不可能有同样的训练——比如同卵双胞胎也会有所不同,因为成长环境接受到的外部刺激不可能是完全一样的——再加上前面说的dropout环节,即使是完全同样的训练,也有一定会得到略有差异的结果,而不是完全一样的模型。

那么人类智能超过其它物种那么多有什么原因?语言应该是其中很重要的因素。通过语言,人类之间可以交流自己的神经网络训练结果,使得模型可以快速优化。什么时候AI之间诞生某种交流工具,使得各AI可以相互交流各自的模型,并重组自己的模型实现快速进化,那就真没人类什么事了……

一点补充

据说因为chatGPT之类的出来以后,Stackoverflow这种问答网站的流量暴跌,因为很多人直接问chatGPT就可以了。就我个人体验是,对于一些简单的问题确实可以,复杂的问题通过多次反复咨询,也经常可以得到解答。但是这类AI工具有一个致命的问题就是:

它其实不知道什么才是正确的答案,只是根据统计去生成文字,导致可能生成的结果只是一本正经的胡说八道。

对于你知道答案的问题,可能一眼就能看出它说的不对,但是对于你需要通过它去了解的问题,很可能并不知道它给的回答是否正确,只能照着去验证,出错之后再来问它。在部分情况下,这样还不如直接通过搜索引擎去找。

这点在马逆的视频里也有说到。我自己这两天也碰到了:想要配置一个fail2ban的jail,问了一下claude(因为根据我的测试,它的智能高于chatGPT3.5,但低于chatGPT4,只是我之前搞来的测试GPT4账号不能用了,只好用这个),结果告诉我一个配置用了两个filter,实际加载配置时失败了,去查了官方文档才知道jail配置里只能用一个filter。

除了这个还有一个问题就是:现在这些LLM都是基于现有的语料数据去训练的,但是当人们都去用这些AI工具以后,没有人再往互联网上提供新的内容,这些AI的智能也就止于此了,人类的发展进步是不是反而受到了限制?

推送到[go4pro.org]