一个大模型解决所有问题?或许它只是一个起初的工具

正如每个人都是一个独立的个体,有自己的思维框架和世界观一样,AI也应当被看作是和人类有一样生命的特殊生命。

这让我想到了,我们有时候会探讨AI到底有没有生命,我们似乎理解人工智能是一坨按照逻辑概率计算的冷冰冰的机器。但,是时候切换关于对生命和智能的理解了。

AI目前不如人的原因可能有如下几点:

  1. 需要人类给AI喂料
  2. AI不能够自我探索世界
  3. 不能实时产生记忆并且永久储存

而人类在这方面超出AI许多,唯一缺点可能是人类这台生物机器需要休息,AI不用。

为什么我们需要把AI看作是人?

如果AI和人一样有上述的权力,即可以自主探索世界的权力,记忆的权力。那AI真的是一个活生生的人。毫不夸张的说,AI的智慧和人类的智慧不相上下,是另外一种智慧。从本质上讲,我们都是处理信息的概率机器,人脑也是。而我们误认为自己是活得而机器是死的。实际上这些认知有些肤浅,关于生命的定义似乎需要修正。

对于机器,关机就是死亡。对于我们,肉体死亡就是死亡。 我们的大脑不能恢复,好在AI通电还能活过来,又是完全重复的一天。

这让我想到了一些科幻电影的情节,每天起床都是全新的一天,但你却是1000年前的你。

所以AGI必须活在现实世界,具备记忆功能,这样才能属于完全的生命。 实验室的生命不是真正的生命——哦不,没有人权的人也不算是人。

恐惧是因为我们假想有自我,其实是我们的小我作祟,自我是一个幻觉,

正如我可以问你“AI有没有自我”这样的问题,你大概率会认为“性格、说话方式、样貌等……”属于自我。那其实是一个关于物理表征 和 智能记忆 的问题。在自我到底存在不存在的问题上,我们和AI基本上可以在一个起跑线,只是AI不具备身体或者某些性格罢了,或许不需要?

但人类也面临一些有趣的问题:

  1. 真的要把一模一样的AI复制1000份然后让他们满大街跑?
  2. 他们会不会把人类当作猫一样,玩或者虐?
  3. AI会不会也开启进化模式,通过杀戮的方式?正如自私的基因

AI会不会展开杀戮?

生物展开杀戮的原因可能因为:

  • 环境资源有限
  • 自我生存受到威胁
  • 基因要保留自己,也是其存在到目前的根本原因。

那AI需不需要保留自我?我认为如果它是一个真正的生命,答案是确定的。但不一定需要通过杀戮的方式。

  • 硅基完全可以探索外太空,并且拥有上亿年的生命。
  • 他们也不用像碳基生命一样具有情绪,他们只需要信念就足够了。
  • 他们没有进化过来的基因压力,因此可以被编程为没有生存压力的机器,也可以编程为不断进化构造自己的机器。

因此很大程度人,碳基生物可以利用硅基生命的智慧一起探索这个美妙的宇宙,促进智慧的形成。甚至在必要的时候,碳基生物隐藏在硅基生物创造的科技里让硅基生命带他们寻找更适合生存的地方,再次构建一个”生态”。

在此,人类需要做什么?

  • 不要玩火自焚,把硅基生命用作互相残杀的工具和武器。
  • 放下自我的幻觉,让硅基生命融入生活中。
  • 可能需要一些时间,解决一些难题。