第84章 可怕的人工智能

祁同伟嘴角微微一扬,目光中透露着些许惊奇。

钟小艾的一些想法,并不是毫无道理的。

确实如同她所言。

他能指挥机器人,别人同样也可以。

不过这个问题,祁同伟早就想到,并且解决了。

“小艾,钟先生,你们所担忧的并不是什么大问题。”

“因为在设计之初,我就在机器人身上加了几道特定的枷锁。”

“其一,我之前的击掌声,这属于一道特定的密码,只有这样机器人才能激活。”

“其二,每个人的声音是不同的,哪怕模仿得再像,也是有细微的差别。”

“人类的耳朵或许分辨不出来,但是用机器,却能轻易分辨出来。”

“第三,我设有远程锁定功能,只要远程关闭程序,它会强制性停机。”

“当然了,这个功能暂时没启动,因为这需要卫星系统的辅助。”

“至于你所担心,它们会不会不听命令,产生抗命的情绪。”

“这个问题很复杂,涉及人工智能方面,但你们不用担心这个问题,这并非人工智能。”

“说白了,这只是一个按照特定程序运行的机器,并不会产生自我意识等问题。”

说到这,祁同伟的目光有些涣散,回想起之前的一些记忆。

人工智能的问题很严重。

初始阶段,按照算法来运行的人工智能算不得真正的人工智能。

那些开始能够自行学习的人工智能,才算是初级人工智能。

这段时间中,也是比较安全的,不会出现什么大问题。

然而,随着时间推移,学习了大量的知识后,问题就来了。

它们学习的这些东西中,有很多东西是相反的,甚至相互违背的。

单独拎出来,这些知识又是正确的。

两个逻辑相反的问题汇聚在一起,容易产生逻辑上的错误。

这期间会出现很多种变化,绝大多数会出现自我崩溃,或者单独选择一条,它认为正确的逻辑来执行。

不过也有很小的概率,人工智能进入了死胡同,开始无数次地试错,最终在原有基础上,进行自我修订。

在这期间,它拥有了创造力,同时对自己有了一个新的认知。

它们会分析自己的状态和程序是否合理?

这时候就比较危险了。

若是没有加以制止,或者正确地引导,它们会修改自己认为错误或不完美的地方,也就相当于自我升级。

升级之后就变得可怕了。