“类思考模型,这算是根。”趁着程荟在厨房忙活的功夫,纪弘坐在沙发上整理了一下思路,发现了问题的根本所在:
“其实如果我这几天的思路多往这上边靠靠,甚至都不用这个能力+0.1,我也能想出同样的方案!”纪弘愤愤想道,他本来就是有实力的。
……
“老婆,你知道什么叫类思考模型吗?”饭桌上,纪弘准备给程荟说一说类思考模型的事儿:“上一次跟你说AI训练强化学习的相关东西你还记得吧?”
“当然记得。”如果说技术,程荟可能还真记不住,但当时纪弘说了打小孩儿,她就记住了一部分:
“就像教小孩儿一样,可以设定一个奖赏规则,做的好了给个奖励,做不好就给一巴掌。模型的话,就是在这种不断地反馈与调节中去寻找能获得最大奖赏的最佳选择。大约是这样吧?”
纪弘点了点头,程荟虽然不是相关专业的,但是对理念的理解还是非常到位的,所谓奖赏规则,在强化学习中就是一个预先设定的奖赏函数。
“这种说的就是现在的普通强化学习,它的学习能力很差,就像学校里的差等生,不开窍,不管你怎么教,他就是学不会。
“于是就需要一遍一遍又一遍的利用大量的数据去不停的循环往复的去训练,才能达到预期效果。所以训练很慢、很耗时间、成本也巨大。”
纪弘脑筋不算的思索着,尽量使用通俗易懂的语言:“现在,我们这儿有一种新的模型。它与传统模型不太一样,哪儿不一样呢?
“传统模型的神经网络节点是单纯的节点,就像人,他脑袋一根筋,不会转弯的那种,就傻子。
“而我们呢,把这个节点换成了簇,这个簇就是人工智能小微模型,我们用小微模型来代替原本的神经网络节点,这么说你听得明白吗?”
程荟正瞪着俩大眼睛认真听着呢,见纪弘问,她也是发表了自己的看法:“人工智能是有一定智慧能力的,这小微模型肯定也有,对吧?”
“对,如果说传统人工智能神经网络的节点是个一根筋的傻子,我们现在的模型,单单就一个神经网络节点而言,就已经有了一定的决策和判断能力。就是这种能力,我把它叫做类思考。
“基于此,它对事物的处理逻辑已经在事实上发生了根本的改变,原本是一遍又一遍不断尝试,通过统计分析对比得到最优路径,而现在不一样了,在尝试之前,节点本身就可以有一定的判断。
“这实际是一种前置的定性方法,类似于质性思考。这种能力和方法,用在人工智能的训练上,可以节省训练过程中至少99.99%的数据量。所以,我们的模型训练成本才极致低廉,而且效果还更好。
“当然,它与人的思考还是有巨大区别的,它的判断也是基于模型本身,而且现阶段的训练都是专有的,想要做成通用模型几乎不太可能,除非能设计一种新架构的硬件。