听着尹芙·卡莉的表述,林灰没想到就先前的那篇论文内容上在他看来的一些已经相当常识内容的补充。
居然能被尹芙·卡莉赋予那么多的期许。
尹芙·卡莉一脸期待的小表情,不知为什么总让林灰想到在渴盼着肉吃的小狐狸。
不过,林灰这次恐怕是要让尹芙·卡莉失望了。
在论文补充的一些内容虽然是领先这个时空的。
但为了避免出现领先一步是先师领先两步仙逝的情况发生。
即便是进行搬运,林灰实际搬出来的东西也是很克制的。
就拿尹芙·卡莉给予高度评价的预训练机制吧。
虽然将预训练机制引入到自然语言处理的机器学习方面确实在这个时空具有相当意义的开创性。
但林灰心中是清楚的,他所搬运的预训练机制只能称作为萌新水平。
林灰搬运的“预训练”是基于普通的神经网络语言模型进行的预训练。
距离真正稳妥的基于Transformer的预训练模型在应用效率方面要差得多。
至于林灰为什么不直接搬运更成熟的基于Transformer的预训练机制呢?
原因很简单,毕竟眼下还没有Transformer,现在搞出来一个基于Transformer模型岂不是滑天下之大稽。
而至于说尹芙·卡莉同样抱有很大期待的“深度学习”。
虽然林灰确实是能鼓捣出真正意义的深度学习的。
但暂时似乎没啥必要,涉及到深度学习这个方面林灰并不打算将其放在自然语言处理这个方向推出。
至于林灰不打算将真正意义上的深度学习在自然语言处理这个方向推出,为什么在现在论文中还提到深度学习?
那是因为这个时空的几乎所有神经网络学习方面的科研人员几乎都迷之自信地将他们搞得神经网络学习冠以深度学习之名。
这样的话林灰搞得神经网络学习应用纵然实际上没那么深,不冠以深度学习之名岂不是显得低人一等?
至于说尹芙·卡莉所看中的迁移思想。
虽然长久时间线来看,迁移学习确实能做到尹芙·卡莉所期待的那样跳脱出自然语言处理的小圈子迁移到全部ML领域。
但短时间内实际上还是比较难的。
尽管有这样那样的困难,但林灰并没有打击尹芙·卡莉的积极性。
反而给尹芙·卡莉描绘出一副更加恢弘的场景。
这画饼的样子甚至让林灰想起了前世自己的领导。
不过林灰对此丝毫不愧疚,前世部门领导画的大饼只是虚无缥缈而已。
而林灰所勾勒的蓝图却一定会实现,毕竟这在前世已经验证过了。
路再长长不过脚,终有一天林灰会将其所描绘的统统实现。
而且林灰已经在朝着他所勾勒的蓝图迈进了。
林灰在此前论文中进行补充的内容虽然并没有尹芙·卡莉期许地那么强,但至少也在进步。
甚至有些进步相对于这个时空的科研现状来说很多是从0到1的。
至于尹芙·卡莉关于人工智能在社会层面的担忧。
这个林灰倒是略知一二,前世很多大牛确实都表示过这方面的忧虑。
前世斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是前世霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
至于今生这些人是否发表过同样的言论,林灰没具体关注过。
反正在林灰看来,这方面的担忧或许在理论上有片面的道理,但实际上深究起来其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能,不可能是弱人工智能。
只有具有自主意识、自主学习、自主决策的人工智能才可能真正意义上威胁人类。
而强人工智能就是拥有自我意识、自主学习、自主决策能力的人工智能。
正因为强人工智能如此强大,强人工智能也是人工智能发展的终极目标。
理想很远大,可是强人工智能哪有那么容易实现呢?
强人工智能想达到的技术原理倒是不复杂,相应的技术指标也容易说清。
无非就是自主意识、自主学习、自主决策。
或者更加通俗地说,就是要机器去学人。
学人认识世界的方式并再基础上尝试利用机器学习进行逻辑层面的彷生从而复现人们认识世界的方式。
道理谁都懂,可是具体实行的时候却有着各种各样的难度。
前世人工智能鼓吹的很牛逼。
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能。
话说回来既然强人工智能有风险且实现起来很困难。
为什么还要追求强人工智能呢?
首先是强人工智能相比于弱人工智能会大幅度减少训练成本。
前世人工智能方面的应用普遍都是依靠大数据进行训练的。
听起来带着“大数据”三个字很高大上的样子。
但实际上操作起来就很苦逼呵呵了,而且借助于大数据很多情况下实际是不得已为之。
都知道人工智能是追求机器能够像人那样去处理问题。
可是要知道人学东西可是是从小样本进行学习。
就拿图像分类这个小领域来说吧,人对图像进行分类,实际上根本不需要大数据。
只需要很少几个样本就可以做到准确分类。
两三岁小孩开始认识世界的时候。
父母为了让孩子认识动物也不是给孩子看成千上万的照片,而是只给孩子看些动物图集就可以了。
这些图集可能依旧十几页几十页这样,这个样本规模实际是很小的。
再具体一点,如果想让孩童知道什么样的动物是猫。
顶多再给他看几张猫的图片,并且告诉他猫有什么特征,和其他动物像狗或者猪有什么区别的话。
很快,小孩可以很快很准确的识别狗。
这些都是小样本的训练。
可是前世的人工智能想要实现同样的功能。
却需要相当大规模的数据去训练。
也就是通常意义所说的要靠大数据去喂。
同样拿刚才举得例子来说,同样是识别动物,要神经网络学习做到儿童识别动物的水平。
就不说现在这个时空十分拉跨的神经网络应用了。
就是依托于前世比较先进的深度残差神经网络。
想达到人类孩童对动物图像的区分的话。
也需要成千上万张图片才能进行比较充分的训练,才能再实际应用时得到比较准确的结果。
之所以神经网络学习“学得慢”“学得费劲”原因在于深度残差神经网络还没有逻辑思考、联想和推理的能力。
这不光是这一单一神经网络的局限性,事实上也正是弱人工神经网络的局限性之所在。
借助于强人工智能则完全没必要有这方面的担忧。
不光是传统的神经网络学习训练更加容易。
甚至于借助于强人工智能还可能助力于基础学科方面研究的突破。
这些都是人们追求强人工神经网络的原因。
除此之外科研人员追求强人工网络还有很多原因。
比较值得一提的是。
部分科研人员认为生物学上的人类是有劣根性。
人类渴求更加完美的自己。
很多时候对强人工智能甚至是超人工智能的渴求同样也是人类在追求更加完美的自身而已。
理想很丰满,现实很骨感。
前世人们都没搞出强人工智能,更不要说在神经网络学习方面各个方面都略有滞后的今生了。
现在的科研情况不要说是强人工智能的实现,事实是就连弱人工智能都玩明白。
时下科研人员鼓捣出的神经网络学习算法仍然缺乏人类这样的联想、记忆、学习、推理等高级功能。
想依靠这样的算法搞弱人工智能都费劲。
真不知道为什么这种情况下居然还有人操心什么人工智能伦理和机器伦理所带来的风险。
事实上就算林灰借助于现有的信息优势做文章也只能对弱人工智能做文章。
而对强人工智能同样手足无措。
这种情况下林灰倒是觉得时下的人们与其操心这些风险之类的不着边际的事情,还不如真正搞搞具体实在的研究。
退一步讲,纵然是有风险就望而却步吗?
世界上有什么事情是完全没风险的?
林灰倒是觉得,人工智能有适当的风险反而有助于人工智能正确的发展。
举这样一个例子,神庙逃亡游戏内容和大多数跑酷游戏都非常相似,越过重重障碍和陷阱,不断向前飞奔。
不过在神庙逃亡里玩家控制的是一个印第安纳琼斯似的人物,在热带雨林的某个古老神庙中逃出,被神庙中一群猴子模样的恶魔守卫追赶。
人物是自动不断向前飞奔的,而玩家则需要控制他避开逃亡路上遇到的各种危险。
一路上各种危险,反而让人更加专注于跑酷本身。
同样的道理,当某项技术有招致一定风险的可能的时候。
适当的已知风险反而可能有助于研究。
因为科研人员或许反而会自觉的远离相应的风险。
从而更加专注于算法逻辑和应用场景。
dd