伊芙·卡莉知道林灰在每次交流的时候通常扮演的角色都是倾听者。
因此这次学术上进行交流的时候伊芙·卡莉也是按照着以往的惯例。
伊芙·卡莉没等着林灰先去陈述。
而是率先表述了她就林灰对论文中补充内容的一些看法以及她所疑惑的一些地方。
伊芙·卡莉几乎是将之前她的一些思考统统将给了林灰。
包括但不限于对于林灰论文补充内容的浓厚兴趣以及对人工智能未来的期许会同社会层面引发争议的担忧。
甚至连同林灰对此前收购她的那项专利用途的一些猜测也一并说给了林灰。
不知道为什么,自来到中國之后,伊芙·卡莉感觉相比于以往那种相当有主见的状态。
此时的她对待事情似乎有了一些变化,现在的她纵然心中有了一定的判断。
她也更希望能在林灰那再印证一下她此前的猜测。
听到伊芙·卡莉的表述,林灰还是稍稍意外的。
林灰没想到就先前的那篇论文内容上在他看来的一些已经相当常识内容的补充。
居然能被伊芙·卡莉赋予那么多的期许。
林灰恐怕是要让伊芙·卡莉失望了。
在论文补充的一些内容虽然是领先这个时空的。
但为了避免出现领先一步是先师领先两步仙逝的情况发生。
即便是进行搬运,林灰实际搬出来的东西也是很克制的。
就拿伊芙·卡莉给予高度评价的预训练机制吧。
虽然将预训练机制引入到自然语言处理的机器学习方面确实在这个时空具有相当意义的开创性。
但林灰心中是清楚的,他所搬运的预训练机制只能称作为萌新水平。
林灰搬运的“预训练”是基于普通的神经网络语言模型进行的预训练。
距离真正稳妥的基于transforr的预训练模型在应用效率方面要差得多。
至于林灰为什么不直接搬运更成熟的基于transforr的预训练机制呢?
原因很简单,毕竟眼下还没有transforr,现在搞出来一個基于transforr模型岂不是滑天下之大稽。
而至于说伊芙·卡莉同样抱有很大期待的“深度学习”。
虽然林灰确实是能鼓捣出真正意义的深度学习的。
但暂时似乎没啥必要,涉及到深度学习这个方面林灰并不打算将其放在自然语言处理这个方向推出。
至于林灰不打算将真正意义上的深度学习在自然语言处理这个方向推出,为什么在现在论文中还提到深度学习?
那是因为这个时空的几乎所有神经网络学习方面的科研人员几乎都迷之自信地将他们搞得神经网络学习冠以深度学习之名。
这样的话林灰搞得神经网络学习应用纵然实际上没那么深,不冠以深度学习之名岂不是显得低人一等?
至于说伊芙·卡莉所看中的迁移思想。
虽然长久时间线来看,迁移学习确实能做到伊芙·卡莉所期待的那样跳脱出自然语言处理的小圈子迁移到全部领域。
但短时间内实际上还是比较难的。
尽管有这样那样的困难,但林灰并没有打击伊芙·卡莉的积极性。
反而给伊芙·卡莉描绘出一副更加恢弘的场景。
这画饼的样子甚至让林灰想起了前世自己的部门领导。
不过林灰对此丝毫不愧疚,前世部门领导画的大饼只是虚无缥缈而已。
而林灰所勾勒的蓝图却一定会实现,毕竟这在前世已经验证过了。
路在长长不过脚,终有一天林灰会将这些统统实现。
而且林灰已经在朝着他所勾勒的蓝图迈进了。
林灰在此前论文中进行补充的内容虽然并没有伊芙·卡莉期许地那么强,但至少也在进步。
甚至有些进步相对于这个时空的科研现状来说很多是从0到1的。
至于伊芙·卡莉关于人工智能在社会层面的担忧。
这个很多大牛确实都表示过这方面的忧虑。
斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
这种担忧理论上有道理,但实际上其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能。
强人工智能是指有自我意识、自主学习、自主决策能力的人工智能,这是人工智能发展的终极目标。
理想很远大,可是哪有那么容易实现呢?
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能,更不要说今生了。
今生不要说神经网络学习算法仍然缺乏人类这样的联想、记忆、学习、推理等高级智能。
但一定程度上,它有些接近机器学习专家佩德罗·多明戈斯所提出的“终极算法”,意思是说通过数据学得包括过去、现在以及未来的所有知识的算法,创造该算法将是科学历史上最大的进步之一。
迄今为止,这样的算法并没有被创造出来。深度学习只是一定程度上接近终极算法的理想,但很多表现已经让人类不可理解。
虽然深度学习很受欢迎,但是说到底深度学习主要是从大数据进行学习,就是通过很多标注的数据,使用深度学习算法学习得到一些模型。
虽然叫着人工智能的名字。
但是这种学习方式和人的智能是非常不一样的。
人是从小样本进行学习。
人对图像进行分类,只需要很少几个样本就可以做到准确分类。
两三岁小孩,开始认识世界的时候,他如果想知道什么样的动物是狗,我们给他看几张狗的图片,并且告诉他狗有什么特征,和其他动物像猫或者羊有什么区别的话,小孩可以很快很准确的识别狗。
但是像深度残差神经网络,一般来说一个类别大概需要上千张图片才能进行比较充分的训练,得到比较准确的结果。
再比如汽车驾驶,一般来说,通过在驾校的培训,也就是几十个小时的学习,几百公里的练习,大多数人就可以开车上路了。
但是像现在的无人车可能已经行驶了上百万公里,还是达不到人的全自动驾驶的水平。
原因在于,人经过有限的训练,结合规则和知识能够应付各种复杂的路况,但是当前的ai还没有逻辑思考、联想和推理的能力,必须靠大数据来覆盖各种可能的路况,但是各种可能的路况几乎是无穷的。
总之涉及到人工智能实际上是要有很长的路走的。
其实人工智能有适当的风险反而有助于人工智能正确的发展。
这么说可能不被理解。
但如果举这样一个例子。
比较风靡的《神庙逃亡2》这款游戏。
神庙逃亡游戏内容和大多数跑酷游戏都非常相似,越过重重障碍和陷阱,不断向前飞奔。
不过在神庙逃亡里玩家控制的是一个印第安纳琼斯似的人物,在热带雨林的某个古老神庙中逃出,被神庙中一群猴子模样的恶魔守卫追赶。人物是自动不断向前飞奔的,而玩家则需要控制他避开逃亡路上遇到的各种危险。
一路上各种危险,但反而让人更加专注于跑酷本身。
同样的道理当人工智能有适当风险的时候,人们也会更加专注于算法逻辑和应用场景。
而不是总会搞一些花里胡哨的东西。
因此这次学术上进行交流的时候伊芙·卡莉也是按照着以往的惯例。
伊芙·卡莉没等着林灰先去陈述。
而是率先表述了她就林灰对论文中补充内容的一些看法以及她所疑惑的一些地方。
伊芙·卡莉几乎是将之前她的一些思考统统将给了林灰。
包括但不限于对于林灰论文补充内容的浓厚兴趣以及对人工智能未来的期许会同社会层面引发争议的担忧。
甚至连同林灰对此前收购她的那项专利用途的一些猜测也一并说给了林灰。
不知道为什么,自来到中國之后,伊芙·卡莉感觉相比于以往那种相当有主见的状态。
此时的她对待事情似乎有了一些变化,现在的她纵然心中有了一定的判断。
她也更希望能在林灰那再印证一下她此前的猜测。
听到伊芙·卡莉的表述,林灰还是稍稍意外的。
林灰没想到就先前的那篇论文内容上在他看来的一些已经相当常识内容的补充。
居然能被伊芙·卡莉赋予那么多的期许。
林灰恐怕是要让伊芙·卡莉失望了。
在论文补充的一些内容虽然是领先这个时空的。
但为了避免出现领先一步是先师领先两步仙逝的情况发生。
即便是进行搬运,林灰实际搬出来的东西也是很克制的。
就拿伊芙·卡莉给予高度评价的预训练机制吧。
虽然将预训练机制引入到自然语言处理的机器学习方面确实在这个时空具有相当意义的开创性。
但林灰心中是清楚的,他所搬运的预训练机制只能称作为萌新水平。
林灰搬运的“预训练”是基于普通的神经网络语言模型进行的预训练。
距离真正稳妥的基于transforr的预训练模型在应用效率方面要差得多。
至于林灰为什么不直接搬运更成熟的基于transforr的预训练机制呢?
原因很简单,毕竟眼下还没有transforr,现在搞出来一個基于transforr模型岂不是滑天下之大稽。
而至于说伊芙·卡莉同样抱有很大期待的“深度学习”。
虽然林灰确实是能鼓捣出真正意义的深度学习的。
但暂时似乎没啥必要,涉及到深度学习这个方面林灰并不打算将其放在自然语言处理这个方向推出。
至于林灰不打算将真正意义上的深度学习在自然语言处理这个方向推出,为什么在现在论文中还提到深度学习?
那是因为这个时空的几乎所有神经网络学习方面的科研人员几乎都迷之自信地将他们搞得神经网络学习冠以深度学习之名。
这样的话林灰搞得神经网络学习应用纵然实际上没那么深,不冠以深度学习之名岂不是显得低人一等?
至于说伊芙·卡莉所看中的迁移思想。
虽然长久时间线来看,迁移学习确实能做到伊芙·卡莉所期待的那样跳脱出自然语言处理的小圈子迁移到全部领域。
但短时间内实际上还是比较难的。
尽管有这样那样的困难,但林灰并没有打击伊芙·卡莉的积极性。
反而给伊芙·卡莉描绘出一副更加恢弘的场景。
这画饼的样子甚至让林灰想起了前世自己的部门领导。
不过林灰对此丝毫不愧疚,前世部门领导画的大饼只是虚无缥缈而已。
而林灰所勾勒的蓝图却一定会实现,毕竟这在前世已经验证过了。
路在长长不过脚,终有一天林灰会将这些统统实现。
而且林灰已经在朝着他所勾勒的蓝图迈进了。
林灰在此前论文中进行补充的内容虽然并没有伊芙·卡莉期许地那么强,但至少也在进步。
甚至有些进步相对于这个时空的科研现状来说很多是从0到1的。
至于伊芙·卡莉关于人工智能在社会层面的担忧。
这个很多大牛确实都表示过这方面的忧虑。
斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
这种担忧理论上有道理,但实际上其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能。
强人工智能是指有自我意识、自主学习、自主决策能力的人工智能,这是人工智能发展的终极目标。
理想很远大,可是哪有那么容易实现呢?
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能,更不要说今生了。
今生不要说神经网络学习算法仍然缺乏人类这样的联想、记忆、学习、推理等高级智能。
但一定程度上,它有些接近机器学习专家佩德罗·多明戈斯所提出的“终极算法”,意思是说通过数据学得包括过去、现在以及未来的所有知识的算法,创造该算法将是科学历史上最大的进步之一。
迄今为止,这样的算法并没有被创造出来。深度学习只是一定程度上接近终极算法的理想,但很多表现已经让人类不可理解。
虽然深度学习很受欢迎,但是说到底深度学习主要是从大数据进行学习,就是通过很多标注的数据,使用深度学习算法学习得到一些模型。
虽然叫着人工智能的名字。
但是这种学习方式和人的智能是非常不一样的。
人是从小样本进行学习。
人对图像进行分类,只需要很少几个样本就可以做到准确分类。
两三岁小孩,开始认识世界的时候,他如果想知道什么样的动物是狗,我们给他看几张狗的图片,并且告诉他狗有什么特征,和其他动物像猫或者羊有什么区别的话,小孩可以很快很准确的识别狗。
但是像深度残差神经网络,一般来说一个类别大概需要上千张图片才能进行比较充分的训练,得到比较准确的结果。
再比如汽车驾驶,一般来说,通过在驾校的培训,也就是几十个小时的学习,几百公里的练习,大多数人就可以开车上路了。
但是像现在的无人车可能已经行驶了上百万公里,还是达不到人的全自动驾驶的水平。
原因在于,人经过有限的训练,结合规则和知识能够应付各种复杂的路况,但是当前的ai还没有逻辑思考、联想和推理的能力,必须靠大数据来覆盖各种可能的路况,但是各种可能的路况几乎是无穷的。
总之涉及到人工智能实际上是要有很长的路走的。
其实人工智能有适当的风险反而有助于人工智能正确的发展。
这么说可能不被理解。
但如果举这样一个例子。
比较风靡的《神庙逃亡2》这款游戏。
神庙逃亡游戏内容和大多数跑酷游戏都非常相似,越过重重障碍和陷阱,不断向前飞奔。
不过在神庙逃亡里玩家控制的是一个印第安纳琼斯似的人物,在热带雨林的某个古老神庙中逃出,被神庙中一群猴子模样的恶魔守卫追赶。人物是自动不断向前飞奔的,而玩家则需要控制他避开逃亡路上遇到的各种危险。
一路上各种危险,但反而让人更加专注于跑酷本身。
同样的道理当人工智能有适当风险的时候,人们也会更加专注于算法逻辑和应用场景。
而不是总会搞一些花里胡哨的东西。