3)第136章 全國高考滿分狀元(6)_穿越黑龙江1940
字体:      护眼 关灯
上一章 目录 下一章
  我这个分数想去清北的话有点悬。

  估计只能去京大医学部。

  要是去京大医学部的话,估计铁定是做医生了。”

  林灰心道,这可不一定。

  学医的还真未必做医生,还有可能跑去卖医疗器械。

  极端点的情况甚至会出现一届学生中一半做医疗器械。

  一半同学推销另一半同学做的医疗器械

  医疗器械什么的以后有余力倒是可以搞一搞。

  不过这不是林灰暂时的打算。

  暂时林灰要做的只有两件事。

  一、通过各种手段赚取足够多的启动资金。

  二、获得一定的学术上的地位从而获取学术话语权。

  关于未来的规划。

  林灰其实已经在稳扎稳打地向前推进了。

  尽管现在步子还不是很大。

  但其实并不慢。

  林灰现在搞得那个生成式摘要算法已经有所成就。

  生成式摘要算法是林灰入局的敲门砖。

  /*对技术无感的括号内容可以直接跳过去

  (之所以以此入局,是因为自然语言处理这东西之于神经网络学习

  很像是数论之于数学。

  数学里的数论你不能说它不重要。

  但是门槛是真的低。

  当然数论门槛虽低,但上限却很高。

  而自然语言处理的门槛也很低。

  毕竟涉及到语言这东西,谁都会语言。

  因此自然语言处理门槛也很低。

  门槛低代表着即便林灰入局也不会被太在意。

  而NLP神经网络虽然门槛低。

  但和数论一样,上限很高。

  上限很高意味着什么呢?

  意味着将来可以轻松破局!)

  而林灰打算怎样破局呢?

  生成式摘要算法本质上是深度学习发展的产物。

  而现在这个时间节点。

  却只有神经网路识别。

  没有真正意义上的深度学习。

  林灰很清楚打开真正的深度学习的钥匙是什么?

  ——残差神经网路。

  (这个概念是前世在2015年由Microsoft某研发团队提出的。

  残差神经网络是一种残差学习框架来减轻网络训练。

  和以往的神经网络架构不同。

  残差神经网路的架构将层变为学习关于层输入的残差函数,而不是学习未参考的函数。

  经验证据证明这些残差网络很容易优化,并可以显著增加深度来提高准确性。

  林灰记得,前世的研究小组在ImageNet数据集上评估了深度高达152层的残差网络。

  这个152层的深度要比现在这个时空主流的深8倍。

  但是就复杂度而言,残差网络却具有较低的复杂度。

  深度网络自然地将低/中/高级特征和分类器以端到端多层方式进行集成。

  特征的“级别”可以通过堆叠层的数量来丰富。

  可以说残差神经网路具有碾压般的优势)

  残差神经网路这个东西在外人眼中可能是晦涩的术语。

  但其实这是开启未来的钥匙。

  而其就掌握在

  请收藏:https://m.fk77.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章