自2008的重来盛年_第17章 请叫我温博士 首页

字体:      护眼 关灯

上一页 目录 下一章

   第17章 请叫我温博士 (第2/2页)

个资料是你当年的学习资料嘛?

    温:不是,我当年学的比这个难。

    姑娘心一凉!

    葛:那完了呀,我连真题看着都费劲!

    温:所以你先要过这关,周日在qq上把这一周的问题告诉我,我给你解答。你应该也有一点真题,比照着看,真假你放心,不满意的话也可以随时退货。

    说实话是真是假她真的不清楚,

    可有一点是对的,买来不想要就退货,

    传说有电子产品爱好者,每个品牌的旗舰机他都买,拿到手拍个手机盒子发个朋友圈,然后再退回去。

    令人窒息的操作。

    葛:350有点贵啊……

    温:所有真题都是我手写的,这价钱还附带后面的答疑的。

    葛瑶儿也不是白痴,说是这么说,到时候你不回我qq,我有啥办法?还能真的顺着网线过去砍你嘛?

    但从图片看真假也还算靠谱,

    总之先买,不行就退。

    葛:行,那我下单了。

    温:谢谢。

    这花不了几分钟。

    温:下了单,你就可以问我问题了,今天就是周日。

    葛瑶儿眼睛一亮,哎?

    这倒是哦。

    这么一想,她来了心思,题目不会的话,立马就退款!

    然而没两把刷子,怎么敢这么说话。

    葛:好,那我怎样称呼你啊?

    温晓光一时想不到什么二次元网名,说真名又觉得不太合适,可要不说他这个脑子聪明呢,他很快想到了一个、

    在保护自己隐私的同时,透露一点真实,且还让对方更加相信自己的‘业务能力’的名字!

    温:嗯,你就叫我温博士吧。

    实验室里的葛瑶儿果然眼睛放光:嚯,还是博士啊!

    温:你把问题整理一下,1、2、3的条理清楚,我统一给你作答。现在我先给你去发货,你也能早点拿到。可以吗?

    葛瑶儿咬着嘴唇想了想,发什么货啊还没怎样就发货了,先测试你一下瞧瞧是真是假,

    葛:等下,我现在正在看,碰到一个问题。

    温晓光一看,回道:那你说吧。

    葛:就是最优化的部分,江理对数学部分作了一点要求,这和别的学校都不一样,其实我们本科的时候都没有开过这门课,所以看起来很费劲。

    温:嗯,不必害怕,有要求一是未来不论是机器学习,数据挖掘还是深度学习的神经网络,即使你运用一些简单模型,最优化的理论与算法都有比较广泛的应用,另外一个是出题的那个老师擅长数学也重视数学,所以才有这么个要求,不过它对这方面的要求也只限于了解,题目都很简单。

    葛瑶儿看这一段话人都犯傻,等会儿……

    神经网络?

    数据挖掘?

    请打中文,谢谢。

    葛:可是我连书都看不懂啊,我至今不知道最优化是什么。

    对于花钱的人,温晓光耐心足够:这么说吧。大学应该开设有数学模型这门课,模型就像人学习思考模式,在每次学习过程中,人知道自己怎么学,学哪里,学错了还可以调整,但模型和计算机没这么聪明,

    而最优化就是告诉模型应该学什么、怎么学的工具。在数学上,模型学习往往是一个映射函数,也就是模型中的参数,这个参数的好坏通过答案体现,如果不够好,最优化就可以帮助调整,

    这么说明白了吗?

    葛瑶儿勉勉强强能看懂一些,毕竟说的那么简单,再看不懂就是智障了。

    她又问:那有的地方提到的凸优化又是啥啊?

    温:凸优化是最优化的一个子领域,简单来说就是定义在凸集中的凸函数的最小化问题,凸优化的应用价值比较高,所以研究的很多。而凸问题的局部最优解就是全局最优解,再加上凸优化理论中的lagrange对偶,提供了凸优化算法最优性的保证。

    另外一些非凸问题通过一定手段可以等价化为凸问题或者用凸问题近似、逼近得到边界,比如深度学习,其中关键的backpropagation算法,本质就是凸优化算法中的梯度下降法,即使问题极度非凸,梯度下降还是有很好的表现。

    明白了吗?

    葛:凸━┳━━┳━凸,原来你真的是博士。

    温晓光:当然,你还怀疑这一点?

    脸不红心不跳。

    聊天到此结束,温晓光去打印,然后发货。

    葛瑶儿在晃动实验室邻座的林贝:“贝贝,太好了,我找一个特别牛逼的人!”

    林贝不明所以的瞎乐:“什么啊?什么牛逼的人?!”

    葛瑶儿也没说什么,就是拉她过来把电脑上的聊天记录拉出来,“你看。”

    林贝:“卧槽!”

加入书签 我的书架

上一页 目录 下一章