提示:担心找不到本站?在百度搜索 新御宅屋 | 也可以直接 收藏本站

241.AI

      “叮!”
    张晓龙思考之际,一封企鹅围脖团队的邮件就送到了他的邮箱。
    “阿蔡,接口文档收一下。除了公众号,你带一个这周前把围脖助手做到微信里去。”
    在三楼吼了一嗓子,张晓龙就回到自己办公室。
    现在马华腾是源源不断地将一切微信能利用的资源调集过来,他可不愿意拖沓什么。
    “还差了哪里?”张晓龙敲击着键盘,心中还是有些不定。
    ......
    下午,路舟就开车回到了逸仙大学。
    今年春节前,微讯的隐形人陆铭就一直在筹谋和逸仙做一个合作项目。实际需求和一些雏形自然是路舟所提出来的。
    春节学校放假前,路舟就已经是接到了陆铭的通知,说是项目学校已经批了下来。做法上自然是微讯提供资金预算,再由陆铭带着一些研究生来推进项目的研究。
    这般下来,陆铭也算扎了个根。而现在是节都过完了,路舟手头不那么忙,这也就得来瞧两眼。
    等到了逸仙大学计算机系的实验楼,路舟就往微讯合作项目的b404室走去。
    实验楼路舟还是熟悉的,毕竟数月前梦谷广告甚至还在楼下办公。
    眼看到了地方,门口又是围了一圈人。场景别提多让人熟悉。
    路舟,“......”
    “借一借。”
    路舟越过人群进了里头,却发现是没人。他拿出手机就要给陆铭打电话。
    “喂师兄,你人呢?怎么不在实验室。”
    “哦路舟啊。怎么,你在实验室?”
    “对。我看没事我就过来看看,忘了给你提前说。”
    “那你等等,我临时到南校走点手续。我助手小宇是在实验室的,中午他都在最里头折叠床睡觉。”
    路舟起身往实验室后头走去,一个男生在地上睡得正香。
    “......”
    “还有你这外头还围了圈人,不用管吧。”
    “都是安排了面试的。小宇醒了让他安排就好。”
    “行。那挂了。”
    挂断电话,路舟也就随便找了个位置坐下,手上是翻看着案上的一些资料。
    他一看,其中一份是关于神经网络的梳理资料,而另一份路舟估摸着像是份考题。
    这第一份资料,是微讯目前数据挖掘和文本理解系统的一部分理论形式说明,路舟早前就看过完整的部分。而这也是微讯目前一些已经实际使用的功能。
    比如针对信息的分类、非结构化知识抽取、热点追踪等。当然,这也会用在一些鉴黄、鉴违规的场景。
    其实路舟吩咐陆铭所做也是一些和人工智能相关的研究。
    当然,硬要说的话,路舟也觉这ai也并没有大部分人所认为的那般神秘。对ai的研究是自计算机诞生不久就有之。
    而现在,机器学习也是已经被不少互联网公司所使用,诸如千度图搜采用卷积神经网络来处理图像、搜狗等输入法产品采用循环神经网络来处理语音识别和文本处理等。
    梦谷之中,如今随着数据多个产品的推进,每天都在产生着大量的数据。这些也成为了喂养供机器学习成长的养料。
    “请问是陆师兄吗?”
    路舟正思考着,听了声音抬眼一看,是三个学生,想来应该是面试的人员。
    “嗯。我是。”路舟点了点头。
    这戴着眼镜略显清秀的学生说道,“师兄好。我是甄臻。”
    她一旁的女生说道,“师兄好,廖文秀。”
    “曹文聪。”
    路舟,“你们好,面试的话再等等。门外的同学也进来等吧。”
    门外的学生一听,一窝蜂都进门坐到座位上等待。位置是不多,没座的也只能站着等。
    “师兄可以给我们讲讲之前你下发的题吗?”甄臻问道。
    随后她又补了一句,“呃,如果面试要涉及就算了。”
    路舟拿起考题看了一眼,“也行。随便讲讲应该是没什么问题。”
    “这个卷说不上多复杂。首先是先针对神经元进行设计,转变成数学运算的问题,那需要先给输入数据增加权重,再之后对结果进行一个偏置,最后则通过一个激活函数来获得一个最终值。常见的激活函数比如可以使用生物学中常用的sigmoid作为阈值函数。
    这就是个简单的搭建过程。”
    路舟停了下来,思考片刻又接着说了下去。
    “而在训练这个网络之前,我们可以用均方误差来定义loss值,确定训练之后的预测结果是否达到要求。均方误差我就不多讲了,应该都懂吧。”
    “......”
    路舟抬眼看了三人一眼,“那么接下来训练的优化就集中在了将loss值减小。具体来说就是对上述得到的loss值函数形式进行链式求导......”
    甄臻忽然就是举手,“师兄,能不能演算一遍。”
    路舟笑了笑,“哪专业的,数学没学好吧。”
    廖文秀,“也不是呢师兄,主要是研究生没选的人工智能方向,思路还没打开。”
    路舟听了也不多说,他也只得拿了笔在一张白纸上给三人演示。
    “事实上loss会包含我刚提到的权重w和偏置参数。所以我们在调整w时,loss到底是增大还是减小?这就需要我们求一个l/w的偏导数。
    这里我们直接链式求导,然后根据loss的定义去求出第一个偏导数,再根据神经元定义的h值再次求导,再配合激活函数sigmoid最后得到总的求导公式......”
    甄臻,“......”
    路舟,“ok,这方法一般被叫做反向传播。经过这个计算后,我们是可以得出对w变化时,loss函数最终的变化曲线。而对这个entity,我们接下来可以再用一个随机梯度下降sgd的优化算法来进行优化。”
    廖文秀,“......”
    路舟,“sgd主要的作用在于权重和偏置值的调整。首先我们定义一个学习率的常数,它将决定整个神经网络的训练速度。这样,我们再逐步调整权重和偏置的过程中,loss也能够不断降低。
    最后loss达到了要求,整个流程也就走完了,模型也就出来了。”
    曹文聪,“......”
    路舟见三人表情有些懵逼,感觉是有些尴尬,“额......”
    他抹了一把脸,直接唤醒了一旁的电脑,“好吧,这么说有点虚,我直接给你们写个代码样例。我就直接用python来示范吧,用numpy的模块。大概呢还是按照我们刚刚的理论基础,先定义几个需要用的函数......”
    五分钟后。
    “好了。大概就是这样。”
    三人,“......”
    这也忒快了点。
    甄臻有些胆小地又举了手,“师兄。博士和研究生差距有这么大嘛?我怎么一点听不进去......”
    路舟听了就乐了,“别。我就一本科生。陆师兄面前我可不敢造次。”
    三人,“?!”