00:08
哦,那我们。呃,现在会议正式开始了,我先自我介绍一下啊,我是呃,CR客团队的队长,我叫李,哦,现在下面由我来向大家介绍一下啊,卷积网络讲完之后,你自己内心就可以后有一个大致的一个预期,你看我看一下。呃卷析经网络呢,就是呃像在大家呃日常生活中,我们的人脸识别,以及其他的像那个呃检测的一些任务啊,都是用神经网络,它的范围在呃谁都学习。记忆视就整个C学都是有非常重要的地位,比如说目标测可以,比如说人狗车啥的都给它识别出来,然后这边是做的目标分割,呃分割的话就是你像就把呃它识别出来的东西都给它涂上不同的颜色,比如说人都涂成了红色,然后树木都成了涂上绿色,天空都成蓝色。
01:16
这是目标飞哥,然后下边还有一些,这个是你们这个会议主持的,有问题哈,这个谁是主持人呀,怎么里边这么主持人。就连静音都不会吗?谁是主持人呀?啊。看一下。随时主持人可以全体静音哈,那个啊,以后这个连主持人郑子涵你们怎么回事啊,那连静音全体静音让他们不能再开不就行了吗?这点工作都做不好吗?
02:01
我们继续,然后呃还有一个就是呃,比如说就是这个阅历的重构,呃像就本来输入的是一张比较模糊图片,然后经过剪辑操作之后,它可以变出一个高清的这种像目前的还有什么呃马去马赛克了也是都可以的,然后还像其他方面的,比如说呃在这是这是一个一张医学图像,然后它上边呃识别了,应该我也不知道是什么,就是一些呃医学上的一些疾病。然后就可以将它给检测出来,然后这边是文字识别。你就可以呃将文字给它清晰的定位出来,并且识别出来它是什么字。这边就是一些交通呃路标的一些呃识别呃就是有助于我们日后的那个呃自动驾驶,当然不仅仅是在呃图像领域,然后在呃像语音识别,然后处理呃或是其他的像那个呃。就说识别,视频识别等等都是用网络。
03:06
啊,下面我们来看一下解决网络由来。呃,一操作是整个机视觉的整个,呃C路学习的一个核心,首先我们看它为什么这么厉害,呃,看他首先我们来看一下它,呃,传统的经网络为什么不如经网络好。啊,比如说这张图片,它是一个28乘28的。就是啊。有,它横着是28个像素,竖是28个像素,它每个像素都是由不同的灰度值来构成。像呃,这边采色图片也是一样,它是由三层CB3个通道组成的一个图像,呃,每个通道它也都是有不同的数字组成的。我们如果要识别这个数字。呃,比如我们用之前的那个神经网络。首先我十像。
04:03
比如说。啊,它是一个,刚才不是说是一个矩阵嘛,然后就组每一层每一层这样给它铺开,铺成一个一个一个一个的数。然后这样的话。它就成了784个数,这个就是input,就我们的输入值,然后这比如说这个网络啊,这是一个比较小的网络,它是有呃四层隐藏层,隐藏层,然后它先说一下它这种行网络它怎么工作的,就是像这边输入每个像素值都是一个输入点,然后这边隐藏层也是一个点,中间是有个全值的。这边是有个全值的啊,比如说呃,初始化全值都是一或者是零,然后就通过这个向前,它与这点这边的每一个连接,就这个点与后边这些点都有一个连接,然后这个点与后边这些点都有一个连,然后呃这样一次一次的迭代更新啊,然后这边的一个全值也会进行更新,最终达到呃一个某一个指标之后,它就停止更新。
05:16
然后。啊,这这这些点都是有一些全值的,然后到最后它是有个输出值啊输出值比如说我们是输呃那个十个数字的识别,然后它输出呃一些那个。比如说是呃这1234,然后一它的呃进度这个数字是一的进度,它会输出一个值是,比如说0.01是二的话,就零点啊0.2,然后是三话,如果是就是是0.96吧啊,我们就可以判断啊,其他数都没有,这个是三的,这个知行度大,所以我们可以认为这个数字是就是三。然后。
06:01
啊,为什么?其实呃这网络完全也可以工作,但是为什么我们不用这种,就是因为太大,比如说这个它展开是287的,然后它它全值,刚才我们说就是每一层都有连接,像第一层它是有250,这一层它有256个一层的,然后这784和二这256每一个都有一个全值,然后它乘起来,然后加上它256和256之间又有一个圈值再加起来。然后这是有三个层都加起来再乘以三,然后这边最后一个输出也是256个十,然后。大约是390。然后我们一般是一个数是用呃四个点数来表示这参数,所以我们内存是呃1.56种。你像这仅仅是一个28乘28,我们现在的呃,手机像都可以上,然后一般我们的输入值都是510。
07:03
啊,就就按512来算它,呃,把这28改成512,然后这个参数它肯定是这几层网络肯定是不够的,而且深度也不够,你像这256,你至少得上千。然后这还得这才四层,然后再加上十几层,他才可能会表现的比较好。而且就当时刚提出来是时机。啊的内存啥的都比较小,所以对于这些肯定是不够的。然后是。呃,当时一些科学家就根据人的注意力机制,比如说这个,呃,首先是看到了对这些风景,他首先看到是这边的蛋糕,然后他还再去关注其他的,比如说这边什么草丛,这边什么椅子啥的。就是其实我们人就是看图像的话,也是呃这样飞块来看的,就是只是我们呃,我们比如说看一个呃看珠穆朗玛峰,就我们其实也是呃一块一块的,但是我们的反应很快,就是看起来像是直接连接起来,但是实际上就呃让区一块一块的。
08:15
就借助这种机制产生神经网络啊,神经网络就是由呃这个人组成的构成的,呃那个首先提出来的。他提出一个五。这么一个细胞的结构。然后其实这个我就是在刚提出来并没有太大应用,因为当时的计算机水平就内存啥的也有限,然后。呃,直到这个ne我这个网络提出来之后,这个我才有才被重视起来。呃,这个是当时的,呃。2012年,呃呃,世界大赛的一个冠军。
09:02
呃,在后面我们会详细介绍这两种网络。然后看卷,我们先看一下卷积运算。呃卷积运算就是在呃方案分析中,它是通过两个函数来生成第三个函数的一种数学算式。然后就是卷,就是呃翻转平移,就通过翻转和平移将重叠的部分函数值呃接对从折叠做积分,卷积多领域是不同。他在呃那个啥信号处理中也是有很大应用的,这边我这篇文章写了比较清楚的一个呃数学解释。
10:05
呃,之后就大家可以看一下,我们现在是主要是说。我们我们现在主要是讲那个,呃,视觉领域的,视觉领域其实我们可以不用。也可以,呃,就直接来做一个乘法就行,相乘相加,对应位置相乘相加,相信大部分呃同学都已经学过代了,就是这图片就说呃,刚才我们也说了,就是由每一个像素组成。然后。像在决议中,我们输入参数。
11:02
呃,就第一个参数叫输入,是输入值,然后中间有一个呃,对它进行卷积的一个参数函数。一个解一,然后输缩,同样就称为这个特征映射。呃,也叫map。就是我们把一个二维图像作为输入,然后其中K就是那个函数。然后他也就是肯定也是一个二维的,就像我们现在这边说它这个是一维,你看它们这边函数值它加起来是相等的,这边它同样也是一样,就加起来是固定的。像连续我们同样的话,就是一个离散点啊,它是求和,这边是连续的函数的话就是积分。啊,这边也是一样,它加起来都是一些固定值啊,像对于这这一个我们取一个,呃,它取位置就是U和V。然后就可以呃,得到其他的。
12:03
嗯,比如说是个三乘三的一个区域的话,可以得到这个是,呃,V减一就减一,然后这边就是V加一加一。然后。在呃。在信号处理领域,就这这边是要翻转的,就是你像在零的话,这就负一这边一,然后我们要进啊进行翻转过来。但是就在我们这,呃,四角里面可以不用发展,这边具体我也不说了,就是说我们直接看一下什么是卷积吧。呃,像这个。比如说这边就是它的相似点。啊,然后它这个AA这个值,这是一个像素值,然后像素值乘以它的和函数,然后这边的项数值再乘以这边的和函数。
13:01
这边再乘以它的,这再乘以它的,这样相乘再相加,就得到了第一个数值。然后他在平移。它到它就移动到这里,然后再对这这个再向上相加,对这函数向上加,然后这个值或是在这边更容易看。啊,就比如说啊,他现在做的区域。呃,这个就相相加,呃,这边都是零,然后这个是一,这个是一,这些都是零,然后它俩加起来是二,所以这个值是二。在这个区域的话,一样,它会这边会算出一个值来和它相同对应相乘相加,这个卷积计算,呃它呃,工作原理特别简单。然后我们通过边缘检来入积边缘检测,就比如说这个图我们要出的就你看它有横着的,有竖着的,还有一些斜的,我们比如说想检测一个这边是检测竖着的。
14:05
比如说这个这边是要减发竖着的,我们就可以用一个和函数来。呃,来给它呃进行对应的相似相加,然后就得到这一个,然这边横着的就可以得到用另一和函数,这函数可以看下边这个。比如说这个。啊,比如说它的项目值这边都是十啊,这边都是零,它会呃,中间会有一个边缘啊,我们用这这种函数。然后进行相上加加啊,最后得到一个输出值。Map是一个是这个,然后我们就画出来这个边是这么一块,是只是。哦,对一个,呃,六乘六的,如果我们就是图片,就是比如说嗯,64乘64的话。也是会,呃,很很小的,其实是很小的一块,然后如果64这边都是,这边都是零,这边都是零,只有这两行啊是30。
15:05
啊,所以这边写的可能会比。刚才那个是对竖,如果我们要对横向也是。啊对,横向就是用这种函数。这和函数啊,如果我们。下边我们就想,就是如果对呃,既对横向又对竖向的,或者是对那种斜着的45度这种弯曲的呃进行测。啊,应该怎么办,然后我们就以这个为例,然后。嗯,就是比如说。呃,检测竖向的,我们就用这个函数对它做一,就可以把竖向的检测出来,然后检测横向的,用这个函数把横向的检测出来了,呃,检测一个斜了,我们再再定义函数啊,比如说啊,它是一,它是一,这零。啊。就这函数也不一定准,就是我随便写了一个就把斜恶解解释出来了。
16:03
当然,这个卷积是有好几次剪辑了。哦哦,对。被检验出来了,这个图像啊,这是横着一个map。这这边竖着,这边横着,然后这两个一合成,就既有横着的又有竖着。大家可以看一下这边是,呃,具体的那个。他这边为啥会减少。啊,这边看一下是它是一个六乘六的一个,然后这边它检验是三乘三的,这边它检验出来结果。啊,是四乘四的。然后。它它的预算就是这边的A减去这个F就做啊。就是那个函数,然后再加一,就得到了这一个。啊,可能刚才。
17:00
那那好,下面我们还有。就这吧。这是每次剪辑都有,都会有个填充。就这。就这三个一次,然后这边三个一次。哦,这边三个啊,这这样每次解析之后他肯定会啊。这个图肯定会缩小。呃,当然呃,刚才那种解肯定呃是呃不太合理的,因为比如说我们边缘有一个比较重要的信息。嗯,比如说。可以看一下,其实。啊说可以说公平了,因为你像在这个点。啊,嗯,这这个点有一个值啊。然后这个值它被检测。如果我们用三杠三号给他进行卷积。
18:03
会只会有这一种,然后第二种他只要上这来了,然后在下进了,他下一种会直接上这来了。所以只这点只用到了一次。如果我们要是用。啊,比如说用这个。就这华。这边一次啊。哦,两侧。单次,然后这边还有。六次七次。我知道知道我会检测。对,你像这边检查一次,这边检查九次,他肯定是不公平的啊,所以我们就。可以进行一个填充。呃,填充的话啊,比如说这呃这个你们可以是用全景的填充。这边填充的话。嗯,再对他。
19:03
这个要进行剪辑了是吧。他就忘了。啊。哦,三四。啊,这边它又有四个。它会它就会被用了四次,一般的话我们是呃填充两个。就是。这边还还会填充一个一层零,这边再填充零的话,就和下边是一样的了,它也会呃被呃用到九侧。哦,好看,我们再看一下呃,经过填充后的它的那个呃。解析之后的面有多大?啊,他原来是六乘六的。呃,然后添加一一层就一个就变成八乘八了,因为这是上下左右都要填充,然后这边是三三就是。可以算一下它是。
20:01
和六。六加二,然后减三,然后再加上一。加二。和之前比,加二就是这两层的PP是。按填充,如果加上两层的话,它是加22加四。呃,当然我们呃上上面只说只是说呃用一个一个的卷积,当然我们也可以用多个卷积,这个我们可以设一下卷积的长。啊,比如说。在这边。啊。我们对于,呃,这个就是。我们先对它进行剪辑,然后我们可以设置它不长为二,然后就是之前不长一次一的话,它是在这边。可能就是这样。啊,我们如果生成二的话。他就是这样。
21:01
哦。然后再下一个就是这样。啊,可能到最后啊,他有他只有一个,它不够了,我们一般的话就是可以把它死了,因为特殊图数比较大的。啊,就是如果512的话,它对边缘只有这一列信息,对我们影响不是很大。所以的话一般可以使,当然也可以进行填充,一般的话我们会让它设置成正。的啊,不会多不会少。这个都是我们可以自己手动调。就嗯,还有就是为什么要知到卷不长,就是说他你像这样卷积的话,你这样像上面这样一步一步的卷积,他可能就是有些信息啊,你你已经无无所谓了,就你你用一乘一的就。
22:00
这两两步一个,它完全可以检测出这边的信息来,嗯,然后你用一一步一个就写的多余了,然后会增加我们的预算量,所以就可以设一下这种啊,它的不长为二或说其他的。呃,下面来看一下磁,呃的话就是呃,像这个图。比如说这区。这区的话,它是二,这区域的它的最大值,比如说九,它会显示九,或者是还有一种就是用的那个。呃,平均值话就是把这些都加起来,然后弄个平均值,这边的话就是它平均值。啊,这边为什么是要用磁化呢,因为就是可能。因为整呃就是像图像的话啊,很多信息是对呃,整个图像是没有对我们识别到图像是没有太大作用的,所以我们可以用磁化层来减小这个模型大小。
23:06
啊,就比如比如我们用最大尺化就取取了这个这个特征。就比如说就是这个区域就提取出来它的一个最明显的一个特征。我我们只要检测出它最明显可能来用它就可以用它来识别了。啊,当然这个还可以增大我们的感受一。感受也是怎么回事啊,就是。呃,像这个图,它是一个三卷机。哦。就在这边。比如说这个吧,啊,这个它是只是进行了一步剪辑,一步剪辑这个感受,它感受也就是三乘三。然后呃,然后对于这个它是先对它进行了这个先进行了卷积,然后这个又进行了卷积,这样两次卷积后,它呃就扩大了它呃,比如说这个区域,这个解区域就我们可以用那公式算一下,它说呃可以呃解集和七乘七了,但是它。
24:12
就这这三个区域是可以检检测一个乘器的一个图像,然这一个区域又可检测出它的图像,所以他他的感受也就是乘。他感受也是33。啊,那么我们就会,呃,考虑到。如果。我们就是。单纯的用七的一个卷积盒,是不是效果也是一样的?好,下面我们就来算一下。然后假,假设我们。呃,假设我们数的大小就是呃。S乘W乘CSW就是那个它的宽,这图像宽和高C就是它同数。啊,必须都使用C个卷积核,就得到C特征图。
25:01
刚才我们说了,就是呃一个减一盒可以得到一个呃一种的特征,然后减一盒越多,你得到那个特征图就越多,我们现在计算一下它的参数。比如说。呃,首先我们算一下青春期了,青春期。就是需需要参数是。七就是它长度宽度,然后乘以它那个通道数,然后因为用用了C就再乘C。哦。就刚才说他一个七七十七的和三个三个三的是一样的。就是他感受也是一样的。但是我们如果用三和三可以计算一下。他用一个了,就和到七乘七的是一样,就把七改上三,然后再用三和函数再加个三,再计算是一,嗯,是计算出来是27废方,然后这边是四有废方。
26:00
就可以看到我们啊,用一个单用一个系乘七的和用三个三个三的,显然三三个三三的,它所需要的参数是比较少的。所以就我们训练了也比较快。然后我们再呃看一下,就是发我们只单数的那个呃,灰度图的一个卷积,然后我们看一下材料图的剪集。啊。剪辑是RB3分二解集和呃归数是一样的啊,就是它。这边是比如说它是六乘六乘三,就是2DB3,然后六乘六是长宽。然后这边有三个通道,你的卷积必须得有三个通道,然后就是它对应的,比如说二的和这个第一个通道相乘相加,然后得到。啊,得到第一个数,然后这G的再和它相这相相加,这边再和它相相加,然后这三个加完,最后再相加,就得到了,我们输出了非第一个数。
27:05
可能用这个标啊。武汉。啊,比如说呃。就就是这个值吗。呃,对他。呃,我们。可以先计算一下,呃,这个就这一行。这个是啊,三个通道,然后你看它卷三个通道,最后这个这是它一个偏子。就像W等于AX加B。这这就是说比找孩子。哦,计算一下,他就说这个都是零。我。就是说二。帮他。哦,他就是。
28:01
这就二。哎。这边都没有啊这个。都是一。然后再再算它。它的话就是第二个特征图啊。第二个维度的了吧,和它和决心和第二个维度相隔相加。得到。我这边。是负一。这个这个。我这边的话就是它第三个通道再相下加,我就不算了,它算出来是一个数,这三个数加起来,再加上这个偏置,这偏是。啊,这边是二零。啊,所以就可以就直接加个零,当然这些数最后都会更新的,因为就的话就是可能呃,设了一个值,或者随机设了一个值,然后在我们后边的那个训练过程中,他这参数在一个个,当然这个片子也会更随着更新。
29:11
这个三围等级,然后。呃,大部分大致了解了什么是卷积之后,我们看一下为什么卷积它参数会这么小。它最关键就是一个参数共享。呃,操作共享的话就是。呃,像这个。将上面这个卷积卷集。它卷它每个区域,它都是和这个对应相同相加的,它并没有改变,这个就不是。这个积数字多少是所有这些数来共同决定的,并不是每一个小区域来决定的。啊,比如说就我。所以就说你你像卷这边的话,卷和和这边这边这边都是一样的,然后如果我们用一个五百一十二五乘512乘三的像,然后用十个五乘五乘三的卷盒来进行卷操作。
30:13
所需要的权重参数。可以算一下,就是说五乘五乘三个呃卷它,所以所有可以更新的就是。呃,它的长宽是五乘五,然后它的C度是三。这个五乘五乘三七十五。然后它有十个卷烟盒,然后再乘个十,最后它还有个偏置。这个每个数之后。每个卷一盒之后,它都会有个片子。那B。哦,再再加起来。这个B就是700个数。如果我们不用盘的共享,就和刚才前面说的那个全链接。给连接起来就是。
31:00
啊。你这是512乘512个图像。呃,这个像素。然后他是。它它这边卷和也是五百一十二五乘512乘以三,它这样乘起来的话,就是这么写,刚才这只有100多。所以写了。呃,用这样的话。就是用那个参数共享它的那个权重,就是它需需要更新的参数会大幅度的减少。哦,下面我们来看一下,就整体的网络架构。嗯,比如说识别这个汽车,一般的话就是点击。啊,这边卷积激活啊,我说一下激活函数是个什么意思,就是比如说。嗯。比如说就是说我们得出来一个一些点,就是说这些点。
32:02
然后。我们对它进行分类。啊,就对他进行这样飞。我们如果就是说我们一开始得到的肯定都是一些线性的。线性的就X加B。我们是无法将它这样进行分开的。也不是说无法就是很难,就是比如说这样这样,然后这样再就很难,如果我们就加一个那个激活函数。就可以将它变成这样的。这样也。就直接就一下子把它分开了。呃就是呃先卷积这网络就呃卷积,然后呃那个什么用激活函数,然后再卷积再激活,呃再这个试用和化,一般的话我们是嗯其他其他一些网络都是先卷辑再实化再激活这种。其实这些都是根据经验来的,就主要还是看别人论文,然后我们再自己根据自己的模型来调节一下这些函数,那个网络架构。
33:08
啊,就是然我就再点击这样,我们可以看一下,就是一下多少个那个。多少层吧,就是你想想看它多少层,就是呃,看它有哪个层里有参数就可以,我们可以更新的。嗯,之前我们说就是这个一层,它是呃有那些数字组成,然后经过呃一次的迭代,它肯定会要进行更新的,然后这个函数。啊,就是取了一个值。比如说就个软弱。它就是一个这样的函数。呃,都是零,就是那个小于零,它都是零,然后大于零,它就是这样。哦。它这个函数它没必要进行更新,然后那个。磁化当然也没有别,就是要么就是P平均,要么就是取最大一,一般的话,像之前可能会P平均多,现在就呃,大部分都是取那个最大最大磁化。
34:10
这边加起来啊,一层两层三层四层五层六层,然最后第二个权力一层。啊,我们看一下为什么要用全连接层。呃,就是说你像我们前面输出的话。啊,就说比如说。再一个。啊,这要是说我们要是用。就是输出的话,肯定是不能输出一个图像的。对,就是那个。不能会不能直接输出的,他肯定是输出一些值。这个。又把那个。还有刚才我们说的就是这是零点几啊,0.10.2。是不是一个子?
35:00
啊,我们最终是根据这些值的度的大小来判定它是属于哪一类的。然后你就如果直接只是用卷积的话。你没办,你只是得到一个举证,你没办法来拿它的个。到底具体的是哪个自信度是比较大的。所以我们要可以将这个。给它展开就。将取值还是,呃,我们刚才说的就是28乘28加上一个七十八四这样一个一位的数。这个业务数。再加一个那个。全链接层。就是。那个群连接层和这个网络是一一样的,就是它可能就网络比较少两通过端层,呃,有的就像现在的一些大网络,它都都很衰,就那个全天系统也比较多。呃。就是这个这种网络就是连接从最后最后输出的话,呃,就是也通过全链接从之后。
36:15
然后我们看一下它每个特征图的变化,然后比如说这就是我们输呃输出的图像,输入的图像,然后经过一次卷积后啊,它卷积我们刚才也说了,就是可以通过控制不同的卷集,卷集核多少来控制这个图像啊,它的啊可以检测出它有多少个特征。啊,可以检测出它什么一些啊,不同的一些轮廓边缘,或者是其他的一些特征,然后。经过一次剪接,它的那个深度加深了,它的尺寸就肯定,如果要是用填充的话,它肯定是呃,可能会面或者略要减小,然再进行一次,它的深度又加了,然这边再化们刚才说了它啊磁化只是减,减少了它的那个。
37:01
退。啊,并没有缩小它那个深度。哦,磁化之后再对照磁化之后再进行卷积,可能就得到这个,然后。它的呃,深度就更加C了,然后再进行磁化,磁化之后啊,它的那个。就那个非map就更小了,然后再进行全全员转化,然后最后输出我们想要的结果。就可以从这种图可以见到,它随着我们深度不断加深,它是不断减少的。哦,那是不是就是说,呃。嗯。可以看到就是,呃,最开始提出来那个神经网络论文里那个。比如说输出。是32乘32的。然后我们这边是用了一个五乘五的。
38:02
啊,它的那个长设为一,然后我们是用了六个六个五乘五,它得到的是28乘28,就可以算一下这个啊32。啊,减五。点五加一。28乘28,因为用了六个,所以他说再乘个六,然后再进行一个average。一个就取了它平均。哦。因为这个它的那个大小和补偿都是二,一般话我们用尺的话。啊,都是用。那个。用用这种22。长也为二,就是你因为这样的话,就说你检测的话,可能就是比较。哦,那个。他。它内容比较少,然后你提取它能提取它的最大值的话,它提取进额也比较高。然后再用,呃,这边再用一个五乘五的一行。
39:03
要进,然后再用一个呃,P一个策划,然后再最后做全链接了。然后是128。就这边他是他其实是先要展开的。嗯,它的长宽是五乘五,然后它的深度多少,16就是五乘以五。啊,再乘个16。啊。得得到数,然后这个数再和它进行全链接。哦。然嗯,进入它阳系,然后正好再和它进行全面接弹系,最后得到一个输出。值就是100数。哦。下面看这个网络,它这个ma就是在啊。他。之前我们也说了,他那个是一开始提出来的时候,由于各种原因,嗯,就是当时的什么硬件啊,一些问题,他并没有得到很好的响应,就是在2012年这ne提出来之后。
40:10
啊,它那个雷正是被看中啊,其实就这个比那个雷耐啊,它的精度。速度可能没他快,但是精度肯定要比他高很多。因为啊就这个一看它就网络层数也呃要呃多很多,也不是多很多就要多,然后也比较麻烦。就一般的话就深度越深啊,它是越难训练的。我先看一下这个,就比如说这个输入。啊,27乘27 227乘227乘三的一二项啊,这用了啊11乘11的一个卷积和啊它不长,设置了四。然后这边得一个一个55乘55,可以算一下这个220。
41:03
啊。啊。11,再一个。啊,再除以个四,最后再加一。好在这。对它进行实化。这实话就。呃,再进一步减小。那他这边是用了一个三乘三的啊,它那个不长是二。一般那个都是比较小的。去范围。十二三,然后在这边再进行一个卷积。看这这是一个,就是话,就是再加了那个两个。就比如说在这边又填充了两个零,然后在这边又填两个零,最终它输出的是这是一样的卷积,但是它深度。高。
42:00
那这是96乘96的,这不是用了96个点和基,这边肯定是,就是用了256个点和卷基。它深度高了很多,然后再用了一个最大化。哦哦。策划的话它就会减少,然后就步骤就和刚才就一样,就点击策划。好,这边。它连接全连最后一个麦。的一个函数。加上输出。哦。最后这网络就是一个VV16。呃,这这个网络的话就是。啊,相比就说。嗯,那个。它的深度是更的,然后当然它也是更难训练的,一般的话我们就是。
43:01
我用了这个。啊,可以看到就是说那个。它卷一盒都是三和三的。之前上一个我们说他有用到11乘11的那个卷盒是比较大的是吧,嗯,就经过那专家们就是,呃。很多年就验证了啊,就发现这种比较小的卷盒,它的卷液效果是啊很好的,然后而且。那它的深深度也不是特别深,因为当然就它并不是就大家可能会想就深度学习嘛,他个C度可能会越越好啊,但其实并不是这样的。啊,因因为就到,呃,你像VC时,他只是训练16,还有一个,呃,当时比较厉害的就是那个和他同。啊,当时他那个没那比赛他得到第二那个是。
44:00
发明那个他是,那个是拿第一,他是,他也是排21层。啊,就说。啊,赵薇。呃。就是20层左右就是啊,像这就已经是那种这个网络一个极限啊。怎么说就是,所以我们要再找一个新的网络来克服这种。好看这个这个,呃,这个VC。网络就是高,它精度要高15%,然后它因为它深度深,所以难训练,它训练就是比如说。之前网络训练就训练六七个小时,七八个小时啊,绕飞就用。可能好几天,可能会两三天,或者是一个星期左右。我就围绕客服刚才说说那那个。啊,困难就是它随着网络幅度加深,它精确度是并不是越来越高的,你像这个。
45:06
啊,他。他56层的也比二十二十层的。也要高。但呃,然后就是由一个华为科学家,然后他提出来一个。有一个这结构。呃,他来克服这种困难。我看到这个就是因为他,呃。就那个经网络是一层一层的这样更新样输出。但是可能一。比如说在这边它有个梯度消失或梯度爆炸,对下边的影响会特别大。然后。梯报了还好说,就是梯度消失,梯度消失的话就呃,你说到这边他就相当于是已经没没有了啊,在这边的话,他就呃更难呃察觉到前面呃。那输入的特征了,所以我们可以用一种方式就是跳跃连接,就是比如说这边。
46:05
这的数是。可以将它。进行一个呃,跳跃就是。也并不是说没有,并没有忽略这层,而是因为这层它参数可能很小了,就很小了啊,梯度消失啊,我们就可以它。这样直接起来。这样的话啊,他最后最后他这个输出就是他这个输,他这个输出加上他这一个啊。就是他这一个,但然我们肯定是不能把他去了,如果就说啊把它去了,我我们就说之前说这个的话,他谁约谁给他也没没有没没什么用的。然后从我们用了这个。来之后这是用了34层,这个是用了18层的,它的那个呃率。都是有。它的error这边也是啊,对,Error错误。
47:05
你像这个错误是比这个高,深度更深的,是比二层的要高的,这个错误错率就急剧下降了。那这次34层,然后呃,像现在呃,100层的上层都有。哦,这个就是说我们我们现在最常用的一个网络结构,就是说。哦,这边就是一些理论部分,我们下边看可以看一下我们的一些代码文件。你写的好那个。呃,变成语言了,我是呃用到Python,然后呃,当然大家也可以用MATLAB啥的都可以进行编写。你们现在都用的PYPY套是吧,现在啊,对我的框架都是PY套。
48:06
现在都都都换到PY套上了,我看赵鹏也换了啊,对,我们是给赵鹏的建议啊,也是换了啊。他这个更方便更好用是吧,反正好像调起来更方便一些,过会你讲完的时候让那个主持人哈,一定要大家一定要问问题啊,没有问题那就提名,反正这个主持人把这个工作做好。啊,至少要回答两到333到五个问题啊是吧。然。这边就上次学长也讲了,就是一些基本。啊,这边就大铁过一遍,因为我们呃,可能是对于呃,我们的同学可能就没学,也从来没学过边长啊就可能比较陌生。就这边的话是创建一个网络结构,就是这个卷积,这边是创建一层那个卷积。
49:02
杨航啊。啊,输出。输是一一层的,就是它的。输入输入是输入一输的话十。度到16,然后那个就是那个。核的大小是五乘五的,然后它不长为一,这判定这个,那填充填充两个,然后它是结活函数,激活函数都是一,然后它的那个。磁化就是用了最大磁化这边这很简单,就是。这是第一个卷基,然后第二个卷就用这个,然后两次卷完了之后,直接就做了一个前列基层,但我们也可以用一些啊其他的。啊,就当然我们也可以加一些,就比如说啊,弄个弄个饭,就是这样就可以自己玩玩。
50:03
当然你要保证它上边的输入输出是你下的输入,说这个输出是32这个的输入。一定要32啊,这就可以让其他的,比如说就64%,其他你就可以不用变。就这样可以啊,可以试着跑一跑。看你的精度啊啥的是不是有变化,当然也就是这些参数都可以换的,最这个可以换成那个或者其他的那个激函数。麦克,它有什么区别?这边的话是下面做一个全链接下,我们定义好了这些函数之后就可以呃,做一个传播。嗯,就是先是卷积,就现在第一卷积,然后第二卷,刚才可能没有说就是。那这个。
51:00
呃,怎么才算一个解易行啊,就是说啊有。有那个什么。所以说有参数了,就算一个九级层。这个没查烟就是。其实呃,不同论文也不同,说法就是一般都是归前面的,先做个化,呃,加基函数它归前面的,然后这边它这样。这两个是一层,像这种这边有尺化啊呃,这三个是一层。当然这边啊,后边的话,权利就是一个就是。我这边是那个给他一下,呃,将它转成我们你需要输入的一个那个。在大小。啊,然后这就说计算它的一个呃,精确度啊。
52:00
这边就可开始训练了,然后定义了我们啊图像尺寸,然后类。还有我们呃,环周期这个这个可以都可以改的。这个就是让他训练几次。呃,可以,呃,比如说就可以多给,就是一般的话可以给给大一点。呃,当然就到最后可能就是也跑不动,他最高快极限也就是那些了,你再给大也没用了啊,这个就具体是多少,就全术经验了。就是这个。一次补助的图像。这个。一次我们对啊是对四个进行操作决操作,然后如果你的显存比较大的话,就可以用那个。一块大一点。比如说128。我这个训练集,我们定义那个数据,数据就在都在这里。测试。
53:01
我训练的话都会有训练级错的几个啊,就是通过测的级,我们训练节奏训练这些我们要参数的通过,然后通过测的级可以看出我们训练到的一些到底说好还是坏。这边数据。这个就是训练,训练一个测我一个数据啊,这这前面我们定义训练,然后这测试,然后这边是都我们那个我们。就我们前面那一个年题。哦,这是我们要写的函数。啊,函数它的功能呢,就是我们用那个。呃,比如说就那个下降啊,用来呃,就缩小我们的一个误差。是错误的。我在那个。
54:00
写过一篇薄写一篇,就说写气下降了。啊,就是可以通过那个加所用加水函数,当然其他很多函数,这样完全就可以推定义了。你好。通过函数,然后通过不断的优化器,不断的进行再进行训练,然后来。更新我们的那个决和那个参数。然做的是或者这就训练次数一次,然后上面我们设置是三嘛,然后这边就是这样一次三次训练,一次一次训练。那就训练,然后数值,然后这值子啥都是可以耐进更新的梯,然后。反向传播,刚才我们说就是。
55:11
大了参数大了觉数就。他说然后他要再进行调整,然后调整完了。就这样再进行调整,调整完了之后他再往前传播,就这样不断反复让样过来回这样走。那最终就调节成了我们想要的那个结果。我下面呢,就是一些啊。对,一些其他函数就是计算精确度啊。我们可以跑一下看啊。啊,这是对那个十个数字进行十,十个数字进行识别的。可以看到,你看他一开始他第一次他跑的是它准确率只有0.07,然后第二次接着就到0.7,然后这样就是逐次发生了。
56:05
这个函数这个是。这边做0.96已经算的比较好了啊。不然他还还会直接更新会到0299。啊,这边是对那个。啊,我们。自定义,自定义一个网络。就我们当然也可以,就是不用自己写他,嗯,官方就都给了我们使用网络这些架构啊,我们直接可以直接调动他们的架构。啊,这个。就是我们这些都是官方给的一些架构,你们用的话,它会直接自动下载这个模型。综合下来,我们预训练模型。就就如果是的话,它会就会进入这边的函数,当然这里边。需要是需要改函数的,比如说我们输入值肯定是要改。
57:03
哦。介是,呃,有不同的就是我们可以根据我们选择或者其他的。嗯,然后这边还有一些其他,就其他的一些实用网络架构,我们也有可能啊,刚才没有说。就所以这个用起来都很方便,很灵活的,可以自己。我这边的话就,呃,这个代码比较多,就带。大体大家过一下吧。然后。呃,这边就要开始训练,然后这边传参数,这边这个就上面我们定义这个函数,然后这传入NENE等于的话,它就会定这个。然后。这这边的话就是一些比较细节一些参数一些设置了。
58:02
呃,这么呃。我就先不说啊。然后。这都挺长的。可能在跑。看一下多少。你看现他现在到0.98了,当然他谁跑来跑去的话,肯定也不会无限制的增长,肯定不会到一的,他可能到0.99多,也不可能到一。呃。只要说页面太小,就可能是我现现在用的那个内存太多了啊,当然我们我们就用那个,呃,跑到新网络的话,一般都是用的那个服务器来跑的。我们可以用一下我之前训练好的一个。这还不行。嗯,其实我之前训练好了一个那个模型,然后可以直接进加载出它的模型来,然后直接测,但是现在我这个。
59:09
电脑内存有点不。啊,就实际上不太好。呃。这基本都是就是现在今天要讲的一些啊。嗯。大家有什么不懂的,现在可以提问啊。这个必须提问题哈。啊,这个。嗯,必须提问题,不提问题,主持人就是主持人的这个问题,主持人就是说谁是主持人,你们。以后一定要养成这个习惯,在所有的这个汇报,如果他们有两三个问题吧,我就觉得要不就报告没做好,要不就是主持人没有当好。
60:02
啊,没有体会的我就点啊。那个刘伟明白吗?李成,你点到那个报告提纲那里。你点到报告提纲那里,你别你点到别点到封面,点到报告提纲那里。啊,不想啊,你的报告提号吗?你的第三页页PPT你不点到这了吗?啊。刘作伟,你在吗?你说一下你你我我问一下吧,你说一下你的三维卷积是什么意思。啊,三维。就是RB啊。IB叫三维转机嘛。啊对,就它那个,我们是按它长,再加上它那个。是,如果我们是立体的话,它是。
61:00
通道吧,你别别那个,我觉得你就好好看看哈,应该是三通道吧,你不这这叫三维转机吗?我看这个那谁。不知道。啊,吴达吴达不一定说的是三维卷机,他应该是说的是三通道啊对,因为三维吧,它是有三维卷机的,就是说三维肯定是圈译的问题啊这的问题吧,啊我可以说三维转积有个有那个D3A你知道吧。啊,他就是他就是他就是空间的啊,你这个不是空间的,你这个你这个是平面的,只不过是三个通道而已,应该他是成龙说的对,成李老师说的对,应该是那个,我担心你误导别人,你知道吧啊。这不是三维哈,对,这只是把那个常换,然后再加上水,就它是三通道,嗯,啊对它这个这个一般都是把它称为channel嘛,Channel通道对对是HW,然后称一个channel,对它有three,就是说三个,你看它那个中间,比如卷积第一层,可能你会得到一个,比如说你512乘以512,你卷积一次之后,可能得到一个500乘以500,可能再乘以一个。
62:24
你可能上一层用了16个卷积盒,你这一层通道时候就是500乘以500乘以16,然后你再对他这个卷积的时候,你肯定就是对他这整个这一这一个整体进行一个剪辑。然后这个16就是它拆导数,就像我们这个一开始你用灰度图,你是单通道的,那你一开始输入就是512乘512乘以一,它拆到就是一,你要彩色的话就是乘以三,拆就是三,但你中间的话拆就多了,一般就把它称为channel。啊,对。
63:08
嗯,然后其他人还有什么问题吗。点名啊,你刚才提的几种经典的网络架构。嗯。那个你那个网络是自己写的是吧,那个PY套的那一个。呃,这就是呃根据那个啥就可以自己改了,你像呃这个我写不出来,但是这个的话他说比较简单,上次就看那个,呃,张文学长他讲的,他他当时自己写的,然后我就自己给他写的,其他的主要是很简单,就是用了两层,他当时答应的奈五层七,哎李正你自己是试过写个危机吗?啊没有了危机16啊19啊就行啊,这没有写吧。
64:02
你当时写一个。可以试试用那个,用用凯斯比较简单。凯老师,它里边直接就提供相应的模型,我不知道你这里边这样里头给你个任务哈,你把这所有的通用的cnav g就是ne inception这些东西呢,你都用P给他建个库,因为我们直接就调你这个库,你看看第一呢,有没有开源的是吧,嗯,咱们建立一个这样的话就就由你来做吧,这个事情。啊,下次你开会的时候,下次再做会的时候,我就看你这个库啊,你可以让你的这一个,你这一个下边的人来做,但是让谁做我就就找你。啊行,他这个其实是官方是给了那个。就。我可以完全可以直接调,你最好找找已有的模块,然后呢,但是这个代码呢,我们可以改,因为呢,大家以后呢,可能他们给我反映的这个P套呢,调餐啊什么的都比较方便。
65:01
啊,包括这个优化函数,损失函数啊,还还有这个这些东西都可以好调,而且呢,它有个最大的优优点呢,是是说就是说可以随时可视化里边的每一次训练的时候呢,看一下它的这个呃参数是吧,它的权重啊,还有它的转集盒啊,以及能输出结果每一层的啊,但是呢凯呢,他必须等这个模型呢,训练完之后,他才能进行这一个加载这个模型,看它的输出结果,所以说你把这个事情的嗯,交给你下次汇报的时候呢。嗯,给我们一套,一套包含这个危机g al ne in ne。嗯嗯,这这几个吧。好吧,行可以啊,行吧,下次合同交给你了啊嗯啊,你要给大家呢,学会提供工具,然后呢,然后呢,你你你你你这里边都有给你捧场的,你弄了半天了,还是我和李老师给你捧场,你这这个不行啊,你这个。
66:02
嗯,行,你这说明你这平常培养的不好,连个捧场的都没有,要在成了咱们要喝菜的,这这就冷掉了,你这个这个托没有找好,托没找好啊,啊里边好好看田老师,好像你看田老师能给你指导指导。嗯,行。嗯。哎哎,我这个也是第一次听啊,然后你那个好像那个参数共享那一块讲的不是很详细啊,你能给再给说说吗?哦,参数共享,对他这个是用梯度下降的方法,然后把那个参数优化了之后,后续就没有再改了是吗?就再也不变了。并不是它的参数,就实际上是刚才我们说就是让传播嘛,它是每次传播的话,它都是,呃,参数都会有更新的。但是吧,像这个他就是。
67:04
他我想其实他就是像这吧,他是。他他这边就每每次这样,他一次一次的集,他都是在呃。都是用这一个。然后就如果不不共享的话,就是说,嗯,比如说这个这三个它会有要解决,然后这三个它会会有个解决行。这个我们,呃,下面的话,这图它不共享,每个都有个一行。这样的话,一个一,每一个区域一个解决好啊,它它的量就大大增大了。那这个怎么叫参数共享呢?这不是共享了一个卷积盒吗?卷里边它是有参数的啊,就它它一般它称它为那个全置共享吗?因为它这里边你要用一个卷积盒去对整副图像去做一个操作,然后你所需要去。
68:06
计算它那个你去通过反向传播去更新这里边参数,去更新这一个三乘三呢,这里边九个参数。就是它这个更多早,最早来说,它更多相对于最早的全连接网络来说的,因为最早全连接网络是第二,每一层的神经元和前一层的所有都连接。啊对就对,就是这个意思,但是就是我现在就有点懵啊,因为我对这个深度神经网络这个研究的不多,就是前面你说的那个,嗯,他说的他说的那个叫什么三维。叫叫什么网络,就是它前前面那个宽和高是。我们是知道实际上就是你取的那个块的大小是吧,然后再往再往下乘,乘的那个,你看那个RGB分分别就是那个那三个颜色的,然后分分别对应了三个卷积盒,所以最后边那个是乘三是这个意思吧,但是你这个是卷积盒的这个深度是影响它的深度吗?这三个不是应该是深度吗?
69:13
呃,就它的三和三,就这绝集和,这一个是三乘三的决集和,并不是这三乘三乘三的绝集和,它并不是三个三乘三的绝集和。这边它的C度是呃,3C度是三,它的一核度也必须是三,就这这是一个卷一核,然后如果就呃用结合其他就是像多解集盒的话,呃就可以那个。对,添加也好。好,就这。这样是三个一。对啊,这样三个选择,那你三乘三乘三是什么意思。三是我也觉得你这个说的有问题哈,啊,你三乘三的明显就是刚才是这这一个就是一个转机盒,你你在那里胡扯,他他这里的不就三个参数转盒吗。
70:05
它这是通道数,不是不是,它是一,一个三乘三乘三的一。他那几个端机盒,你几个端机盒。呃,现在是一个,当时我一个,如果把我一般都把它用为三乘三乘以三,就是对你说的这个三维转机,是不是说的这个三乘三乘三转积和是三维啊。而不是说刚才那个通道数是三个。我现在有点懵啊,你倒是三这个,最后这个三就三乘三乘三,最后这个三到底是三个卷心盒呢,还是说。嗯,你这个九滴盒子大小是,哎,反正我已经懵了,已经不知道你是在说什么了,其实其实我们你的身份是三,这样去看的话,可以把它看成一次三个,就是三乘三的卷积盒,但是呢,你像因为它是处理这一张就是RGB图像,因为这一张RGB图像在那个我们实际计算机存储的时候,它是用分成三个通道去存嘛,红绿红绿蓝,就是你那个略图就嗯,对呀,对对,但是你对每一个通道,你要用一个三乘三卷集核去对它进行处理,那我们对一个就是红,红是对一个三乘三角集合,然后绿又对另外一个三乘三角一合,然然后最后它下边那幅图就是三个分别对了三个角集合嘛,是吧,对对,但是呢,那其实是一一幅图像。
71:27
他只不过是它是三个通道。这样在实际处理的时候,就把那个可以把这个三乘三再乘以它的通道数看成一个整体。嗯,三乘三再乘以三通的,对,因为你像你先我就这,然后我可以用这一个三乘以三乘以三的,呃,去给他处理一次,那我还可以再用另一个三乘以三乘以三,对这个图像再处理一次,就到两个彩色的黑map。所以说可以把这个三乘三乘三看成一个整体。嗯,那我我问一个问题啊,那如果说就当当前我在对于每一每一个就是红绿蓝每一每一个叫什么,这个叫每一个维数,我能叫维数吗?每每一围上一个,每一个通道,每一个通道上,然后都是有有三个的话,那这个怎么表示呢。
72:19
就每一个通道,现在是每一个通道有一个剪接合,对不对。那如果说有你就通道我有三个就行。你再拿一个来,就是再拿一个三乘以三,然后去对这个红的,只不过这里是啥呢?这里是它本身啊,它是一副彩色图像,然后只不过它在去计算的时候呢,对这一个彩色图像处理的话,它需要把它分为三个通道上去进行卷积。嗯,所以呢,他就拿这一个整体,你如果你再拿一个卷积盒,对这个彩色图像进行处理的话,同样也是一个这样三乘以三乘以三的。只不过是另一种参数了,成了这个你看了吗?它其实相当一个转机盒,一个转机盒呢,转出来就是一个图像,是这意思吧,对啊,就是如果说你你现在不分,不分这个红绿来的话,你就一个灰度图像,那不就成这一了,不分红绿来的话,你就直接是三乘三就可以。
73:11
啊对啊,就是对,就是这现在现在这个图就是吧,对吧,对对啊,因为为什么,因为因为你像我们它这彩色图像,它特别因为它是由三通道组成的,因每对每一个通,每一个通道就是一个二维的矩阵,所以说每一个通道需要用一个三乘三去处理,但是呢,你这整个彩色图像,你处理之后啊,你得到结果还是一个彩色图像,所以说你要把这三通道进行一个融合,所以说呢,就是变成了一个三乘三乘以三了,就是这个最后一个三就是它这个参道数,就你说的三是它的通道数,而不是他的深度,是这样吗?你说的不对吧,陈龙就是你对我怎么知道,我我觉得成龙也也是靠这个当老师,也是不是你这个,你这个他是不一样的,你知道吧,他这个通道你可以,你说你可以打到后边一个,因为后边后边一个网络结构那里,你可以给他们看一眼网络结构那里一个网络结构到对吧,反刚刚那个就叫什么什么,你可以看这这一个第一个32乘以32乘以一。
74:12
的一个对吧,它卷积出来得到一个是28乘28乘以六的,因为是用了一个。六个对吧?六个28乘以28的一个对吧?对它进行一个得到一个处理,它是用了六个卷积和得到一个对吧?28乘以二十八六的千导数。然后你下一个你我们对他进行做的话,呃,你要去卷积,要对这整个整体去进行卷积的。嗯。你么从那个14乘14乘六,又到了十乘十乘16呢,就是是六个。你看吧,这个你这个16又不是头脑数就变成。对,它就是一个卷,卷积盒的一个个数。
75:02
就是你对于14乘以14乘以六的,你用了一个16个卷积盒。16个五乘五的点击盒。对吧,李正啊对。然后就得到一个十乘十乘16个签到的一个这么一个结果。一般最后一个都把它称为呃成拆,你看成龙啊,你刚才说的就就不对了哈,你看了吗?我现在对于这个通道数,还有这个到底是这个卷卷积核数就。分不出来了。就是还是我刚刚刚刚那个疑问啊,就你如果把这个红绿蓝,然后就都看成是就看就看,就我们就不管它是三个通道了,就就只看一个灰度图像的话,那它乘它一个灰度图像乘以三个卷积和的话,是不是就可以写成三。还是说我们就是未来本身可以你说的对,刚才那个田杰说的是对的,就是说什么呢?我有几个转机盒,我不管你的输入是几个通道,我有几个转机盒,它输出的就是几个特征,因为呢,它是转机盒转出来是特征,是特征提取的,所以有三个转机盒,那么就出来三个特征,不管你输入的是六通道还是三通通道,还是多少通道,它是这么一个概念。
76:24
我就没有疑问了,那我那我就想明白了。就就这个意思。这个田老师是大拿哈,大家多,我不是大拿,我这是学习来学习了,大家有大家在优化这一块上呢,可以多向这个田老师学习啊,就是。目标优化什么这一块东西,嗯,这里边也有我的那个硕士生,应该是于佳良,呃,是于家良,于家良那个在的吧。亚良是昨天讲了一个,嗯,对于就是对于这个。RN它那个结构的优化。哦哦哦,你们做那个循环神经网是吧?嗯。
77:05
嗯。呃,什么时间给我们那个讲一讲,对这篇文章是刚刚刚刚预上线,我都不确定有没有预上线啊,就是刚我们那个金老师那个团队里边刚发表的一篇文章,就是刚刚录了的一篇文章,可能这两天应该是差不多陆续上线了,嗯,还比较新。他就是把那个结构,嗯,你看我们,我们不是有那个有有几层卷积,然后卷积的时候,嗯,就包括。那个就是那个卷积合跟矩阵卷积核,它这个中中间这个运预算,他选哪哪种这种预算的方式,就是它每一个模,他把那个。嗯,每一次卷积都看成一个独立的一个结构。它这个结构是可以是不一样的。嗯嗯,就怎么样选一个好的一个结构,那当时那篇文章是。就刚刚那个是李征是吧,李征提出来的就不一定是深度越高越好,他他优化的那个是他能把一个11层的一个网络,然后优化成五层的,然后还能达到这个效果差不多。
78:12
哦。讲吧,对个时间我们可以一下,咱们这个可以成的可以啊李正,李正现在是什么?是大二的学生李。就刚才讲讲讲的这一个啊。那讲的大二的讲的很好啊,我以为他是硕士生呢,没有没有他大二的啊,听到老师夸你了,好的,他们聊到这种程度。还挺好的。对。就是其实有有好多能听出来他自己是懂的,他可能是表述的还不太清楚,所以让我们引起可能会有歧忆,他至少吧,这个程序它能运行,他能会他会调,就他会加载数据,那你就给李娟瑞这个要求太低了,人家已经远远超出了你的需求,对对对对对,所以我让他把那个那些网络都都弄出来吧,想构建一个,因为他大家现在都往PY套上挪,那么呢,我们也就是想看看基套吧,他先可以前边先做一些工作,那后续构建一个模型库,大家都可以基于这些模型库呢来做。
79:35
嗯。要不然我们我们约周六,然后我们再把我我们看的那个文章,然后让回家聊分讲一下,那太好了,然后我们再啊对,然后再看一下,我不知道你们现在是讲这个是要做什么呢。我我们的目的就很明确,就是我们要把这个网络进行优化。他们的目的,他他们作为本科生,他们的目的就是说第一个呢,是做培训,关键给这个大一的学生,还有其他学生做培训,另一个是呢,就是说参加这一个。
80:08
一些大赛,嗯,这这一块。嗯,对,他他是更偏应用的是吧,哎,其实更好,其实更好,他能把这个应用这块讲讲扎实了,我们现在嗯是有一些理论,然后落地,可能还有点有有一段距离,对嗯,对。可以研究生啊,本科生我就可以做一个承接,你那边如果有好的什么,咱们可以呢,一块大家一块去碰一碰啊,刚才和李成龙老师什么,咱们都是大家都在,嗯,往这个方向去碰是吧,然后呢,我觉得可以和李正以后你你这个以后你来组织啊是吧。你加一下那个,等着加一下田老师的那个微信啊什么的,然后呢,我可以组织一些学生们一块进来,我觉得是对那个我我这边的学生,我给他们定的就是本科生是一一就是现在假期嘛,是一周一次,然后研究生呢,就是隔天一次,就比较勤快一点,所以我们可以嗯。
81:12
觉着是有一些可以相互讨论的了,然后我们就一起弄一个,弄一个稍微大点的。可以啊。好,哎,挺好的,挺好的,而且你们人数可能也就十来个人,你们人数很多啊,刚刚我看到这个峰值是72个人,太厉害了,主要是因由你参与,我这是纯来学习的,我不占用大家那个共享这个公共资源了,你们可以再讨论,他们主要是被压迫的来听的,不来听的人要行。行吧,李,你找你的主持人了。不对,那个李正我还有个小建议啊,我还有个小建议,你可以把你刚刚后边讲的这几个,嗯,给他梳理一下吗?他们的结构都是什么样的,然后为什么是,嗯,有不同的区别。
82:04
各自的优缺点在哪里,可以把这几个网络都梳理一下,把记下来,你这样下次在会议的时候就申请这个东西啊,行,记下来啊,这边的学生实践能力还是挺强的,田老师,对看,然后我是想学习一下,你把这个梳理一下,我们也一块学习学习,对对对对,包括外套的写出来呢,咱们都都放在网上共享就可以了,对吧,嗯,对,好。啊,我没有问题了。主持人了主持人,感觉这次好没有存在感啊。然后。呃,咱们同学们有什么疑问吗?你说你是没有主持人,下次哈,你没有主持人要就是要。那个什么的。是组合的,刘伟呢?我在,我在。
83:01
思吧。你是主持人,然后你先提问一个啊,我提问。因为我看的时候,我之前对卷辑没太有过了解,然后就是为了你赶快做一下总结,散会。你这个作为主持人,谁让你懂业务了,你说通过这次会,咱们下次什么时候见,这时候。好好的整理整理。我得出去了,你们慢慢玩。嗯,同学们还有什么问题吗?没有什么问题的话,那我们就愉快的结束本次会议。行,哎,我我来吧,然后呃,咱们这边信的同学可以留一下,然后我们再说一下其他事。
84:04
后呃,咱们C组这边的话就可以测了,然后我们下次汇报的话,嗯,我们小组可能会在下次会讲一下那个什么,我再讲那个下边这些网络结构的话,嗯。看看可能是下周六吧。哎。应该还会有,下周应该会有两次会议。哦,到时候。大家来。没其他的话,咱其他人可以走了,然后新的同学留一下。
85:16
这边那个。是谁啊?那个啥自己改一下名。应记的都是尽量改一下名。然后。就说一下我们实验室。呃,我先。呃,我先大体介绍一下我们实验室吧,就是我们呃。信息实验室也是信息安全实验室。然后。就是。
我来说两句