在《Excel实战技巧68:创建级联列表框(使用ADO技术)》中,我们使用ADO技术将列表框中的项目关联起来,实现了级联列表框。 这里我们再举一个相对简单的实现级联列表框的例子。...如下图1所示,选择左侧“项目”列表框中的项,在右侧“详细分类”中会列出相应的相关项。 ? 图1 下图2是列表框中使用的数据。 ?...图2 打开VBE,插入一个用户窗体,在用户窗体中放置两个标签和两个列表框,将左侧的列表框命名为lbxItem,右侧的列表框命名为lbxCategory,如下图3所示。 ?..."的单元格区域赋值给变量 Set rngItem = Sheet1.Range("项目") '列表框lbxItem中的值 Me.lbxItem.List = rngItem.Value...rngCategory.Value End Sub 现在,运行该用户窗体,将会得到上文图1中的效果。
题目 在一个关系R中,若每个数据项都是不可再分割的,那么R一定属于() A、第一范式 B、第二范式 C、第三范式 D、第四范式 A 答案 答案:A。...About Me:小麦苗 ● 本文作者:小麦苗,只专注于数据库的技术,更注重技术的运用 ● 作者博客地址:http://blog.itpub.net/26736162/abstract/1/ ● 本系列题目来源于作者的学习笔记
创建一个欢迎 cookie 利用用户在提示框中输入的数据创建一个 JavaScript Cookie,当该用户再次访问该页面时,根据 cookie 中的信息发出欢迎信息。...cookie 是存储于访问者的计算机中的变量。每当同一台计算机通过浏览器请求某个页面时,就会发送这个 cookie。你可以使用 JavaScript 来创建和取回 cookie 的值。...的欢迎词。而名字则是从 cookie 中取回的。 密码 cookie 当访问者首次访问页面时,他或她也许会填写他/她们的密码。密码也可被存储于 cookie 中。...当他们再次访问网站时,密码就会从 cookie 中取回。 日期 cookie 当访问者首次访问你的网站时,当前的日期可存储于 cookie 中。...日期也是从 cookie 中取回的。
实验前序: 通过一个简单的实验,告诉大家,如何去避免错误,如何排查错误,解决思路。...不说了,直接开怼实验 创建一个yaml文件: [root@k8s-master ~]# cat pod-1.yaml apiVersion: v1 kind: Pod metadata: name...Pod [root@k8s-master ~]# kubectl apply -f pod-1.yaml pod/test-pod created 查看到最开始我们创建Pod(test-pod)里的两个容器是成功了...4d17h test-pod 2/2 Running 0 4s 我们再次查看Pod信息,发现被重启了一次,且状态为Error了,这是因为两个容器的端口被占用了...因为一个Pod的容器共享一个网络栈 [root@k8s-master ~]# kubectl get pods NAME READY STATUS
AlexNet特征提取部分包含了5个卷积层、2个全连接层,在AlexNet中p5层神经元个数为9216、 f6、f7的神经元个数都是4096,通过这个网络训练完毕后,最后提取特征每个输入候选框图片都能得到一个...原本的R-CNN的分类使用了SVM,而SVM的模型注定速度会很慢,因此Fast R-CNN将分类和候选框位置回归放在了同一个网络中,如下图所示: 在最终的输出层,单独引出一层用softmax进行分类...网络总体的损失分成两个部分:分类损失和边界框回归损失。 式中的[u>=1]为艾弗森括号,即当前若不存在目标,损失为0。...SSD借鉴了Faster R-CNN中anchor的理念,每个单元设置尺度或者长宽比不同的先验框,其核心思想是在不同特征尺度上预测不同尺度的目标。...分类损失(classes损失):衡量目标的类别 以这个网络结构为例,最终输出为7x7x30的向量 7x7为最终得到的特征图网格分布,每个网格长度为30,这里采用了两个boundding box
在图6中,选择性搜索通过不同大小的边框分析图像,并且对于每个图像块,尝试通过纹理、颜色或强度将相邻像素组合在一起,以识别对象。...图9:在RoIPool层中,创建每个图像完整的前向传播过程,并从获得的前向传播过程中提取每个感兴趣区域的转换特征。...在Fast R-CNN中,通过选择性搜索方法创建这些区域,这是一个相当缓慢的过程,被认为是整个流程的短板。 ? 图11:微软研究院首席研究员孙剑是Faster R-CNN网络团队的领导者。...图13:区域建议网络在CNN特征图谱上依次滑动一个窗口。在每个窗口位置上,网络在每个锚点上输出一个分值和一个边界框。因此,一共有4k个边界框坐标,其中k是锚点的数量。...图14:一般来说,带有人物形象的边框往往是竖长的矩形。我们可以使用这种常理,通过创建这样维度的位置,来指导生成区域建议网络。 直观上,我们知道图像中的对象应该符合某些常见的纵横比和大小。
一般我们判断两个实例对象是否同样的类型,可以用typeof得到对象类型,然后用==号比较。 typeof适用于原生类型。...而对于自定义类型,虽然typeof得到的都是Object,但还有更强的招数:getQualifiedClassName 利用这个原生函数可以获取到两个实例的真实类型。...然而,对于Flash professional制作出来的swf,运行时要知道其中两个MovieClip是否来自库里边的同一个元件,上述方法都无能为力了。 本文就是探讨这个问题。...1、首先,想到的是,如果两个实例相同类型,那么在内存中应该有类似的结构。不过flash并没有直接获取内存的接口; 2、替代直接获取内存的方法,可以找到ByteArray。...3、但是,直接把两个MovieClip序列化,得到的ByteArray肯定不一样,因为毕竟有动态的变量值,例如x/y等。
注:有的时候也会选择得分最高的两个框,然后取两框的交集作为最终的位置预测。 疑惑:框要取多大? 取不同的框,依次从左上角扫到右下角。非常粗暴啊。...步骤五:使用回归器精细修正候选框位置:对于每一个类,训练一个线性回归模型去判定这个框是否框得完美。 ? RCNN的进化中SPP Net的思想对其贡献很大,这里也简单介绍一下SPP Net。...2.只对原图提取一次卷积特征 在R-CNN中,每个候选框先resize到统一大小,然后分别作为CNN的输入,这样是很低效的。...所以SPP Net根据这个缺点做了优化:只对原图进行一次卷积得到整张图的feature map,然后找到每个候选框zaifeature map上的映射patch,将此patch作为每个候选框的卷积特征输入到...的输入,因此,在原始图片上执行这些操作后,虽然输入图片size不同导致得到的feature map尺寸也不同,不能直接接到一个全连接层进行分类,但是可以加入这个神奇的ROI Pooling层,对每个region
E-R图: E-R图也称实体-联系图(Entity Relationship Diagram),提供了表示实体类型、属性和联系的方法,用来描述现实世界的概念模型。...矩形框:表示实体,在框中记入实体名。 菱形框:表示联系,在框中记入联系名。 椭圆形框:表示实体或联系的属性,将属性名记入框中。对于主属性名,则在其名称下划一下划线。...在流程图中完全去掉流程线,全部算法写在一个矩形阵内,在框内还可以包含其他框的流程图形式。...即由一些基本的框组成一个大的框,这种流程图又称为N-S结构流程图(以两个人的名字的头一个字母组成,美国学者I.Nassi 和 B.Shneiderman)。...程序框图的设计是在处理流程图的基础上,通过对输入输出数据和处理过程的详细分析,将计算机的主要运行步骤和内容标识出来。程序框图是进行程序设计的最基本依据。
学习资料参考: https://www.jianshu.com/p/e4d2cbc38a10 试错第一步:关于dash的安装问题 详细步骤见:https://www.jianshu.com/p/be954aaa7025...jupyter-server-proxy jupyter serverextension enable jupyter_server_proxy # jupyter-server-proxy服务器扩展在安装时没有自动启用,这是一个依赖项
根据得分的高低,我们选择了右下角的黑框作为目标位置的预测。 注:有的时候也会选择得分最高的两个框,然后取两框的交集作为最终的位置预测。 疑惑:框要取多大? 取不同的框,依次从左上角扫到右下角。...步骤四:训练一个SVM分类器(二分类)来判断这个候选框里物体的类别 每个类别对应一个SVM,判断是不是属于这个类别,是就是positive,反之nagative 比如下图,就是狗分类的SVM ?...2.只对原图提取一次卷积特征 在R-CNN中,每个候选框先resize到统一大小,然后分别作为CNN的输入,这样是很低效的。...所以SPP Net根据这个缺点做了优化:只对原图进行一次卷积得到整张图的feature map,然后找到每个候选框zaifeature map上的映射patch,将此patch作为每个候选框的卷积特征输入到...的输入,因此,在原始图片上执行这些操作后,虽然输入图片size不同导致得到的feature map尺寸也不同,不能直接接到一个全连接层进行分类,但是可以加入这个神奇的ROI Pooling层,对每个region
因此,对于 3 种不同的纵横比和 3 种不同的比例,每个像素总共可能有 9 个建议。特征图大小为 WxH 的锚框总数和特征图每个位置的锚点数量 K 可以表示为 WxHxK 。...因此模型需要了解哪个锚框可能包含我们的对象。带有我们对象的锚框可以被归类为前景,其余的将是背景。同时模型需要学习前景框的偏移量以调整以适合对象。这将我们带到下一步。...每个锚框都有两个可能的标签(前景或背景)。如果我们将特征图的深度设置为 18(9 个锚点 x 2 个标签),我们将使每个锚点都有一个向量,该向量具有表示前景和背景的两个值(称为 logit 的法线)。...feature map 中的每个位置都有 9 个 anchors,每个 anchor 都有两个可能的标签(background,foreground)。...如果我们将特征图的深度设置为 18(9 个锚点 x 2 个标签),我们将使每个锚点都有一个向量,该向量具有表示前景和背景的两个值(通常称为 logit)。
在创建正式的Visio前,我们要了解Visio中模具、图件和模板三要素。模具指与模板相关联的图件(或称形状)的集合。利用模具可以迅速生成相应的图形。模具中包含了图件。...03 Visio的使用 ✅ 01 确定自己想要绘制的图表,根据设计的需要添加不同的图形形状。 ✅ 02 如果默认的选择中没有想要的形状,可以在这里查找。...✅ 05 在图形中添加文字也是必不可少的部分,双击框图里的空白部分就可在框图内添加文字了。...✅ 06 最后一步就是连接图形了,鼠标直接点击两个框图之间要连接的位置,连接就会自动生成了,而且双击连接线可以对其进行注释。...除此之外Visio还提供了许多功能齐全、方便高效的快捷键。 快捷 F12 或 Alt+F2:显示“另存为”对话框。 Alt+1 :转到上一个文件夹()。
Fast R-CNN网络末尾采用并行的不同的全连接层,可同时输出分类结果和窗口回归结果,实现了end-to-end的多任务训练(建议框提取除外),也不需要额外的特征存储空间(R-CNN中的特征相需要保存到本地...ZF网络最后会输出256个值,它们将馈送到两个独立的全连接层,以预测边界框和两个objectness分数,这两个objectness分数度量了边界框是否包含目标。...我们其实可以使用回归器计算单个objectness分数,但为简洁起见,Faster R-CNN使用只有两个类别的分类器:即带有目标的类别和不带有目标的类别。...因此,Faster R-CNN不会创建随机边界框。相反,它会预测一些与左上角名为锚点的参考框相关的偏移量(如x,y)。我们限制这些偏移量的值,因为我们的猜想仍然类似于锚点。...Faster R-CNN使用更多的锚点 它部署9个锚点框:3个不同宽高比的3个不同大小的锚点(Anchor)框。
检测过程中,SSD算法借助多尺度方法进行检测,在不同尺度的特征图上构建多个默认框,然后进行回归与分类;最后,利用非极大值抑制方法得到最终的检测结果。 ? 图 4 Faster R-CNN 网络 ?...DMPNet[31]网络,使用四边形(非矩形)标注文本框;SegLink[32] 网络,首先将每个单词切分为小的、带方向的、更易检测的文字块,然后用邻近连接方法将各小文字块连接成单词。...图 9 RRPN文本检测流程 2.2.3 SegLink网络 SegLink网络[32]中,首先将每个单词切分为小的、带方向的、更易检测的文字块,然后用邻近连接方法将各小文字块连接成单词。...图15 FOTS 网络系统框图 2.4.2 STN-OCR网络 STN-OCR[46]是端到端的图文检测与识别网络。检测过程内嵌一个空间变换网络,对输入图像进行仿射变换。...图16 STN-OCR 网络系统框图 2.4.3 Integrated网络 基于集成式的端到端文本检测与识别网络[47],通过模型参数共享的方式,将检测模型与识别模型融合成一个流水的端到端训练的模型;
按F5生成原型的时候,在“Mobile/Device”选项中可以设置适配移动设备 的特殊原型(Axure 6.5以下版本),再用移动设备访问你生成的原型链接即可(该页面创建一个桌面快捷方式)。...并且可以使用iOS或Android上的浏览器以全屏模式运行原型。 5、Moqups 是一个非常好的、免费的HTML5应用,通过它可以创建可爱朴素的线框图、实体模型和UI概念。...它基于优秀的用户体验设计原则,在构建原型中,它提供了一个完整的工具包(该工具包具有良好的用户设计模式和元素)来从头构建一个出色的原型。 ...UXPin 具有响应式的断点功能,创建的响应式原型和线框图可以运行在不同的设备和分辨率上。另外该软件还提供了版本控制和迭代功能,可以轻松的共享预览,直观的注 解和实时的协同编辑和聊天。...7、Omnigraffle OmniGraffle是由The Omni Group制作的一款带有大量模版可以用来快速绘制线框图、图表、流程图、组织结构图以及插图等类型图的app,也可以用来组织头脑中思考的信息
输入:图像 输出:边界框+图像中每个目标的标注 但是我们如何找出这些边界框的位置?R-CNN 做了我们也可以直观做到的——在图像中假设了一系列边界,看它们是否可以真的对应一个目标。 ?...下面是整个模型的输入和输出: 输入:带有区域提案的图像 输出:带有更紧密边界框的每个区域的目标分类 2016:Faster R-CNN—加速区域提案 即使有了这些进步,Faster R-CNN 中仍存在一个瓶颈问题...以这种方式,我们创建 k 这样的常用纵横比,称之为锚点框。对于每个这样的锚点框,我们在图像中每个位置输出一个边界框和分值。...考虑到这些锚点框,我们来看看区域提案网络的输入和输出: 输入:CNN 特征图。 输出:每个锚点的边界框。分值表征边界框中的图像作为目标的可能性。...图像实例分割的目的是在像素级场景中识别不同目标。 到目前为止,我们已经懂得如何以许多有趣的方式使用 CNN,以有效地定位图像中带有边框的不同目标。
下图是中心分组(Center grouping)算法:输入是5个热图,输出则是带有可信度的目标框。?...FSAF module plugged into anchor-based detection methods下图展示一个特征层中的实例监督信号,其中两个损失函数:分类的focal loss 和目标框回归的...GA-RPN对特征金字塔的每个输出特征图,采用带有两个分支的锚框生成模块分别预测锚位置和形状。...架构图:一个核心网络执行级联角点池化(cascade corner pooling)和中心点池化(center pooling ),输出两个角点热图和一个中心关键点热图;和CornerNet类似,一对检测的角点和嵌入用来检测潜在目标框...最后卷积有两个通道,一个是关于中心位置的热图,另一个是中心的尺度图。?
锚框的出现,使得训练时可以预设一组不同尺度不同位置的锚框,覆盖几乎所有位置和尺度, 每个锚框负责检测与其区域交叉比(intersection over union, IOU)大于阈值的目标,这样问题就转换为...同一个目标的角点,训练后的神经网络会预测类似的嵌入。 将对象检测为组合在一起的一对边界框角 下图是定位的角点池化技术:每个特征图通道沿着两个方向取最大值,然后求和。...基于锚的方法 FSAF模块插入基于锚的检测方法 下图展示一个特征层中的实例监督信号,其中两个损失函数:分类的focal loss 和目标框回归的IoU loss 。...监督信号指示无锚分支的一个特征级别中的实例 在线特征选择的操作如图:每个实例通过无锚框的所有层计算出所有有效区域的分类损失和回归损失,在最小损失的那层构建该实例的监督信号。...GA-RPN 对特征金字塔的每个输出特征图,采用带有两个分支的锚框生成模块分别预测锚位置和形状。一个特征适应模块对原始特征图处理,使其更能体现锚的形状。
注:有的时候也会选择得分最高的两个框,然后取两框的交集作为最终的位置预测。 疑惑:框要取多大? 取不同的框,依次从左上角扫到右下角。非常粗暴啊。...总结一下思路: 对一张图片,用各种大小的框(遍历整张图片)将图片截取出来,输入到CNN,然后CNN会输出这个框的得分(classification)以及这个框图片对应的x,y,h,w(regression...2000个候选框每个框都需要进行CNN提特征+SVM分类,计算量很大,导致R-CNN检测速度很慢,一张图都需要47s。...所以才如你在上文中看到的,在R-CNN中,“因为取出的区域大小各自不同,所以需要将每个Region Proposal缩放(warp)成统一的227x227的大小并输入到CNN”。...3.对候选框中提取出的特征,使用分类器判别是否属于一个特定类 4.对于属于某一类别的候选框,用回归器进一步调整其位置 Fast R-CNN 1.在图像中确定约1000-2000个候选框 (使用选择性搜索
领取专属 10元无门槛券
手把手带您无忧上云