首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

为什么我的非常简单的神经网络做得一点都不好?

神经网络是一种模拟人脑神经元网络的机器学习模型,它可以通过学习数据的模式和特征来进行预测和分类任务。然而,即使是简单的神经网络在实际应用中可能表现不佳的原因有很多。以下是一些可能导致神经网络表现不佳的常见原因:

  1. 数据质量问题:神经网络的性能很大程度上依赖于训练数据的质量。如果训练数据中存在噪声、缺失值或者标签错误,神经网络可能无法准确地学习到数据的模式。
  2. 数据量不足:神经网络通常需要大量的训练数据才能取得良好的性能。如果训练数据量太少,神经网络可能无法捕捉到数据的复杂模式,导致性能不佳。
  3. 模型复杂度不合适:简单的神经网络可能无法拟合复杂的数据模式。如果数据具有高度非线性的特征,简单的神经网络可能无法捕捉到这些特征,导致性能不佳。此时,可以尝试增加神经网络的层数或者神经元数量来提高模型的复杂度。
  4. 激活函数选择不当:激活函数在神经网络中起到非线性映射的作用,对于不同的问题和数据,选择合适的激活函数非常重要。如果选择的激活函数不适合当前的问题,神经网络可能无法学习到有效的特征。
  5. 学习率设置不当:学习率是神经网络中控制参数更新速度的重要超参数。如果学习率设置过大,可能导致参数更新过快,无法收敛;如果学习率设置过小,可能导致收敛速度过慢。合适的学习率设置可以帮助神经网络更好地学习数据的模式。
  6. 过拟合问题:过拟合是指神经网络在训练集上表现良好,但在测试集或实际应用中表现不佳的现象。过拟合通常发生在模型过于复杂或者训练数据量不足时。可以通过增加训练数据、使用正则化技术或者简化模型结构来缓解过拟合问题。
  7. 初始化权重问题:神经网络的权重初始化对模型的性能有很大影响。如果权重初始化不合适,可能导致模型陷入局部最优解或者梯度消失/爆炸的问题。可以尝试使用合适的权重初始化方法,如Xavier初始化或者He初始化。
  8. 超参数选择不当:神经网络中有很多超参数需要调节,如学习率、批大小、正则化参数等。不同的问题和数据可能需要不同的超参数设置。通过交叉验证或者网格搜索等方法,可以选择合适的超参数组合。

总结来说,神经网络表现不佳可能是由于数据质量问题、数据量不足、模型复杂度不合适、激活函数选择不当、学习率设置不当、过拟合问题、初始化权重问题或者超参数选择不当等原因导致的。针对具体问题,可以逐步排查并调整相关因素以提升神经网络的性能。

腾讯云相关产品和产品介绍链接地址:

  • 腾讯云机器学习平台(https://cloud.tencent.com/product/tiia)
  • 腾讯云自然语言处理(https://cloud.tencent.com/product/nlp)
  • 腾讯云图像处理(https://cloud.tencent.com/product/tci)
  • 腾讯云音视频处理(https://cloud.tencent.com/product/mps)
  • 腾讯云物联网平台(https://cloud.tencent.com/product/iotexplorer)
  • 腾讯云移动开发(https://cloud.tencent.com/product/mobdev)
  • 腾讯云数据库(https://cloud.tencent.com/product/cdb)
  • 腾讯云服务器(https://cloud.tencent.com/product/cvm)
  • 腾讯云区块链(https://cloud.tencent.com/product/baas)
  • 腾讯云存储(https://cloud.tencent.com/product/cos)
  • 腾讯云云原生应用引擎(https://cloud.tencent.com/product/tke)
  • 腾讯云网络安全(https://cloud.tencent.com/product/saf)
  • 腾讯云元宇宙(https://cloud.tencent.com/product/um)
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

学徒作业-想看为什么这几个基因表达量相关性非常

研究人员用Smart-seq2建库方法得到单细胞转录组数据经过QC后,留下了来自18名患者5,902个细胞。...首先使用inferCNV可以分成2215个恶性细胞和3363个非恶性细胞 对进行3363个非恶性细胞表达矩阵分群,根据已知标记基因(自行搜索)表达,注释并且找到B细胞,巨噬细胞,树突状细胞,肥大细胞,...重新看这个文章时候,发现里面有这样一个图表,如下: ? 上皮细胞标记基因热图 上皮细胞标记基因如上所示,它们居然表达量如此相关,而且恰好与inferCNV恶性与否对应上。...当然了,如果你还卡在第一步安装R包,请看我昨天在生信菜鸟团教程:有些R包是你电脑操作系统缺东西,但也有一些不是 。 ?...inferCNV区分细胞恶性与否 当然了,inferCNV非常难,你很大概率上是搞不定哈,但是相信这篇文章肯定是有inferCNV结果,你可以直接使用即可。

29720

工业缺陷检测中数据标注需要注意几个事项

下面就这个项目来说一说,工业缺陷检测在标注数据时需要注意几个事项: 1、离得比较近缺陷就合并在一个框里 以上两个图里缺陷都是可以合并,一是为了保持缺陷完整性,同一个缺陷被标注成好多个,会给神经网络造成误解...2、尽量不要有太细长目标 神经网络卷积基本上都是3*3,而且先验框anchor在设计宽高比时一般也是在1左右,回归非常细长目标,需要比较大感受野和宽高比,不一定能做得很好。...如图左边那块目标,可以合并一下,稍微标大一点,把长宽比例搞得居中一点。...有人会杠了,那我目标就是小目标啊,小哥,说了,另外还有很多trick,不在本文讨论范围,打标签这个环节你要么打大点,要么不要打,或者把局部区域放大成大图,再打标签,不然送到模型里头,也是没用。...YOLOv4网络结构图 4、不要标注特别不明显特征 这一条相信都能理解,特征连人都认不出来,哪个网络都不好识别吧。像这种标注框,恐怕谁都不好认吧。

31220

为什么 CV 模型不好用?没想到原因竟如此简单……

计算机视觉模型表现不佳原因有很多,比如架构设计缺陷、数据集代表性不足、超参数选择失误等。但有一个很简单原因却常常被人们忽略:图像方向。...写过很多有关计算机视觉和机器学习项目的内容,比如目标识别系统和人脸识别项目。有一个开源 Python 人脸识别软件库,算得上是 GitHub 上最受欢迎十大机器学习库之一。...为什么这让很多 Python 计算机视觉应用表现不佳? Exif 元数据并非 jpeg 文件格式原生部分。在 TIFF 文件格式使用了这种元数据之后,jpeg 文件格式才加入这种元数据。...这不可避免地导致人们在 GitHub 上报告问题,说他们使用开源项目根本不行或模型不够准确。但事情本质非常简单——他们输入了侧向甚至颠倒图像!...做起来很简单,不过在网上很难找到能为所有方向正确执行旋转示例代码。

1.1K30

那些年绕过反爬手段

但现在心态变了,如果遇到一个没有验证码网站,都会尽量抓得慢一点。毕竟都是搞编程,你如果把人家抓急了,逼得他改网站,改完后自己还得跟着改,冤冤相报何时了?...对于这种验证码用神经网络可以达到很高识别率,但训练耗时较长(如果有gpu会快很多),而且需要大量标注样本。笔者用了2万个样本做训练,识别率能达到86%左右。...请求限制 即对请求速度有限制,或封禁手段 伪封ip 为什么要加个“伪”字呢?...比如去年有段时间裁判文书网用了某数waf,分析了将近一个月没有成果,但发现该网站还有个app,做得特别low,经过简单抓包逆向后成功拿到数据,而且数据还是json格式化后,连解析都省了。...以上是暂时想到一些经验,希望能有所帮助,同时也希望大家在抓数据时候能够手留情别抓得太狠,如果把一个数据源抓废了对大家都不好,正好那句话说,IT人何苦为难IT人。

89040

关于程序员转型AI这件事,三位老炮跟你聊些干货(下)

但是如果说它真的能够拟合我们真实世界所有情况,其实还差那么一点意思。这也就是说为什么说,机器学习或者神经网络没有那么高深。...卷积神经网络开拓者Yann LeCun做了一个非常简单卷积网络,去做手写数字识别,也就是我们现在每个人初入机器学习,一定接触到一个Mnist。...他们做了一个实验说,训练一个非常简单积卷神经网络,训练出来之后,想看一看究竟学到了什么,大家都说它是黑箱,那我们打开看一下,到底学到了什么东西。...[1500282534574_4708_1500282534726.jpg] 第一层,他们发现,都是非常简单直线,斜线,各种颜色,这些非常简单纹理。...也是认为非常重要一个方向,甚至说能不能够改变我们未来产业格局,就是最后一点

87400

今日头条李磊:用机器学习做自然语言理解,实现通用 AI 仍需解决三大难题(33PPT下载)

比如说这里有一个非常简单循环神经网络模型,它输入是X1、X2、X3、X4,每个输入都是一个向量,和传统卷积神经网络不同地方就是它输出部分或者影像量那部分,h在这里,每个h不仅跟当前位置输入有关...通过这些带有记忆单元神经网络,就可以构建出自动对话机器人。比如说这里展示了一部分我们机器人可以做对话。 ?...为什么让电脑回答这样问题非常非常难?首先我们语言是非常复杂,同样一个意思可以有多种问法。比如我们可以问奥巴马总统在哪里出生?也可以问奥巴马总统出生地是哪里。...深度学习模型在很多问题上做得非常好,可是有时候我们会发现模型做得好,但其实并不知道它为什么做得好。或者我们模型犯错了,但我们并不知道它为什么犯错,这就是可解释性问题。...我们机器学习还需要更多地去研究一些模型一些方法,让它能够对自己行为做一些预测和分析、解释,当它做得不好时候,它知道自己为什么做得不好,就像人一样,能够分析自己错误。这是第一点

1K71

张钹院士:走向真正的人工智能 | CCF-GAIR 2018

如果路况比较简单,行人、车辆很少,勉强可以用。复杂路况就用不了。什么原因?非常简单,好多人总结出这个经验,行人或者司机都会有意无意破坏交通规则,包括外国人也一样,中国人更严重一点。...在语义空间处理就可以解决理解问题,但是这项工作是非常艰巨。 介绍一项我们现在做工作。人工神经网络为什么不能得到语义信息呢?人脑神经网络为什么可以呢?...差别就在这里,我们现在用的人工神经网络简单了,我们正想办法把脑神经网络许多结构与功能加进去,我们这里只用了「稀疏发电」这一性质,就可以看出一些效果,人脸、大象或者鸟轮廓,神经网络可以把它提取出来。...最远在哪儿呢?右上角,图灵测试。大家对图灵测试有很多误解,其实图灵测试是开领域问答,很难!索菲亚做得怎么样?很糟糕。自然语言理解也在这里,复杂环境下决策在偏左一点地方,这也是很难。...建议不要用新词,用新词往往说不清,很麻烦,有的人说现在是弱人工智能,以后是强人工智能,也有人说现在叫增强智能(Augmented Intelligence)也是 AI……概念太多说不清,还是简单一点

65450

张钹院士:走向真正的人工智能 | CCF-GAIR 2018

如果路况比较简单,行人、车辆很少,勉强可以用。复杂路况就用不了。什么原因?非常简单,好多人总结出这个经验,行人或者司机都会有意无意破坏交通规则,包括外国人也一样,中国人更严重一点。...在语义空间处理就可以解决理解问题,但是这项工作是非常艰巨。 介绍一项我们现在做工作。人工神经网络为什么不能得到语义信息呢?人脑神经网络为什么可以呢?...差别就在这里,我们现在用的人工神经网络简单了,我们正想办法把脑神经网络许多结构与功能加进去,我们这里只用了「稀疏发电」这一性质,就可以看出一些效果,人脸、大象或者鸟轮廓,神经网络可以把它提取出来。...最远在哪儿呢?右上角,图灵测试。大家对图灵测试有很多误解,其实图灵测试是开领域问答,很难!索菲亚做得怎么样?很糟糕。自然语言理解也在这里,复杂环境下决策在偏左一点地方,这也是很难。...建议不要用新词,用新词往往说不清,很麻烦,有的人说现在是弱人工智能,以后是强人工智能,也有人说现在叫增强智能(Augmented Intelligence)也是 AI……概念太多说不清,还是简单一点

65210

张钹院士:走向真正的人工智能

如果路况比较简单,行人、车辆很少,勉强可以用。复杂路况就用不了。什么原因?非常简单,好多人总结出这个经验,行人或者司机都会有意无意破坏交通规则,包括外国人也一样,中国人更严重一点。...在语义空间处理就可以解决理解问题,但是这项工作是非常艰巨。 介绍一项我们现在做工作。人工神经网络为什么不能得到语义信息呢?人脑神经网络为什么可以呢?...差别就在这里,我们现在用的人工神经网络简单了,我们正想办法把脑神经网络许多结构与功能加进去,我们这里只用了「稀疏发电」这一性质,就可以看出一些效果,人脸、大象或者鸟轮廓,神经网络可以把它提取出来。...最远在哪儿呢?右上角,图灵测试。大家对图灵测试有很多误解,其实图灵测试是开领域问答,很难!索菲亚做得怎么样?很糟糕。自然语言理解也在这里,复杂环境下决策在偏左一点地方,这也是很难。...建议不要用新词,用新词往往说不清,很麻烦,有的人说现在是弱人工智能,以后是强人工智能,也有人说现在叫增强智能(Augmented Intelligence)也是 AI……概念太多说不清,还是简单一点

44030

通俗易懂 | SVMHingeLoss

【这边文章主要讨论问题】: 分类任务中为什么用交叉熵而不是平方差? hingeloss是什么?为什么用? SVM基础内容 这里先介绍一下对SVM部分基础知识,以及本文使用算法符号。...SVM是支持向量机,用在分类任务上,一般是二分类任务,如果是多分类任务的话,就需要多个SVM进行集成; SVM中两类样本真是标签是**【+1】,【-1】**,而不是神经网络0和1。...你考80分怎么还比70分得到更大损失。 【这也是分类问题为什么不使用平方损失原因。因为回归时候,要预测是一个数值,高了低了都不好。...举个例子:假如一个样本非常小,那么交叉熵梯度就会非常大而sigmoid+平方损失梯度却非常小。非常梯度意味着小变化,如果使用sigmoid+平方损失作为损失函数,会让模型收敛非常慢。...个人感觉,如果尽可能地得分高的话,可能会造成一定程度过拟合,模型不太会兼顾全部样本。 Hinge loss感觉就会把更多注意力放在没有分类分很好那些样本上,不会再注意样本了。

1.5K30

德扑 AI 之父解答 Libratus 13个疑问:没有用到任何深度学习,DL 远非 AI 全部

Noam Brown 简单来说,目前看来我们提出技术在 6 人局里也有很好实战效果(表现超过人类)。觉得多于 3 个玩家参与游戏是确实有一定技术挑战,但扑克这个领域里体现得不明显。...AI 会使用一个混合策略(对于不同可能性采取不同行动),而人类玩家倾向于单独使用某一种策略。所以局面复杂时候人类玩家会觉得非常难以估计 AI 所处状况,因为 AI 各种行为都做得出来。...以及,现在我们都知道了另一个用了神经网络扑克 AI DeepStack 表现如何。如果回过头重新考虑一下,你们有可能用神经网络吗? Noam Brown 对,「冷扑大师」没有用到任何深度学习。...下面列举几个原因说明为什么在这种比赛中 PIO 求解器一点都不好使: PIO 求解器需要有一个人类输入双方信念分布。「冷扑大师」完全是靠自己判断这些信息。...不过只要有人能够提出一个贸易协商模型,我们这次研究成果肯定可以用在里面。这也会是未来研究中一个有意思方向。 是的我们觉得做一个能运行在一般电脑和服务器上、然后稍微弱一点版本是做得

94560

神经图灵机深度讲解:从图灵机基本概念到可微分神经计算机

首先,要对这个架构做一个总体概述,即这个架构是什么?然后我会开始讨论为何说这个架构是重要,以及它是如何与未来机器学习相关,再然后,我会谈为什么我们不能马上在每个地方用到这些东西。...这看起来是极其平常,但是对当前神经网络来说,这实际上是一件非常困难事情,因为神经网络需要学习出一个算法才能把这个工作做得足够好。...这件事神经网络可以做,但是会以更加统计方式完成,而神经图灵机实际上可以像人类程序员一样去完成这个任务。 ? 好了,现在我们谈一下 bAbI 数据集以及为什么我们如此关注它。...bAbI 数据集本质上是一系列后面带有问题故事,而且所有的问题都被设计成需要某种形式推理能力才能回答。这里有一个简单例子——使用位置来进行推理。...当它可以把这个做得很好时,你再将长度增加到 10,然后再某一点,你达到了新长度,比如说 20,然后在某一点你相当自信你可以将模型泛化,就像我们之前看到,将复制序列长度增大到 100 或者更大。

1.6K80

深度 | 周志华:“深”为什么重要,以及还有什么深网络

在这样神经网络里面,它每一个连续单元都是非常简单、有条件,这样才能起作用。我们收到一些简单神经行为输入,这些输入通过一些计算得到输出,成为后续神经元输入。它就是这么一个非常简单公式。...如今,数千层深网络非常常见。这是个非常庞大非常巨大系统,把这么一个系统训练出来,难度是非常。 有一点非常消息,我们现在有很强大计算设施。...其实我们设计了许多方法来对付过拟合,比如神经网络有 dropout、early-stop 等。但有一个因素非常简单非常有效,那就是用很大数据。...但是总体上当我们逐渐往上时候,它确实是不断在对对象进行抽象。我们现在认为这好像是深度学习为什么成功关键因素之一。因为扁平神经网络能做很多深层神经网络能做事,但是有一点它是做不到。...比如说决策树就是一种逐层处理,这是非常典型。决策树模型已经有五六十年历史了,但是它为什么做不到深度神经网络这么好呢?想答案很简单

34930

周志华:“深”为什么重要,以及还有什么深网络

在这样神经网络里面,它每一个连续单元都是非常简单、有条件,这样才能起作用。我们收到一些简单神经行为输入,这些输入通过一些计算得到输出,成为后续神经元输入。它就是这么一个非常简单公式。...如今,数千层深网络非常常见。这是个非常庞大非常巨大系统,把这么一个系统训练出来,难度是非常。 有一点非常消息,我们现在有很强大计算设施。...其实我们设计了许多方法来对付过拟合,比如神经网络有 dropout、early-stop 等。但有一个因素非常简单非常有效,那就是用很大数据。...但是总体上当我们逐渐往上时候,它确实是不断在对对象进行抽象。我们现在认为这好像是深度学习为什么成功关键因素之一。因为扁平神经网络能做很多深层神经网络能做事,但是有一点它是做不到。...比如说决策树就是一种逐层处理,这是非常典型。决策树模型已经有五六十年历史了,但是它为什么做不到深度神经网络这么好呢?想答案很简单

36330

通向人工智能产业落地化道路在哪?

为什么全脑模拟和智能动力学少被提及呢?后两者和深度神经网络相比有何异同点?为什么深度神经网络比后两者概念更火? 胡郁回答了笔者这个疑问。他说道,“现在利用大数据加上深度学习方式是主流方法。...用一两句话概括,后两者相比于深度神经网络最大不同点和优势在于,采用智能动力学方法能够更好地将人脑思维方式和学习方法与电子计算机进行结合,从而实现小样本学习和迁移学习,后两者在这些方面会比较强一点。...这样系统在处理复杂语义时非常脆弱,即使是非常简单日常词汇,目前最先进机器翻译系统也无法做到准确翻译。...所以,一方面认为在大部分翻译领域,机器翻译已经做得不错了。现在,机器翻译做得不好地方,可能是占比非常俚语,机器翻译特点是没看到过就不会翻,对于一些非常复杂特殊情况,翻译效果可能会打折扣。...所以,从另外一个角度来看,翻译要求“信达雅”,人类在“达”和“雅”这两个方面还具有一定优势。不认为机器翻译将来就要完全取代人类,它只是帮大家解决大部分比较简单工作,而不是让人类最后都没饭吃。

42710

神经网络怎样模拟人思考?

虽然技术宅不怎么需要形象,不过,面子总也也还是要一点,要让别人知道曾经用很长很长时间思考这么中二问题,见面了都不好意思抬头打招呼。...总而言之,今天我们所见到神经网络模型,是许多不同研究人员你一点一点用了各种数学方法凑出来,说官方一点,是集体智慧结晶,而不是想象中,是生物学神经网络简化版仿生产物。...别看上面就短短一句话呀,敢说这应该是你能看到神经网络简单直接概括,借用现在电话推销很爱说一句话,简直是“看到就是赚到”。...对,为什么说“纸上得来终觉浅”,因为当你真的去使用,你就会发现一个很严重问题:知道权值怎么更新,那,总得还有个初始值才能开始吧?...可是,这就是为什么很多同学会问,看完了教材,感觉也学懂了,为什么真的要用了却总感觉对不上。 写书当然是要突出重点,可是到了应用技术,一条“一看就会”小褶皱,到了新手这里没准就成了难倒英雄汉大河。

29910

洞见|第四范式CEO戴文渊:大数据不再是AI发展瓶颈,未来企业赢在“维度”

三个案例说明:为什么需要把VC维做大 维度做得更高更细,分析才能做得更精细,效率才能够提高。 去年亚马逊市值超过了沃尔玛,更多的人会觉得亚马逊超过沃尔玛是互联网颠覆传统企业。...不是说还有更多客户可以去圈,而是可以做得更好。如果要让一家企业做得比竞争对手更好,就会把预算抢过来,就像亚马逊从沃尔玛那边抢过来一样。 ?...过去奥卡姆原理在做神经网络时候,为什么我们要把神经网络控制在三层以内?是因为那个年代数据量不够。 ? 那个年代数据不多,所以数据不足以支撑我们把数据做大。在数据量不大时候,我们要化繁为简。...从这个原理我们会知道——为什么过去做模型简单为什么神经网络要深度学习?重点原因就是现在数据量变大了。数据量变大了,模型复杂度要和数据量成匹配,要相关。 ?...“从VALIANT引理来看,为什么牛顿提是三大定律而不是三百三千定律?就是人记忆是有局限,人脑里面装不了大数据,所以人能产出就是简单模型。为什么说过去算法也很简单

78270

孙茂松:深度学习红利我们享受得差不多了!

图像在一个视频里也有非常复杂语义,我们现在还做不到完全理解,因为目前图像识别还是比较简单,比如识别一个人,而理解一段视频里丰富语义,计算机还做不到。...这样系统在处理复杂语义时非常脆弱,即使是非常简单日常词汇,目前最先进机器翻译系统也无法做到准确翻译。...所以,我们希望机器来做,人来辅助,但这也不可能一蹴而就,需要分阶段来进行,本阶段可以让机器可以做得一点,人来帮忙,经过迭代才有可能做好。...深度学习里有一个注意力机制,可以做一点简单解释。 学习神经网络可以归纳出它是某种函数形式,这就具有了可解释性,但是机器现在肯定做不到,下一代人工智能也许能做得一点。...NLP学术研究VS工业界 当前国内在自然语言处理学术研究现状究竟如何?做得好和不好点在哪里? “国内自然语言处理从研究角度平均水平认为在国际上应该是在一线,在最好之列。”

45520

做股票数据挖掘一些日志

我们分工是负责整体,还有决策树算法,BM和BAQ负责神经网络,两个学姐负责前期数据工作。 于是上网去找决策树算法,发现网上的人很多程序都不好,写很不完整。...关联规则相关股票预测,具体怎么做,先在网上找了一些论文看,觉得做得都不够好,有一些自己思想,就写出来吧,因为是对自己学习总结,也供大家参考。...尝试了用BP神经网络来做,不过把JVM运行空间调到了1.5G,依然无法承受这个规模数据,不过觉得即使能用好一点机器做了,意义并不大,因为BP神经网络本身是基于黑盒测试技术,我们无法得知它是怎么预测到最后结果...那些发股票数据挖掘说什么BP神经网络,或者SVM在用XX方法挖掘效果非常明显,非常有效本科生,硕士生,博士生,甚至教授们,你们这是在做学术么?...实在不想说太多,因为我们神经网络做得真的够糟,用户至少需要输入20几个浮点数才能进行一次预测,这实在很考验人耐心,但是我们也很无奈,手里信息实在有限,输入麻烦没办法解决,而且神经网络结果平均误差也是较大

1.9K50

网易面试总结(机器学习一些面试)

3、你模型如果用CNN模型如何? 4、损失函数如何去选择? 5、出了sigmoid函数还了解哪些? 6、现在深度网络相比于以前(大概30年前)神经网络有了哪些改进?...1、简单讲述一下教育经历; 2、介绍一下为什么想来这个公司,介绍一下个人兴趣爱好; 3、介绍一下自认为做得最成功项目(这个问得特别细,具体解决了什么问题?如何想到这个方法?...4、你做那个任务可以用简单方法,为何要用这么复杂方法? 5、你做这些项目是基于什么来实现?OpenCV?还是C? 6、如果将来让你去做其他方面的工作,你会怎么办?...不过比上次要进步一点。后面继续加油! 1、自我介绍。...6、谈谈内存泄露避免方法? 7、类大小计算。C语言中变量存储为什么要内存对齐? 8、STL相关问题:vector增长;map是如何实现?(红黑树)红黑树是什么?有什么性质?

1.1K10
领券