首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

必备无损放大图片 让图片更清晰

今天恰鹿导航收录了2个实用的图片放大网站,图片放大,有人以为非常简单,随便就放大了,可是将图片放大2倍-4倍8倍 16倍,还能保持清晰吗?这一个图片放大,是可以将原图很小,无损放大,而且会变的清晰的。演示图效果。

演示的图片是一个只有45X47像素的图标 非常的小,放大到4倍,比普通放大还要清晰很多,一目了然,日常我们很多都会用到,为了方便大家,恰鹿导航已经将此网站收录,无需收藏。在恰鹿导航–资源-图片搜索分类。。手机端的位置在资源分享-图片分类

网址1:http://bigjpg.com/

网址2:http://waifu2x.udp.jp/index.zh-CN.html

原理:使用最新人工智能深度学习技术——深度卷积神经网络waifu2x ,针对放大图片的线条、颜色、网点等特点,做特殊的算法调整,所以放大效果非常出色, 色彩保留较好, 图片边缘也不会有毛刺和重影,。更重要的是,影响画质的噪点基本在放大的图片上看不出来。赶快去试试吧!

------------------------------------------------------------------------------

对卷积神经网络的研究可追溯至日本学者福岛邦彦(Kunihiko Fukushima)提出的neocognitron模型。在其1979 [7-8] 和1980年 [9] 发表的论文中,福岛仿造生物的视觉皮层(visual cortex)设计了以“neocognitron”命名的神经网络。neocognitron是一个具有深度结构的神经网络,并且是最早被提出的深度学习算法之一 [10] ,其隐含层由S层(Simple-layer)和C层(Complex-layer)交替构成。其中S层单元在感受野(receptive field)内对图像特征进行提取,C层单元接收和响应不同感受野返回的相同特征 [9] 。neocognitron的S层-C层组合能够进行特征提取和筛选,部分实现了卷积神经网络中卷积层(convolution layer)和池化层(pooling layer)的功能,被认为是启发了卷积神经网络的开创性研究 [11] 。

第一个卷积神经网络是1987年由Alexander Waibel等提出的时间延迟网络(Time Delay Neural Network, TDNN) [12] 。TDNN是一个应用于语音识别问题的卷积神经网络,使用FFT预处理的语音信号作为输入,其隐含层由2个一维卷积核组成,以提取频率域上的平移不变特征 [13] 。由于在TDNN出现之前,人工智能领域在反向传播算法(Back-Propagation, BP)的研究中取得了突破性进展 [14] ,因此TDNN得以使用BP框架内进行学习。在原作者的比较试验中,TDNN的表现超过了同等条件下的隐马尔可夫模型(Hidden Markov Model, HMM),而后者是二十世纪80年代语音识别的主流算法 [13] 。

1988年,Wei Zhang提出了第一个二维卷积神经网络:平移不变人工神经网络(SIANN),并将其应用于检测医学影像 [3] 。独立于Zhang (1988) [3] ,Yann LeCun在1989年同样构建了应用于图像分类的卷积神经网络,即LeNet的最初版本 [5] 。LeNet包含两个卷积层,2个全连接层,共计6万个学习参数,规模远超TDNN和SIANN,且在结构上与现代的卷积神经网络十分接近 [11] 。LeCun (1989) [5] 对权重进行随机初始化后使用了随机梯度下降(Stochastic Gradient Descent, SGD)进行学习,这一策略被其后的深度学习研究广泛采用。此外,LeCun (1989)在论述其网络结构时首次使用了“卷积”一词 [5] ,“卷积神经网络”也因此得名。

LeCun (1989) [5] 的工作在1993年由贝尔实验室(AT&T Bell Laboratories)完成代码开发并被大量部署于NCR(National Cash Register Coporation)的支票读取系统 [11] 。但总体而言,由于数值计算能力有限、学习样本不足,加上同一时期以支持向量机(Support Vector Machine, SVM)为代表的核学习(kernel learning)方法的兴起,这一时期为各类图像处理问题设计的卷积神经网络停留在了研究阶段,没有得到广泛应用 [2] 。

在LeNet的基础上,1998年Yann LeCun及其合作者构建了更加完备的卷积神经网络LeNet-5并在手写数字的识别问题中取得成功 [15] 。LeNet-5沿用了LeCun (1989) 的学习策略并在原有设计中加入了池化层对输入特征进行筛选 [15] 。LeNet-5及其后产生的变体定义了现代卷积神经网络的基本结构,其构筑中交替出现的卷积层-池化层被认为有效提取了输入图像的平移不变特征 [16] 。LeNet-5的成功使卷积神经网络的应用得到关注,微软在2003年使用卷积神经网络开发了光学字符读取(Optical Character Recognition, OCR)系统 [17] 。其它基于卷积神经网络的应用研究也得到展开,包括人像识别 [18] 、手势识别 [19] 等。

在2006年深度学习理论被正式提出后 [20] ,卷积神经网络的表征学习能力得到了关注,并随着数值计算设备的更新开始快速发展 [2] 。自2012年的AlexNet [21] 开始,卷积神经网络多次成为ImageNet大规模视觉识别竞赛(ImageNet Large Scale Visual Recognition Challenge, ILSVRC) [22] 的优胜算法,包括2013年的ZFNet [23] 、2014年的VGGNet、GoogLeNet [24] 和2015年的ResNet [25] 。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190808A04JQ700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券