首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

关于在服务器上发布网站遇到的两个问题之解决方案

背景:使用SSM框架+MySql编写的网站,在windows平台上发布。 在自己服务器以及本地发布都正常,交付客户是,在他的阿里云服务器上部署出现以下两个问题: 1.安装Java和Tomcat之后,打包放入网站,启动Tomcat服务器,正常,没有任何异常,但是通过IP地址,或者Localhost访问网站,页面数据能正常显示,但是所有的css,js,图片等静态资源全部都不能加载,network显示500异常。 2.程序某些表中的文件查询没有结果,但是控制台输出的sql语句直接粘贴在图形化软件中,能查询出数据。注:只是某些表查不出来数据。 解决方案: 1.从防火墙,到网络限制,等等都考虑了,无果,最后从网上看到原因是Jdk1.8不支持Spring3.x,无奈将1.8删除,安装1.7,然后正常了,接下来出现了2的问题。 2.删除数据库,重新导入数据文件,远程粘贴数据表,等等,也是尝试N多方案,最后想起来我新建数据库的时候没有选择字符编码,当时考虑会使用默认的编码方式(因为我安装数据库的时候都选择默认编码方式utf-8,有的mysql版本支持选择,有的不支持。),谁知道这个数据库别人没有选择,所以我又将数据库编码方式修改为utf-8,如下图

02

Python爬虫之基本原理

网络爬虫(Web crawler),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有其能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。从功能上来讲,爬虫一般分为数据采集,处理,储存三个部分。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。

03
领券