首页
学习
活动
专区
工具
TVP
发布

有趣的django

欢迎加入qq群:211599322 博客园地址:https://www.cnblogs.com/derek1184405959/
专栏作者
259
文章
390399
阅读量
157
订阅数
9.Flask Cookie和Session
cookie:在网站中,http请求是无状态的。也就是说即使第一次和服务器连接后并且登录成功后,第二次请求服务器依然不能知道当前请求是哪个用户。cookie的出现就是为了解决这个问题,第一次登录后服务器返回一些数据(cookie)给浏览器,然后浏览器保存在本地,当该用户发送第二次请求的时候,就会把上次请求存储的cookie数据自动的携带给服务器,服务器通过浏览器携带的数据就能判断当前是哪个用户了。cookie存储的数据量有限,不同的浏览器有不同的存储大小,但一般不超过4kb。因此使用cookie只能存储一些小量的数据。
zhang_derek
2018-08-30
9670
微信小程序实战–集阅读与电影于一体的小程序项目(八)
31.电影详情页面 movie-template.wxml <view class="movie-container" catchtap="onMovieTap" data-movieId="{{movieId}}"> movie.js onMovieTap:function(event) { var movieId = event.currentTarget.dataset.movieid; wx.navigateTo({ url: "movie-detail/movie-d
zhang_derek
2018-08-30
5170
微信小程序实战–集阅读与电影于一体的小程序项目(五)
21.电影页面数据绑定 movies.js var app = getApp(); Page({ data: { inTheaters: {}, comingSoon: {}, top250: {}, }, /** * 生命周期函数--监听页面加载 */ onLoad: function (options) { var baseUrl = app.globalData.g_baseUrl; var inTheatersUrl = base
zhang_derek
2018-08-30
6750
微信小程序实战–集阅读与电影于一体的小程序项目(四)
19.添加电影tabBar tabBar文档 在posts目录下新建movies目录,分别创建四个文件 app.json配置tabBar { "pages": [ "pages/posts/post", "pages/welcome/welcome", "pages/posts/post-detail/post-detail", "pages/movies/movies" ], "window": { "navigationBarBackgrou
zhang_derek
2018-08-30
6020
微信小程序实战–集阅读与电影于一体的小程序项目(三)
在文章详情页,点击播放音乐后,然后返回到文章列表页,再进到详情页,发现播放按钮是暂停状态,这是因为应用程序存在生命周期,下面就解决这个问题。
zhang_derek
2018-08-30
8930
微信小程序实战–集阅读与电影于一体的小程序项目(二)
9.文章列表页跳转到文章详情页 给每篇文章添加个postId posts-data.js var local_database = [{ date: "2018/8/16", title: "荷塘月色", imgSrc: '/images/post/sls.JPG', content: '这几天心里颇不宁静。今晚在院子里坐着乘凉,忽然想起日日走过的荷塘,在这满月的光里,总该另有一番样子吧。', reading: "100", collection: '50', avatar: '
zhang_derek
2018-08-30
6130
微信小程序实战--集阅读与电影于一体的小程序项目(一)
真正的数据肯定不可能像上面那样写在wxml文件里面,而是从服务器加载的数据,下面模拟从服务器加载数据。
zhang_derek
2018-08-30
1.1K0
微信小程序入门(三)
四个组成部分,其它三个前面介绍过了,主要WXS: WXS:对wxml增强的一种脚本语言,可以对请求的数据进行filter或者做计算处理,帮助wxml快速构建出页面结构。
zhang_derek
2018-08-30
4910
微信小程序入门(二)
5.安装微信开发者工具 小程序入口文档 点“小程序开发”-->>"工具-->>再点左边的“下载”,进行开发者工具的下载 6.小程序代码结构简介 登陆开发者工具,创建小程序项目 目录结构 7.小程序配置
zhang_derek
2018-08-30
8960
正则表达式爬取猫眼电影
正则表达式爬取猫眼电影Top100 import requests import re,json from multiprocessing import Pool def get_one_page(
zhang_derek
2018-08-10
3630
3.python词云图的生成
3.1.python词云图 安装库 pip install jieba wordcloud matplotlib 准备 txt文本 字体(simhei.ttf) 词云背景图片 代码 import matplotlib.pyplot as plt import jieba from wordcloud import WordCloud #1.读出歌词 text = open('jack.txt','r',encoding='utf-8').read() #2.把歌词剪开 cut_text = jieba.c
zhang_derek
2018-08-10
1.1K0
2.matplotlib画散点图
2.1.身高和体重实例 import matplotlib.pyplot as plt height = [161,162,163,164,165] weight = [50,60,70,80,90
zhang_derek
2018-08-10
7690
1.numpy的用法
numpy创建ndarray对象的三种方法 1.1.list转化 In [8]: import numpy as np In [9]: a = [1,2,3,4] In [10]: x1 = np.array(a) In [11]: x1 Out[11]: array([1, 2, 3, 4]) In [12]: type(x1) Out[12]: numpy.ndarray 1.2.numpy内的函数生存 In [13]: x2 = np.arange(11) In [14]: x2 Out[1
zhang_derek
2018-08-10
2480
21天打造分布式爬虫-房天下全国658城市房源(十一)
项目:爬取房天下网站全国所有城市的新房和二手房信息 网站url分析 1.获取所有城市url http://www.fang.com/SoufunFamily.htm 例如:http://cq.fang.com/ 2.新房url http://newhouse.sh.fang.com/house/s/ 3.二手房url http://esf.sh.fang.com/ 4.北京新房和二手房url规则不同 http://newhouse.fang.com/house/s
zhang_derek
2018-08-10
8690
21天打造分布式爬虫-简书整站爬取(十)
10.1.简书整站爬虫 创建项目 scrapy startproject jianshu scrapy genspider -t crawl jianshu_spider "jianshu.com" jianshu_spider.py # -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from j
zhang_derek
2018-08-10
4130
21天打造分布式爬虫-下载汽车之家图片(九)
9.1.下载汽车之家图片 新建项目 scrapy startproject bmx scrapy genspider bmx5 "car.autohome.com.cn" bmx5.py # -*- coding: utf-8 -*- import scrapy from bmx.items import BmxItem class Bmx5Spider(scrapy.Spider): name = 'bmx5' allowed_domains = ['car.autohome.com.
zhang_derek
2018-08-10
3640
21天打造分布式爬虫-Crawl爬取小程序社区(八)
8.1.Crawl的用法实战 新建项目 scrapy startproject wxapp scrapy genspider -t crawl wxapp_spider "wxapp-union.com" wxapp_spider.py # -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from
zhang_derek
2018-08-10
8920
21天打造分布式爬虫-Scrapy框架(七)
pip install Twisted-18.7.0-cp36-cp36m-win_amd64.whl
zhang_derek
2018-08-10
2380
21天打造分布式爬虫-多线程下载表情包(五)
5.1.threading模块 简单使用 import threading,time def coding(): for x in range(3): print('正在写代码%s'%x) time.sleep(2) def drawing(): for x in range(3): print('正在画画%s'%x) time.sleep(2) def main(): t1 = threading.Thread(
zhang_derek
2018-08-10
3200
21天打造分布式爬虫-中国天气网和古诗文网实战(四)
网址:http://www.weather.com.cn/textFC/hb.shtml
zhang_derek
2018-08-10
5270
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档