开车了,别忘了开车载音乐~
使用 Celery 进行异步任务和 cron 作业(不需要使用 UNIX cron)
开发的前两个星期,你可能不需要将任务放到异步进程中执行,但是当你的非技术联合创始人开始问为什么这个站点 hang 住了,那就是时候祭出 Celery 了(如果你需要更轻巧的东西,当然还有其他选择)。任何不需要同步的请求都可以排队,并最终由 Celery Worker 处理掉。我建议使用 redis 作为 Celery 的后端。除非你有充分的理由,否则不要在 RabbitMQ 上浪费时间,我一般使用 Celery 发送邮件或者从 API 拉取数据。另一个小技巧是,你可以设置定期任务作为一个 cron job。
使用 Gunicorn 搭建你的网站,而不是 Apache
Apache 是经过战斗考验的,但是两年前我还是个新手的时候,我屁都不知道,它配置起来相当复杂。我只是想让一个网站正常运行,并忽略掉我代码里面的 。Apache 有大量的配置需要去理解,这是我最受不了的。而 Gunicorn 非常简单,你只需要
当然,处理静态文件,我推荐 Nginx
使用 PostgreSQL 作为你的主数据库
PostgreSQL 支持 JSONB 数据类型,这意味着你可以在 PostgreSQL 中存储 ,运行类似 MongoDB 那样的查询(带索引),而不会影响性能。最最重要的是,你仍然可以使用 Django ORM 和 Django admin
最近笔者看到一个统计报告,关系数据库的份额不降反增,啧啧
为 URL 命一个别名
后端使用 来将别名转换为 URL
前端则使用 URL 的模板标签
看起来蛮笨的,但是它会为您节省大量的时间,因为没有任何 URL 的硬编码,一个 URL 的改变,不会破坏任何的单元测试。
正确的使用 settings.py 文件
关于这个,已经有很多讨论了,就我个人而言,我喜欢将生产环境和开发环境的通用配置创建一个新文件 保存,再创建两个配置文件:
生产环境配置:
开发环境配置:
它们均会在开头将 中的所有配置导入进去,再差异化的添加配置(同名也可以覆盖),像这样:
然后修改
这样,我可以直接在本地使用:
现在你明白为什么我们仍然使用 settings.py 作为开发环境配置的名字的原因了吗?
而在生产环境,我们可以直接:
So easy!
使用 Supervisor 来进行进程监控
如果你还没听过 supervisor,而且正要将服务部署在基于 UNIX 的计算机上,那你可以继续向下看:Supervisor 将为你控制所有进程,您只需要为每个进程添加一个单独的配置文件。如果进程挂了,Supervisor 将会为你重新启动,一些例子:Celery-beat,Celery,Gunicorn,StatsD,MongoDB 等。
选择在恰当的时候是用 JSON,比如使用 Django-rest-framework
除非你想用 HTML 来完成整个页面的更新(当然,这也没什么错)
Django 有一个内置的 JSON HTTP 响应:
当然如果你是 Django ORM 的重度使用者(你应该是),那么 Django-rest-framework 是个神器
使用 Redis
因为它最终会成为你最好的帮手,正如文章开头建议的,在一开始,Redis 可以用来协助 Celery 工作,然后,当时机成熟,你可以将你的会话存储到 Redis 中,你还可以将 Redis 作为缓存,还可以使用 Redis 来自动完成,总之,我只用 Redis
使用 Munin 或者 StatsD 来监控进程
Munin 可以让你画出几乎任何图表,StatsD 可以让你为任何东西计时、计数(累加)。有了它们,你可以监控你想监控的一切
你还可以很轻松的使用 Python 编写自己的 Munin 插件
最后,使用 VueJS 全家桶构建你的前端页面
后续会出一个全栈教程
正文完
不仅仅分享 Python、VueJS、统计学、AI
领取专属 10元无门槛券
私享最新 技术干货