前段时间第一次接触大流量并发,而那时候我还没有相关经验,所以代码写的很渣,导致服务器死了又死
现在也算有点经验了,本文章主要说明下我现在能理解的一些优化方案
一:架构方面
1:前台采用nginx服务器的静态页面,不用php的模板引擎以及php输出(静态页面不用经过php,可以减少一些消耗)
2:后端采用api方式输出,只输出数据,前端用前端框架进行渲染数据
3:前端图片,css等资源,全部放到cdn去,避免浪费带宽
二,后端语言方面
1:一切都做好缓存,根据数据的变动频率做好相对的缓存并设定好缓存时间(注意更改数据之后记得改变下缓存数据,以免发生数据不一致的错误)
可缓存的数据: 变动频率低的数据(网站配置,某些不变动的列表),计算量过大的数据(需要数据库count(),num(),或者数据量大需要筛选的数据),计算时间长的数据(等待第三方接口数据,等);
2:尽量避免重复查询数据库
3:代码逻辑方面写好,尽量避免重复循环
三:数据库优化方面
1:做好索引优化,传送门:http://blog.csdn.net/linminqin/article/details/44342205
2:做好缓存,根据上面说到的做缓存
四,系统方面
1:nginx服务器做好性能优化,传送门:https://www.cnblogs.com/kevingrace/p/6094007.html
2:超时时间根据平均响应时间做出相应的降低,以免未响应的连接一直占用nginx进程造成资源浪费
五,服务器方面
1:有钱能使鬼推磨,加钱加配置,加钱上多服务器负载均衡
2:mysql做主从,读写分离
以上就是个人现在能理解的一些优化方面,其他的暂时不知道,大佬们勿喷,有错请指点