千万级数据并发如何处理?进入学习

本教程操作环境:Windows7系统、PHP8.1版、Dell G3电脑。


(资料图)

php 高并发报语法错误怎么解决?

Nginx+Php高并发报502、504问题解决:

最近在帮公司优化php项目。一边优化一边百度。这个项目访问量挺大的(平均每分钟请求在80000+)。

用了三台aws服务器。两台8核16G、一台4核16G。小的这台做Nginx并跑少量的php-fpm进程。基本上放上去就挂。访问全是502、504。因为项目是没有问题的,之前测试跑过了。然后就开始百度找问题。

1、怀疑是nginx的配置访问数或者连接数太小了扛不住,然后就增加nginx的两个参数。

每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为worker_processes*worker_connections

worker_connections 5000;

一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除

worker_rlimit_nofile 20000;

php请求的超时时间和缓存等

fastcgi_connect_timeout 300;fastcgi_send_timeout 300;fastcgi_read_timeout 300;fastcgi_buffer_size 64k;fastcgi_buffers 4 64k;fastcgi_busy_buffers_size 128k;fastcgi_temp_file_write_size 256k;

nginx设置完了 重启一下。。但是测试了一下 完全没反应。

2、怀疑是php的配置问题。

确认php-fpm的worker进程是否够用,如果不够用就等于没有开启一样

计算开启worker进程数目:

ps -ef | grep "php-fpm"|grep -v "master"|grep -v "grep" |wc -l

计算正在使用的worker进程,正在处理的请求

netstat -anp | grep "php-fpm"|grep -v "LISTENING"|grep -v "php-fpm.conf"|wc -l

如果上面两个值接近可以考虑增加worker_connections进程的数量

以及修改修改php-fpm.conf中的php进程数。无论是调大还是调小这几个参数都不行。。。。绝望了!

修改了php-fpm.conf的日志级别log_level = debug。在error_log文件中看到了一下错误:

[29-Mar-2014 22:40:10] ERROR: failed to ptrace(PEEKDATA) pid 4276: Input/output error (5)[29-Mar-2014 22:53:54] ERROR: failed to ptrace(PEEKDATA) pid 4319: Input/output error (5)[29-Mar-2014 22:56:30] ERROR: failed to ptrace(PEEKDATA) pid 4342: Input/output error (5)

于是,我又开始google这个错误。找到一遍文章(http://www.mamicode.com/info-detail-1488604.html)。上面说需要禁用掉记录的慢日志;slowlog = /var/log/php-fpm/slow.log;request_slowlog_timeout = 15s。此时,我才知道php也是记录访问时请求比较慢的日志。然后打开慢日志文件。发现全是php请求redis的错误日志。。。

找到问题原因了,就是php请求redis数据的时候,应该是请求的连接数太多了。redis连接不上导致的问题。。因为此处的业务比较复杂,所以redis的key是多个字段拼接的。查询的时候是用的模糊查询。所有导致redis的性能下降,后面大量的请求连接不上redis。因为这块儿链接redis的代码是我改的。。于是我又把原来请求mysql的代码还原了。。

目前项目正常运行了,每台服务器的cpu基本上都快100%了。担心还会出问题,cpu爆满,mysql的请求连接抗不住。。。等后面再来优化吧!!!!

推荐学习:《PHP视频教程》

以上就是php 高并发报语法错误怎么解决的详细内容,更多请关注php中文网其它相关文章!

推荐内容