Nginx 이벤트 구동 모듈 연결 처리
16324 단어 부하 균형Nginx 놀 라 움 군
Nginx 는 master - worker 다 중 프로 세 스 모드 에서 작 동 하기 때문에 모든 worker 프로 세 스 가 같은 시간 에 같은 포트 를 감청 하면 이 포트 에 새로운 연결 이벤트 가 발생 할 때 모든 worker 프로 세 스 는 함수 ngx 를 호출 합 니 다.event_accept 는 새로운 연결 과 통신 을 시도 합 니 다. 즉, 모든 워 커 프로 세 스 가 깨 어 납 니 다. 이것 이 바로 '놀 라 운 그룹' 문제 입 니 다. 그러면 시스템 성능 이 떨 어 집 니 다.다행히 Nginx 에서 ngx 를 사 용 했 습 니 다.accept_mutex 동기 화 잠 금 메커니즘, 즉 이 잠 금 을 가 져 온 worker 프로 세 스 만 이 새로운 연결 이 벤트 를 처리 할 수 있 으 며, 같은 시간 에 하나의 worker 프로 세 스 만 이 포트 를 감청 할 수 있 습 니 다.이렇게 하면 '놀 라 움' 문 제 를 해결 할 수 있 지만 이에 따라 또 다른 문제 가 발생 할 수 있 습 니 다. 만약 에 매번 발생 하 는 새로운 연결 사건 이 같은 워 커 프로 세 스 에 의 해 잠 겨 있 는 권 리 를 얻 고 이 연결 사건 을 처리 하면 프로 세 스 간 의 불 균형 상 태 를 초래 할 수 있 습 니 다. 즉, 모든 워 커 프로 세 스 에서 일부 프로 세 스 가 처리 하 는 연결 사건 의 수량 이 매우 많 습 니 다.일부 프로 세 스 는 기본적으로 연결 이 벤트 를 처리 하지 않 고 빈 상태 에 있 습 니 다.따라서 워 커 프로 세 스 간 부하 불 균형 을 초래 하고 Nginx 의 전체 성능 에 영향 을 줄 수 있 습 니 다.부하 불 균형 문 제 를 해결 하기 위해 Nginx 는 동기 화 잠 금 을 실현 한 토대 에서 부하 한도 값 ngx 를 정의 했다.accept_disabled, 어떤 worker 프로 세 스 의 부하 한도 값 이 0 보다 클 때 이 프로 세 스 가 부하 초과 상태 에 있다 는 것 을 나타 내 면 Nginx 는 이 프로 세 스 를 제어 하여 새로운 연결 이벤트 와 통신 할 기회 가 없 게 합 니 다. 그러면 부하 초과 가 없 는 다른 프로 세 스 에 새로운 연결 이 벤트 를 처리 할 기 회 를 만들어 프로 세 스 간 부하 균형 을 이 룰 수 있 습 니 다.
연결 이벤트 처리
새 연결 이 벤트 는 함수 ngxevent_accept 처리.
/* */
void
ngx_event_accept(ngx_event_t *ev)
{
socklen_t socklen;
ngx_err_t err;
ngx_log_t *log;
ngx_uint_t level;
ngx_socket_t s;
ngx_event_t *rev, *wev;
ngx_listening_t *ls;
ngx_connection_t *c, *lc;
ngx_event_conf_t *ecf;
u_char sa[NGX_SOCKADDRLEN];
#if (NGX_HAVE_ACCEPT4)
static ngx_uint_t use_accept4 = 1;
#endif
if (ev->timedout) {
if (ngx_enable_accept_events((ngx_cycle_t *) ngx_cycle) != NGX_OK) {
return;
}
ev->timedout = 0;
}
/* ngx_event_core_module */
ecf = ngx_event_get_conf(ngx_cycle->conf_ctx, ngx_event_core_module);
if (ngx_event_flags & NGX_USE_RTSIG_EVENT) {
ev->available = 1;
} else if (!(ngx_event_flags & NGX_USE_KQUEUE_EVENT)) {
ev->available = ecf->multi_accept;
}
lc = ev->data;/* */
ls = lc->listening;/* */
ev->ready = 0;/* */
ngx_log_debug2(NGX_LOG_DEBUG_EVENT, ev->log, 0,
"accept on %V, ready: %d", &ls->addr_text, ev->available);
do {
socklen = NGX_SOCKADDRLEN;
/* accept */
#if (NGX_HAVE_ACCEPT4)
if (use_accept4) {
s = accept4(lc->fd, (struct sockaddr *) sa, &socklen,
SOCK_NONBLOCK);
} else {
s = accept(lc->fd, (struct sockaddr *) sa, &socklen);
}
#else
s = accept(lc->fd, (struct sockaddr *) sa, &socklen);
#endif
/* */
if (s == (ngx_socket_t) -1) {
err = ngx_socket_errno;
if (err == NGX_EAGAIN) {
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, ev->log, err,
"accept() not ready");
return;
}
level = NGX_LOG_ALERT;
if (err == NGX_ECONNABORTED) {
level = NGX_LOG_ERR;
} else if (err == NGX_EMFILE || err == NGX_ENFILE) {
level = NGX_LOG_CRIT;
}
#if (NGX_HAVE_ACCEPT4)
ngx_log_error(level, ev->log, err,
use_accept4 ? "accept4() failed" : "accept() failed");
if (use_accept4 && err == NGX_ENOSYS) {
use_accept4 = 0;
ngx_inherited_nonblocking = 0;
continue;
}
#else
ngx_log_error(level, ev->log, err, "accept() failed");
#endif
if (err == NGX_ECONNABORTED) {
if (ngx_event_flags & NGX_USE_KQUEUE_EVENT) {
ev->available--;
}
if (ev->available) {
continue;
}
}
if (err == NGX_EMFILE || err == NGX_ENFILE) {
if (ngx_disable_accept_events((ngx_cycle_t *) ngx_cycle)
!= NGX_OK)
{
return;
}
if (ngx_use_accept_mutex) {
if (ngx_accept_mutex_held) {
ngx_shmtx_unlock(&ngx_accept_mutex);
ngx_accept_mutex_held = 0;
}
ngx_accept_disabled = 1;
} else {
ngx_add_timer(ev, ecf->accept_mutex_delay);
}
}
return;
}
#if (NGX_STAT_STUB)
(void) ngx_atomic_fetch_add(ngx_stat_accepted, 1);
#endif
/*
* ngx_accept_disabled , ;
* ;
* accept 7/8 ,
* ngx_accept_disabled 0, ;
*/
ngx_accept_disabled = ngx_cycle->connection_n / 8
- ngx_cycle->free_connection_n;
/* connections connection */
c = ngx_get_connection(s, ev->log);
if (c == NULL) {
if (ngx_close_socket(s) == -1) {
ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_socket_errno,
ngx_close_socket_n " failed");
}
return;
}
#if (NGX_STAT_STUB)
(void) ngx_atomic_fetch_add(ngx_stat_active, 1);
#endif
/* pool, pool */
c->pool = ngx_create_pool(ls->pool_size, ev->log);
if (c->pool == NULL) {
ngx_close_accepted_connection(c);
return;
}
c->sockaddr = ngx_palloc(c->pool, socklen);
if (c->sockaddr == NULL) {
ngx_close_accepted_connection(c);
return;
}
ngx_memcpy(c->sockaddr, sa, socklen);
log = ngx_palloc(c->pool, sizeof(ngx_log_t));
if (log == NULL) {
ngx_close_accepted_connection(c);
return;
}
/* set a blocking mode for aio and non-blocking mode for others */
/* */
if (ngx_inherited_nonblocking) {
if (ngx_event_flags & NGX_USE_AIO_EVENT) {
if (ngx_blocking(s) == -1) {
ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_socket_errno,
ngx_blocking_n " failed");
ngx_close_accepted_connection(c);
return;
}
}
} else {
/* epoll , */
if (!(ngx_event_flags & (NGX_USE_AIO_EVENT|NGX_USE_RTSIG_EVENT))) {
if (ngx_nonblocking(s) == -1) {
ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_socket_errno,
ngx_nonblocking_n " failed");
ngx_close_accepted_connection(c);
return;
}
}
}
*log = ls->log;
/* */
c->recv = ngx_recv;
c->send = ngx_send;
c->recv_chain = ngx_recv_chain;
c->send_chain = ngx_send_chain;
c->log = log;
c->pool->log = log;
c->socklen = socklen;
c->listening = ls;
c->local_sockaddr = ls->sockaddr;
c->local_socklen = ls->socklen;
c->unexpected_eof = 1;
#if (NGX_HAVE_UNIX_DOMAIN)
if (c->sockaddr->sa_family == AF_UNIX) {
c->tcp_nopush = NGX_TCP_NOPUSH_DISABLED;
c->tcp_nodelay = NGX_TCP_NODELAY_DISABLED;
#if (NGX_SOLARIS)
/* Solaris's sendfilev() supports AF_NCA, AF_INET, and AF_INET6 */
c->sendfile = 0;
#endif
}
#endif
/* 、 */
rev = c->read;
wev = c->write;
/* */
wev->ready = 1;
if (ngx_event_flags & (NGX_USE_AIO_EVENT|NGX_USE_RTSIG_EVENT)) {
/* rtsig, aio, iocp */
rev->ready = 1;
}
if (ev->deferred_accept) {
rev->ready = 1;
#if (NGX_HAVE_KQUEUE)
rev->available = 1;
#endif
}
rev->log = log;
wev->log = log;
/*
* TODO: MT: - ngx_atomic_fetch_add()
* or protection by critical section or light mutex
*
* TODO: MP: - allocated in a shared memory
* - ngx_atomic_fetch_add()
* or protection by critical section or light mutex
*/
c->number = ngx_atomic_fetch_add(ngx_connection_counter, 1);
#if (NGX_STAT_STUB)
(void) ngx_atomic_fetch_add(ngx_stat_handled, 1);
#endif
#if (NGX_THREADS)
rev->lock = &c->lock;
wev->lock = &c->lock;
rev->own_lock = &c->lock;
wev->own_lock = &c->lock;
#endif
if (ls->addr_ntop) {
c->addr_text.data = ngx_pnalloc(c->pool, ls->addr_text_max_len);
if (c->addr_text.data == NULL) {
ngx_close_accepted_connection(c);
return;
}
c->addr_text.len = ngx_sock_ntop(c->sockaddr, c->socklen,
c->addr_text.data,
ls->addr_text_max_len, 0);
if (c->addr_text.len == 0) {
ngx_close_accepted_connection(c);
return;
}
}
#if (NGX_DEBUG)
{
struct sockaddr_in *sin;
ngx_cidr_t *cidr;
ngx_uint_t i;
#if (NGX_HAVE_INET6)
struct sockaddr_in6 *sin6;
ngx_uint_t n;
#endif
cidr = ecf->debug_connection.elts;
for (i = 0; i < ecf->debug_connection.nelts; i++) {
if (cidr[i].family != (ngx_uint_t) c->sockaddr->sa_family) {
goto next;
}
switch (cidr[i].family) {
#if (NGX_HAVE_INET6)
case AF_INET6:
sin6 = (struct sockaddr_in6 *) c->sockaddr;
for (n = 0; n < 16; n++) {
if ((sin6->sin6_addr.s6_addr[n]
& cidr[i].u.in6.mask.s6_addr[n])
!= cidr[i].u.in6.addr.s6_addr[n])
{
goto next;
}
}
break;
#endif
#if (NGX_HAVE_UNIX_DOMAIN)
case AF_UNIX:
break;
#endif
default: /* AF_INET */
sin = (struct sockaddr_in *) c->sockaddr;
if ((sin->sin_addr.s_addr & cidr[i].u.in.mask)
!= cidr[i].u.in.addr)
{
goto next;
}
break;
}
log->log_level = NGX_LOG_DEBUG_CONNECTION|NGX_LOG_DEBUG_ALL;
break;
next:
continue;
}
}
#endif
ngx_log_debug3(NGX_LOG_DEBUG_EVENT, log, 0,
"*%uA accept: %V fd:%d", c->number, &c->addr_text, s);
/* ;
* : epoll , ,
* epoll ls->handler(c)
*( ngx_http_init_connection) , epoll ;
*/
if (ngx_add_conn && (ngx_event_flags & NGX_USE_EPOLL_EVENT) == 0) {
if (ngx_add_conn(c) == NGX_ERROR) {
ngx_close_accepted_connection(c);
return;
}
}
log->data = NULL;
log->handler = NULL;
/*
* , ,
* ngx_http_init_connection
*/
ls->handler(c);
/* available , 1 Nginx */
if (ngx_event_flags & NGX_USE_KQUEUE_EVENT) {
ev->available--;
}
} while (ev->available);
}
/* socket */
static ngx_int_t
ngx_enable_accept_events(ngx_cycle_t *cycle)
{
ngx_uint_t i;
ngx_listening_t *ls;
ngx_connection_t *c;
/* */
ls = cycle->listening.elts;
/* */
for (i = 0; i < cycle->listening.nelts; i++) {
/* socket */
c = ls[i].connection;
/* active */
if (c->read->active) {
/* active , */
continue;
}
/* , */
if (ngx_event_flags & NGX_USE_RTSIG_EVENT) {
if (ngx_add_conn(c) == NGX_ERROR) {
return NGX_ERROR;
}
} else {
/* , */
if (ngx_add_event(c->read, NGX_READ_EVENT, 0) == NGX_ERROR) {
return NGX_ERROR;
}
}
}
return NGX_OK;
}
/* */
static ngx_int_t
ngx_disable_accept_events(ngx_cycle_t *cycle)
{
ngx_uint_t i;
ngx_listening_t *ls;
ngx_connection_t *c;
/* */
ls = cycle->listening.elts;
for (i = 0; i < cycle->listening.nelts; i++) {
/* */
c = ls[i].connection;
if (!c->read->active) {
continue;
}
/* */
if (ngx_event_flags & NGX_USE_RTSIG_EVENT) {
if (ngx_del_conn(c, NGX_DISABLE_EVENT) == NGX_ERROR) {
return NGX_ERROR;
}
} else {
/* */
if (ngx_del_event(c->read, NGX_READ_EVENT, NGX_DISABLE_EVENT)
== NGX_ERROR)
{
return NGX_ERROR;
}
}
}
return NGX_OK;
}
새로운 연결 이벤트 가 발생 했 을 때 동기 화 잠 금 을 가 져 온 프로 세 스 만 이 연결 이 벤트 를 처리 할 수 있 습 니 다. '놀 라 운 그룹' 문 제 를 피 할 수 있 습 니 다. 프로 세 스 는 새로운 연결 이 벤트 를 함수 ngx 로 처리 하려 고 합 니 다.trylock_accept_mutex 구현.
/* */
ngx_int_t
ngx_trylock_accept_mutex(ngx_cycle_t *cycle)
{
/* ngx_accept_mutex , 1, 0 */
if (ngx_shmtx_trylock(&ngx_accept_mutex)) {
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"accept mutex locked");
/*
* ngx_accept_mutex_held 1 ngx_accept_mutex ;
* , ngx_accept_mutex ;
* ;
*/
if (ngx_accept_mutex_held
&& ngx_accept_events == 0
&& !(ngx_event_flags & NGX_USE_RTSIG_EVENT))
{
return NGX_OK;
}
/* epoll */
if (ngx_enable_accept_events(cycle) == NGX_ERROR) {
/* , */
ngx_shmtx_unlock(&ngx_accept_mutex);
return NGX_ERROR;
}
/* */
ngx_accept_events = 0;
ngx_accept_mutex_held = 1;/* ngx_accept_mutex */
return NGX_OK;
}
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"accept mutex lock failed: %ui", ngx_accept_mutex_held);
/*
* ngx_accept_mutex , ngx_accept_mutex_held 1,
*
*/
if (ngx_accept_mutex_held) {
/* */
if (ngx_disable_accept_events(cycle) == NGX_ERROR) {
return NGX_ERROR;
}
ngx_accept_mutex_held = 0;
}
return NGX_OK;
}
Nginx 부하 한도 값 통과 ngxaccept_disabled 프로 세 스 가 새로운 연결 이 벤트 를 처리 할 지 여부 입 니 다. 프로 세 스 간 부하 균형 문 제 를 피 할 수 있 습 니 다.
if(ngx_accept_disabled > 0){
ngx_accept_disabled --;
}else{
if(ngx_trylock_accept_mutex(cycle) == NGX_ERROR){
return;
}
...
}
참고 자료:
& lt; Nginx 깊이 이해 & gt;
《 깊이 분석 Nginx 》.
《 Nginx 소스 코드 분석 - 이벤트 순환 》
< ngx trylock accept mutex 에 대한 설명 >
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Haproxy 웹 클러스터 구축실험 준비: Haproxy 서버 1대, Nginx 서버 2대, 클라이언트 1대(로컬 컴퓨터 사용) Nginx 서버: ### 참고: 둘 다 비슷한 작업을 수행해야 합니다. Haproxy 서비스: 테스트: 클라이언트가 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.