Spring Cloud 재 시도 요청 메커니즘 핵심 코드 분석

장면
마이크로 서 비 스 를 발표 하 는 작업 은 일반적으로 새로운 코드 의 가방 을 만 들 고 kill 이 도망 가 는 응용 프로그램 에서 떨 어 지 며 새로운 가방 을 교체 하고 시작 합 니 다.
spring cloud 에 서 는 eureka 를 등록 센터 로 사용 합 니 다.서비스 목록 데이터 의 지연 성 을 허용 합 니 다.즉,응용 이 서비스 목록 에 없 더 라 도 클 라 이언 트 는 한동안 이 주 소 를 요청 합 니 다.게시 중인 주 소 를 요청 하 는 데 실패 할 수 있 습 니 다.
저 희 는 서비스 목록 의 갱신 시간 을 최적화 하여 서비스 목록 정보의 실효 성 을 높 일 것 입 니 다.그러나 어쨌든 한동안 데이터 가 일치 하지 않 는 것 은 피 할 수 없다.
그래서 우 리 는 하나의 방법 이 바로 재 시도 체제 라 고 생각 합 니 다.a 기계 가 재 부팅 할 때 같은 군집 의 b 는 정상적으로 서 비 스 를 제공 할 수 있 습 니 다.만약 에 재 시도 체제 가 있 으 면 위 장면 에서 b 로 재 시도 할 수 있 고 정확 한 응답 에 영향 을 주지 않 습 니 다.
조작 하 다.
다음 작업 이 필요 합 니 다:

ribbon:
 ReadTimeout: 10000
 ConnectTimeout: 10000
 MaxAutoRetries: 0
 MaxAutoRetriesNextServer: 1
 OkToRetryOnAllOperations: false
spring-retry 패키지 도입

<dependency>
  <groupId>org.springframework.retry</groupId>
  <artifactId>spring-retry</artifactId>
 </dependency>
zuul 을 예 로 들 면 오픈 재 시도 설정 이 필요 합 니 다.

zuul.retryable=true
문제 에 봉착 하 다
그러나 모든 것 이 순 조 롭 지 못 했 습 니 다.테스트 재 시도 체 제 를 통 해 효력 이 발생 했 습 니 다.그러나 제 가 생각 했 던 다른 건강 한 기 계 를 요청 하지 않 았 습 니 다.그래서 어 쩔 수 없 이 소스 코드 를 열 어 보 았 습 니 다.결국은 소스 코드 의 bug 라 는 것 을 알 게 되 었 습 니 다.하지만 이미 복원 되 었 습 니 다.업그레이드 버 전 을 보면 됩 니 다.
코드 분석
사용 한 버 전 은?
spring-cloud-netflix-core:1.3.6.RELEASE
spring-retry:1.2.1.RELEASE
spring 클 라 우 드 의존 버 전:

<dependencyManagement>
    <dependencies>
      <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-dependencies</artifactId>
        <version>${spring-cloud.version}</version>
        <type>pom</type>
        <scope>import</scope>
      </dependency>
    </dependencies>
  </dependencyManagement>
재 시도 가 활성화 되 어 있 기 때문에,응용 프로그램 을 요청 할 때 Retryable Ribbon LoadBalancingHttpClient.execute 방법 을 실행 합 니 다.

public RibbonApacheHttpResponse execute(final RibbonApacheHttpRequest request, final IClientConfig configOverride) throws Exception {
    final RequestConfig.Builder builder = RequestConfig.custom();
    IClientConfig config = configOverride != null ? configOverride : this.config;
    builder.setConnectTimeout(config.get(
        CommonClientConfigKey.ConnectTimeout, this.connectTimeout));
    builder.setSocketTimeout(config.get(
        CommonClientConfigKey.ReadTimeout, this.readTimeout));
    builder.setRedirectsEnabled(config.get(
        CommonClientConfigKey.FollowRedirects, this.followRedirects));

    final RequestConfig requestConfig = builder.build();
    final LoadBalancedRetryPolicy retryPolicy = loadBalancedRetryPolicyFactory.create(this.getClientName(), this);
    RetryCallback retryCallback = new RetryCallback() {
      @Override
      public RibbonApacheHttpResponse doWithRetry(RetryContext context) throws Exception {
        //on retries the policy will choose the server and set it in the context
        //extract the server and update the request being made
        RibbonApacheHttpRequest newRequest = request;
        if(context instanceof LoadBalancedRetryContext) {
          ServiceInstance service = ((LoadBalancedRetryContext)context).getServiceInstance();
          if(service != null) {
            //Reconstruct the request URI using the host and port set in the retry context
            newRequest = newRequest.withNewUri(new URI(service.getUri().getScheme(),
                newRequest.getURI().getUserInfo(), service.getHost(), service.getPort(),
                newRequest.getURI().getPath(), newRequest.getURI().getQuery(),
                newRequest.getURI().getFragment()));
          }
        }
        newRequest = getSecureRequest(request, configOverride);
        HttpUriRequest httpUriRequest = newRequest.toRequest(requestConfig);
        final HttpResponse httpResponse = RetryableRibbonLoadBalancingHttpClient.this.delegate.execute(httpUriRequest);
        if(retryPolicy.retryableStatusCode(httpResponse.getStatusLine().getStatusCode())) {
          if(CloseableHttpResponse.class.isInstance(httpResponse)) {
            ((CloseableHttpResponse)httpResponse).close();
          }
          throw new RetryableStatusCodeException(RetryableRibbonLoadBalancingHttpClient.this.clientName,
              httpResponse.getStatusLine().getStatusCode());
        }
        return new RibbonApacheHttpResponse(httpResponse, httpUriRequest.getURI());
      }
    };
    return this.executeWithRetry(request, retryPolicy, retryCallback);
  }

우 리 는 먼저 retry Callback 을 발견 한 후에 this.execute WithRetry(request,retry Policy,retry Callback)를 실행 합 니 다.
이 Retry Callback.do With Retry 코드 는 실제 요청 한 코드 임 을 잘 알 고 있 습 니 다.즉,this.execute With Retry 방법 은 결국 Retry Callback.do With Retry 를 호출 합 니 다.

protected <T, E extends Throwable> T doExecute(RetryCallback<T, E> retryCallback,
      RecoveryCallback<T> recoveryCallback, RetryState state)
      throws E, ExhaustedRetryException {

    RetryPolicy retryPolicy = this.retryPolicy;
    BackOffPolicy backOffPolicy = this.backOffPolicy;

    // Allow the retry policy to initialise itself...
    RetryContext context = open(retryPolicy, state);
    if (this.logger.isTraceEnabled()) {
      this.logger.trace("RetryContext retrieved: " + context);
    }

    // Make sure the context is available globally for clients who need
    // it...
    RetrySynchronizationManager.register(context);

    Throwable lastException = null;

    boolean exhausted = false;
    try {

      // Give clients a chance to enhance the context...
      boolean running = doOpenInterceptors(retryCallback, context);

      if (!running) {
        throw new TerminatedRetryException(
            "Retry terminated abnormally by interceptor before first attempt");
      }

      // Get or Start the backoff context...
      BackOffContext backOffContext = null;
      Object resource = context.getAttribute("backOffContext");

      if (resource instanceof BackOffContext) {
        backOffContext = (BackOffContext) resource;
      }

      if (backOffContext == null) {
        backOffContext = backOffPolicy.start(context);
        if (backOffContext != null) {
          context.setAttribute("backOffContext", backOffContext);
        }
      }

      /*
       * We allow the whole loop to be skipped if the policy or context already
       * forbid the first try. This is used in the case of external retry to allow a
       * recovery in handleRetryExhausted without the callback processing (which
       * would throw an exception).
       */
      while (canRetry(retryPolicy, context) && !context.isExhaustedOnly()) {

        try {
          if (this.logger.isDebugEnabled()) {
            this.logger.debug("Retry: count=" + context.getRetryCount());
          }
          // Reset the last exception, so if we are successful
          // the close interceptors will not think we failed...
          lastException = null;
          return retryCallback.doWithRetry(context);
        }
        catch (Throwable e) {

          lastException = e;

          try {
            registerThrowable(retryPolicy, state, context, e);
          }
          catch (Exception ex) {
            throw new TerminatedRetryException("Could not register throwable",
                ex);
          }
          finally {
            doOnErrorInterceptors(retryCallback, context, e);
          }

          if (canRetry(retryPolicy, context) && !context.isExhaustedOnly()) {
            try {
              backOffPolicy.backOff(backOffContext);
            }
            catch (BackOffInterruptedException ex) {
              lastException = e;
              // back off was prevented by another thread - fail the retry
              if (this.logger.isDebugEnabled()) {
                this.logger
                    .debug("Abort retry because interrupted: count="
                        + context.getRetryCount());
              }
              throw ex;
            }
          }

          if (this.logger.isDebugEnabled()) {
            this.logger.debug(
                "Checking for rethrow: count=" + context.getRetryCount());
          }

          if (shouldRethrow(retryPolicy, context, state)) {
            if (this.logger.isDebugEnabled()) {
              this.logger.debug("Rethrow in retry for policy: count="
                  + context.getRetryCount());
            }
            throw RetryTemplate.<E>wrapIfNecessary(e);
          }

        }

        /*
         * A stateful attempt that can retry may rethrow the exception before now,
         * but if we get this far in a stateful retry there's a reason for it,
         * like a circuit breaker or a rollback classifier.
         */
        if (state != null && context.hasAttribute(GLOBAL_STATE)) {
          break;
        }
      }

      if (state == null && this.logger.isDebugEnabled()) {
        this.logger.debug(
            "Retry failed last attempt: count=" + context.getRetryCount());
      }

      exhausted = true;
      return handleRetryExhausted(recoveryCallback, context, state);

    }
    catch (Throwable e) {
      throw RetryTemplate.<E>wrapIfNecessary(e);
    }
    finally {
      close(retryPolicy, context, state, lastException == null || exhausted);
      doCloseInterceptors(retryCallback, context, lastException);
      RetrySynchronizationManager.clear();
    }
  }
while 순환 에서 재 시도 체 제 를 실현 합 니 다.retry Callback.do With Retry(context)를 실행 할 때 catch 이상 이 발생 한 다음 에 retry Policy 로 재 시도 여 부 를 판단 합 니 다.특히 registerThrowable(retry Policy,state,context,e)에 주의 하 십시오.방법 은 재 시도 여 부 를 판단 할 뿐만 아니 라 재 시도 상황 에서 새로운 기 계 를 선택 하여 context 에 넣 은 다음 에 retry Callback.do With Retry(context)를 실행 할 때 가 져 옵 니 다.그러면 교체 기 재 시도 가 실 현 됩 니 다.
근 데 내 배치 가 왜 안 바 뀌 었 지?디버그 코드 발견 registerThrowable(retryPolicy,state,context,e);선택 한 기 계 는 괜 찮 습 니 다.바로 새로운 건강 한 기계 입 니 다.그러나 retry Callback.do With Retry(context)코드 를 실행 할 때 도 끊 어 진 기 계 를 요청 합 니 다.
그래서 retry Callback.do With Retry(context)의 코드 를 다시 한 번 살 펴 보 겠 습 니 다.
우 리 는 이 줄 의 코드 를 발견 했다.

newRequest = getSecureRequest(request, configOverride);
protected RibbonApacheHttpRequest getSecureRequest(RibbonApacheHttpRequest request, IClientConfig configOverride) {
    if (isSecure(configOverride)) {
      final URI secureUri = UriComponentsBuilder.fromUri(request.getUri())
          .scheme("https").build(true).toUri();
      return request.withNewUri(secureUri);
    }
    return request;
  }
new Request 는 앞에서 context 를 사용 하여 구축 되 었 습 니 다.request 는 지난번 에 요청 한 데이터 입 니 다.이 코드 를 실행 하면 new Request 는 영원히 request 로 덮어 쓸 것 입 니 다.이곳 을 보고 나 서 야 우 리 는 원래 소스 bug 였 다 는 것 을 알 게 되 었 다.
issue 주소:https://github.com/spring-cloud/spring-cloud-netflix/issues/2667
총결산
이것 은 매우 일반적인 문 제 를 조사 하 는 과정 이다.이 과정 에서 내 가 설정 이 기대 에 미 치지 못 한 것 을 발 견 했 을 때 나 는 먼저 설정 의 의 미 를 살 펴 보고 여러 번 결과 가 없 었 다.그래서 정지점 디 버 깅 을 실시 하여 이상 한 중단 점 을 발견 한 후에 장면 에 기계 한 대가 건강 하고 기계 한 대가 오프라인 되 어야 하기 때문에 나 는 수백 번 을 모 의 한 후에 야 이 코드 를 찾 았 다.오픈 소스 프로젝트 는 우수한 프로젝트 라 도 bug 가 존재 하고 미신 을 믿 지 않 으 며 맹목적 이지 않 습 니 다.다른 한편,소스 코드 를 읽 는 능력 도 문 제 를 해결 하 는 중요 한 능력 이다.예 를 들 어 내 가 소스 코드 입 구 를 찾 을 때 코드 를 찾 는 데 많은 시간 을 들 였 다.
이상 이 바로 본 고의 모든 내용 입 니 다.여러분 의 학습 에 도움 이 되 고 저 희 를 많이 응원 해 주 셨 으 면 좋 겠 습 니 다.

좋은 웹페이지 즐겨찾기