반복 성능 평가 작업을 Jenkins에 의뢰하고 결과(Python+Jupyter)를 Redmine 티켓 발행까지 받는다

성능 검증을 하면 몇번이나 다시 하거나 하는 것으로,, 매번, 로그로부터 분석 평가 작업을 Excel로 만들어 배포하게 됩니다만. . .
이것이 매번이 되면 쵸 멘도쿠사이게 되어 오는 것입니다.

그래서 조금 스키마 시간이 생겼기 때문에 수중에 있는 툴을 사용하여 반자동으로 지표 산출 + 그래프 작성 + 공개하는 구조를 만들었습니다.

특히 새로운 것은 없고 사용한 것은




  • egrep
  • scp
  • Python+Jupyter
  • Redmine

  • 자동 실행은 친숙한 분에게 부탁했습니다.
  • Jenkins


  • 추신:



    실제로 사용하기 시작하면 다양한 고려가 필요한 것을 알았습니다.
  • egrep 결과가 0 건 고려 ... RC는 0으로 반환하지 않고 도중에 멈춘다
  • 0 건 레코드를 df 로 읽는 경우, parse 를 지정하고 있는 경우의 고려・・・에러가 됩니다.
  • 빈 파일은 티켓 첨부를 할 수 없다・・・에러가 됩니다.

  • 같은 대책도 필요하므로 조심하십시오.

    죄송합니다만 회사에서 코드를 작성했으므로 여기에서는 공개할 수 없습니다.
    양해 바랍니다.

    데이터 추출



    apache 로그와 WACs 로그에서 비즈니스 트랜잭션 총량, Service 별 트랜잭션 라인을 추출합니다. 이 단계에서 카운트 대상외의 품목도 떨어뜨립니다(egrep).

    서버는 곳곳에 있으므로 각각 작업을 하는 것이 조금 번거롭다.



    SCP를 사용하여 하나의 서버로 수집합니다.

    모여 온 데이터에 대해 Jupyter라도 이것 즐길 수 있습니다.
    지표 산출과 그래프 작성까지 해 버립니다.


    지표와 그래프를 어떻게 보여줄까,



    개발 현장이므로 Redmine과 Python을 연계시킵니다 (REST에서 ... 편리!)


    지금까지의 작업을 Jenkins에 등록, 자동 실행합니다.



    몇 번이라도 불평하지 않고 해줍니다. 과연.

    결과 공개



    이용자는 발행된 티켓을 브라우저로 보는 것만!
    뭐야~ 이 편리함은. . . .

    오늘부터 사용하기 시작했지만 정말 좋습니다.



    순식간에 분석 결과를 환원할 수 있으므로 프로젝트 참가자로부터도 호평이었습니다.
    테스트 작업에 집중할 수 있습니다.

    단지 egpre 결과 0건 고려 등 여러가지 있어, , , , 코드는 아직 치밀하게 개수하고 있습니다.
    현장에서는 생각하지 않는 일도 일어나는 것입니다. . . 그리고.

    좋은 웹페이지 즐겨찾기