Logstash 원리 분석 / 설정 파일 상세 설명 시간 대 ip 역 슬 래 쉬 grok 온라인 주소 형식 변환

16353 단어 ELK
  • 기본 설정 Logstash 자 체 는 클 러 스 터 를 만 들 수 없습니다. Filebeat 는 Logstash 에 연결 한 후 Logstash 서버 가 사용 가능 한 지 자동 으로 문의 합 니 다. 사용 가능 한 Logstash 서버 에 데 이 터 를 보 내 Logstash 설정 을 감청 하고 5044 포트 를 감청 하 며 Filebeat 가 보 낸 일 지 를 받 은 다음 grok 을 이용 하여 로그 에 걸 러 냅 니 다. 로그 에 따라 type 을 설정 합 니 다.로 그 를 Elasticsearch 클 러 스 터 에 저장 합 니 다. 프로젝트 로 그 를 nginx 로그 와 함께 설정 합 니 다. elasticsearch 설정 의 색인 index 에 대문자 로 쓸 수 없습니다. 그렇지 않 으 면 이상 한 bug
    input {
      beats {
        port => "5044"
      }
    }
     
    filter {
     
      date {
          match => ["@timestamp", "yyyy-MM-dd HH:mm:ss"]
      }
      grok {
        match => {
          "source" => "(?([A-Za-z]*-[A-Za-z]*-[A-Za-z]*)|([A-Za-z]*-[A-Za-z]*)|access|error)"
        }
      }
       mutate {
      	convert => [ "upstream_response_time", "float" ]
        }
     
    }
     
    output {
      #                   
      if [type] == "MS-System-OTA"{
        elasticsearch {
          hosts => ["172.18.1.152:9200","172.18.1.153:9200","172.18.1.154:9200"]
          index => "logstash-ms-system-ota-%{+YYYY.MM.dd}"
        }
      }else if [type] == "access" or [type] == "error"{
        elasticsearch {
          hosts => ["172.18.1.152:9200","172.18.1.153:9200","172.18.1.154:9200"]
          index => "logstash-nginx-%{+YYYY.MM.dd}"
        }
      }else{
        elasticsearch {
          hosts => ["172.18.1.152:9200","172.18.1.153:9200","172.18.1.154:9200"]
        }
      }
      stdout {
        codec => rubydebug
      }
    }
    
  • 가 나타 납 니 다.
  • logstash 의 grok - patterns Grok 은 Logstash 의 가장 중요 한 플러그 인 중 하나 입 니 다. 우 리 는 Grok 를 이용 하여 로그 파일 을 분석 하고 우리 가 필요 로 하 는 데 이 터 를 추출 합 니 다
    USERNAME [a-zA-Z0-9._-]+
    USER %{USERNAME}
    INT (?:[+-]?(?:[0-9]+))
    BASE10NUM (?[+-]?(?:(?:[0-9]+(?:\.[0-9]+)?)|(?:\.[0-9]+)))
    NUMBER (?:%{BASE10NUM})
    BASE16NUM (?(?"(?>\\.|[^\\"]+)+"|""|(?>'(?>\\.|[^\\']+)+')|''|(?>`(?>\\.|[^\\`]+)+`)|``))
    UUID [A-Fa-f0-9]{8}-(?:[A-Fa-f0-9]{4}-){3}[A-Fa-f0-9]{12}
    
    # Networking
    MAC (?:%{CISCOMAC}|%{WINDOWSMAC}|%{COMMONMAC})
    CISCOMAC (?:(?:[A-Fa-f0-9]{4}\.){2}[A-Fa-f0-9]{4})
    WINDOWSMAC (?:(?:[A-Fa-f0-9]{2}-){5}[A-Fa-f0-9]{2})
    COMMONMAC (?:(?:[A-Fa-f0-9]{2}:){5}[A-Fa-f0-9]{2})
    IPV6 ((([0-9A-Fa-f]{1,4}:){7}([0-9A-Fa-f]{1,4}|:))|(([0-9A-Fa-f]{1,4}:){6}(:[0-9A-Fa-f]{1,4}|((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3})|:))|(([0-9A-Fa-f]{1,4}:){5}(((:[0-9A-Fa-f]{1,4}){1,2})|:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3})|:))|(([0-9A-Fa-f]{1,4}:){4}(((:[0-9A-Fa-f]{1,4}){1,3})|((:[0-9A-Fa-f]{1,4})?:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){3}(((:[0-9A-Fa-f]{1,4}){1,4})|((:[0-9A-Fa-f]{1,4}){0,2}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){2}(((:[0-9A-Fa-f]{1,4}){1,5})|((:[0-9A-Fa-f]{1,4}){0,3}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){1}(((:[0-9A-Fa-f]{1,4}){1,6})|((:[0-9A-Fa-f]{1,4}){0,4}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(:(((:[0-9A-Fa-f]{1,4}){1,7})|((:[0-9A-Fa-f]{1,4}){0,5}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:)))(%.+)?
    IPV4 (?/(?>[\w_%!$@:.,-]+|\\.)*)+
    TTY (?:/dev/(pts|tty([pq])?)(\w+)?/?(?:[0-9]+))
    WINPATH (?>[A-Za-z]+:|\\)(?:\\[^\\?*]*)+
    URIPROTO [A-Za-z]+(\+[A-Za-z+]+)?
    URIHOST %{IPORHOST}(?::%{POSINT:port})?
    # uripath comes loosely from RFC1738, but mostly from what Firefox
    # doesn't turn into %XX
    URIPATH (?:/[A-Za-z0-9$.+!*'(){},~:;=@#%_\-]*)+
    #URIPARAM \?(?:[A-Za-z0-9]+(?:=(?:[^&]*))?(?:&(?:[A-Za-z0-9]+(?:=(?:[^&]*))?)?)*)?
    URIPARAM \?[A-Za-z0-9$.+!*'|(){},~@#%&/=:;_?\-\[\]]*
    URIPATHPARAM %{URIPATH}(?:%{URIPARAM})?
    URI %{URIPROTO}://(?:%{USER}(?::[^@]*)?@)?(?:%{URIHOST})?(?:%{URIPATHPARAM})?
    
    # Months: January, Feb, 3, 03, 12, December
    MONTH \b(?:Jan(?:uary)?|Feb(?:ruary)?|Mar(?:ch)?|Apr(?:il)?|May|Jun(?:e)?|Jul(?:y)?|Aug(?:ust)?|Sep(?:tember)?|Oct(?:ober)?|Nov(?:ember)?|Dec(?:ember)?)\b
    MONTHNUM (?:0?[1-9]|1[0-2])
    MONTHNUM2 (?:0[1-9]|1[0-2])
    MONTHDAY (?:(?:0[1-9])|(?:[12][0-9])|(?:3[01])|[1-9])
    
    # Days: Monday, Tue, Thu, etc...
    DAY (?:Mon(?:day)?|Tue(?:sday)?|Wed(?:nesday)?|Thu(?:rsday)?|Fri(?:day)?|Sat(?:urday)?|Sun(?:day)?)
    
    # Years?
    YEAR (?>\d\d){1,2}
    HOUR (?:2[0123]|[01]?[0-9])
    MINUTE (?:[0-5][0-9])
    # '60' is a leap second in most time standards and thus is valid.
    SECOND (?:(?:[0-5]?[0-9]|60)(?:[:.,][0-9]+)?)
    TIME (?!
    HTTPDATE %{MONTHDAY}/%{MONTH}/%{YEAR}:%{TIME} %{INT}
    
    # Shortcuts
    QS %{QUOTEDSTRING}
    
    # Log formats
    SYSLOGBASE %{SYSLOGTIMESTAMP:timestamp} (?:%{SYSLOGFACILITY} )?%{SYSLOGHOST:logsource} %{SYSLOGPROG}:
    COMMONAPACHELOG %{IPORHOST:clientip} %{USER:ident} %{USER:auth} \[%{HTTPDATE:timestamp}\] "(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})" %{NUMBER:response} (?:%{NUMBER:bytes}|-)
    COMBINEDAPACHELOG %{COMMONAPACHELOG} %{QS:referrer} %{QS:agent}
    
    # Log Levels
    LOGLEVEL ([Aa]lert|ALERT|[Tt]race|TRACE|[Dd]ebug|DEBUG|[Nn]otice|NOTICE|[Ii]nfo|INFO|[Ww]arn?(?:ing)?|WARN?(?:ING)?|[Ee]rr?(?:or)?|ERR?(?:OR)?|[Cc]rit?(?:ical)?|CRIT?(?:ICAL)?|[Ff]atal|FATAL|[Ss]evere|SEVERE|EMERG(?:ENCY)?|[Ee]merg(?:ency)?)
    
  • 몇 개의 서로 다른 message 에 대해 쓴 grok demo 에서 로그 파일 을 읽 습 니 다.
  • nginx 의 error. log 에 대한 message 처리
  • # message:   2018/09/18 16:33:51 [error] 15003#0: *545757 no live upstreams while connecting to upstream, client: 39.108.4.83, server: dev-springboot-admin.tvflnet.com, request: "POST /instances HTTP/1.1", upstream: "http://localhost/instances", host: "dev-springboot-admin.tvflnet.com"
    
    filter {
      #       
      grok {
        match => { "message" => "%{DATA:timestamp}\ \[%{DATA:level}\] %{DATA:nginxmessage}\, client: %{DATA:client}\, server: %{DATA:server}\, request: "%{DATA:request}\", upstream: "%{DATA:upstream}\", host: "%{DATA:host}\""}
      }
    }
    
  • nginx 의 error. log 에 대한 message 처리
  • # message:    2018/04/19 20:40:27 [error] 4222#0: *53138 open() "/data/local/project/WebSites/AppOTA/theme/js/frame/layer/skin/default/icon.png" failed (2: No such file or directory), client: 218.17.216.171, server: dev-app-ota.tvflnet.com, request: "GET /theme/js/frame/layer/skin/default/icon.png HTTP/1.1", host: "dev-app-ota.tvflnet.com", referrer: "http://dev-app-ota.tvflnet.com/theme/js/frame/layer/skin/layer.css"
    
    filter {
      #       
      grok {
        match => { "message" => "%{DATA:timestamp}\ \[%{DATA:level}\] %{DATA:nginxmessage}\, client: %{DATA:client}\, server: %{DATA:server}\, request: \"%{DATA:request}\", host: \"%{DATA:host}\", referrer: \"%{DATA:referrer}\""}
      }
    }
    
  • lua 의 error. log 메시지 처리
  • # message:    2018/09/05 18:02:19 [error] 2325#0: *17083157 [lua] PushFinish.lua:38: end push statistics, client: 119.137.53.205, server: dev-system-ota-statistics.tvflnet.com, request: "POST /upgrade/push HTTP/1.1", host: "dev-system-ota-statistics.tvflnet.com"
    
    filter {
      #       
      grok {
        match => { "message" => "%{DATA:timestamp}\ \[%{DATA:level}\] %{DATA:luamessage}\, client: %{DATA:client}\, server: %{DATA:server}\, request: \"%{DATA:request}\", host: \"%{DATA:host}\""}
      }
    }
    
  • 텔레비전 인터페이스 로그 에 대한 message 처리
  • # message:    traceid:[Thread:943-sn:sn-mac:mac] 2018-09-18 11:07:03.525 DEBUG com.flnet.utils.web.log.DogLogAspect 55 - Params-  (JSON):{"backStr":"{\"groupid\":5}","build":201808310938,"ip":"119.147.146.189","mac":"mac","modelCode":"SHARP_0_50#SHARP#IQIYI#LCD_50SUINFCA_H","sn":"sn","version":"modelCode"}
    
    filter {
      #       
      grok {
        match => { "message" => "traceid:%{DATA:traceid}\[Thread:%{DATA:thread}\-sn:%{DATA:sn}\-mac:%{DATA:mac}\]\ %{TIMESTAMP_ISO8601:timestamp}\ %{DATA:level}\ %{GREEDYDATA:message}"}
      }
    }
    
  • 프로젝트 로그 에 대한 message 처리
  • # message:    traceid:[] 2018-09-14 02:14:48.209 WARN  de.codecentric.boot.admin.client.registration.ApplicationRegistrator 115 - Failed to register application as Application(name=ta-system-ota, managementUrl=http://TV-DEV-API01:10005/actuator, healthUrl=http://TV-DEV-API01:10005/actuator/health, serviceUrl=http://TV-DEV-API01:10005/, metadata={startup=2018-09-10T10:20:41.812+08:00}) at spring-boot-admin ([https://dev-springboot-admin.tvflnet.com/instances]): I/O error on POST request for "https://dev-springboot-admin.tvflnet.com/instances": connect timed out; nested exception is java.net.SocketTimeoutException: connect timed out. Further attempts are logged on DEBUG level
    
    filter {
      #       
      grok {
        match => { "message" => "traceid:\[%{DATA:traceid}\] %{TIMESTAMP_ISO8601:timestamp}\ %{DATA:level}\ %{GREEDYDATA:message}"}
      }
    }
    
  • nginx 설정 로그
  • # message:     {"@timestamp":"2018-09-20T02:47:00+08:00", "http_host":"":"system-ota-tvapi.tvflnet.com", "", "status":"200", "method":"HEAD / HTTP/1.1", "request_body":"-", "url":"/:"/index.html", "", "host":"":"172.18.156.12", "", "clientip":"":"100.116.222.149", "", "size":"0", "responsetime":"0.000", "upstreamtime":"-", "upstreamhost":"-", "xff":"":"140.205.205.25", "", "referer":"-", "agent":"Go-http-client/1.1"}
    filter {
      #       
      grok {
        match => { "message" =>  "{\"@timestamp\":\"%{TIMESTAMP_ISO8601:timestamp}\", \"http_host\":\"%{DATA:http_host}\", \"status\":\"%{DATA:status}\", \"method\":\"%{DATA:method}\", \"request_body\":\"%{DATA:request_body}\", \"url\":\"%{DATA:url}\", \"host\":\"%{DATA:host}\", \"clientip\":\"%{DATA:clientip}\", \"size\":\"%{DATA:size}\", \"responsetime\":\"%{DATA:responsetime}\", \"upstreamtime\":\"%{DATA:upstreamtime}\", \"upstreamhost\":\"%{DATA:upstreamhost}\", \"xff\":\"%{DATA:xff}\", \"referer\":\"%{DATA:referer}\", \"agent\":\"%{DATA:agent}\"}"
      }
    }
    
    여러 개의 서로 다른 일치 설정 에 대해 여러 개의 grok Logstash 시작 명령: nohup. / bin / logstash - f. / config / conf. d / logstash - simple. conf > / dev / null 2 > & 1 &
  • 날짜 와 시간 에 대한 처리
  • filter {
      date {
        #                 
        match => [ "logdate", "MMM dd yyyy HH:mm:ss","ISO8601" ]
        target => "fieldName1"
        timezone => "Asia/Shanghai"
      }
    }
    
    date 플러그 인 특유 의 옵션 은 다음 과 같 습 니 다.
  • local
  • string 유형
  • 로 컬 방언 을 지정 하 는 데 기본 값 이 없습니다. 예 를 들 어 en, en-US 등 입 니 다. 주로 숫자 가 아 닌 달, 날, 예 를 들 어 Monday, May 등 을 분석 하 는 데 사 용 됩 니 다. 시간 날짜 가 모두 숫자 라면 이 값 에 관심 을 가 질 필요 가 없습니다.
  • match
  • array 유형
  • 기본 값 은 [] 지정 한 필드 를 지정 한 형식 으로 해석 하 는 데 사 용 됩 니 다. 예 를 들 어
  • match => ["createtime", "yyyyMMdd","yyyy-MM-dd"]
    
    첫 번 째 값 은 필드 이름 이 고 나머지 값 은 해석 형식 입 니 다. 가능 한 형식 이 여러 개 있 으 면 여러 개 를 설정 할 수 있 습 니 다.
  • tag_on_failure
  • array 유형
  • 기본 값 ["_dateparsefailure"]tags 필드 에 값 을 추가 합 니 다. 날짜 분석 에 실패 하면.
  • target
  • string 유형
  • 기본 값 @timestamp
  • 전 환 된 날 짜 를 지정 하여 저장 할 필드 이름
  • timezone
  • string 유형
  • 분석 할 시간 대 를 지정 하 는 데 사용 할 기본 값 이 없습니다. 시간 대 canonical ID 를 지정 하면 사용 할 수 있 는 값 을 볼 수 있 습 니 다. 일반적으로 설정 하지 않 습 니 다. 현재 시스템 의 시간 대 에 따라 이 값 을 가 져 오기 때 문 입 니 다. 여기 설 치 된 시간 대 는 logstash 최종 저장 시간 대 가 아 닙 니 다. logstash 최종 저장 시간 대 는 UTC 입 니 다.표준 시간. 예 를 들 어 여기 설정 시간 은 20171120:
  • 시간 대가 Asia/Shanghai 이면 전환 후의 시간 은 2017-11-19T16:00:00.000Z 이다.시간 대가 Europe/Vienna 이면 전환 후의 시간 은 2017-11-19T23:00:00.000Z 이다.시간 대 문제 처리
    ruby { 
    	code => "event.set('timestamp', event.get('@timestamp').time.localtime + 8*60*60)" 
    }
    ruby {
    	code => "event.set('@timestamp',event.get('timestamp'))"
    }
    
  • 전의 문자 (기타 문자) 의 변환
    mutate {
       gsub => [
         "request_body", "\\x22", '"'
       ]
       gsub => [
         "request_body", "\\x0A", "
    " ] }
  • JSON 처리
    json {
       source => "message"
     }
    
  • 일부 항목 삭제
    mutate {
      remove_field => [ "message" ]
    }
    
  • 형식 변환
    mutate {
      convert => [ "upstream_response_time", "float" ]
    }
    
    Elasticsearch 필드 데이터 형식 Elasticsearch 는 하나의 document 에 여러 개의 다른 데이터 형식 을 포함 하 는 것 을 지원 할 수 있 습 니 다.
  • 핵심 데이터 형식 (핵심 데이터 형식)
  • 문자 형 (String datatype): string
  • 디지털 형 (Numeric datatypes): long: 64 비트 저장, integer: 32 비트 저장, short: 16 비트 저장, byte: 8 비트 저장, double: 64 비트 더 블 정밀도 저장, float: 32 비트 단일 정밀도 저장
  • 날짜 형 (Date datatype): date
  • 불 형 (Boolean datatype): boolean
  • 바 이 너 리 형 (Binary datatype): binary
  • 복잡 한 데이터 형식 (복잡 한 데이터 형식)
  • 배열 형식 (Array datatype): 배열 형식 은 배열 요소 의 type 을 지정 할 필요 가 없습니다. 예 를 들 어:
  • 문자 배열: ["one", "two"]
  • 정형 수조: [1, 2]
  • 배열 형 배열: [1, [2, 3] 등가 [1, 2, 3]
  • 대상 배열: [{"name": "Mary", "age": 12}, {"name": "John", "age": 10}]
  • 대상 유형 (Object datatype): object 단일 JSON 대상 에 사용;
  • 내장 형식 (Nested datatype): nested JSON 배열 에 사용 합 니 다.

  • 지리 적 위치 유형 (Geo datatype)
  • 지리 좌표 유형 (Geo - point datatype): geo_point 경위도 좌표 에 사용 합 니 다.
  • 지리 적 모양 유형 (Geo - Shape datatype): geo_shape 다각형 과 유사 한 복잡 한 모양 에 사용 합 니 다.

  • 전문 유형 (Specialised datatype)
  • IPv 4 형식 (IPv 4 datatype): ip IPv 4 주소 에 사용 합 니 다.
  • Completion 형식 (Completion datatype): completion 자동 완성 제안 을 제공 합 니 다.
  • Token count 형식 (Token count datatype): token_count 표 시 된 필드 의 index 수 를 통계 하 는 데 사 용 됩 니 다. 이 값 은 계속 증가 하고 여과 조건 으로 인해 감소 하지 않 습 니 다.
  • mapper - murmur 3 유형: 플러그 인 을 통 해 murmur3 index 의 hash 값 을 계산 할 수 있 습 니 다.
  • 추가 형식 (Attachment datatype): mapper-attachments 플러그 인 을 사용 하여 Microsoft Office 형식, Open Document 형식, ePub, HTML 등 색인 을 지원 할 수 있 습 니 다.

  • Logstash attachments 역 슬 래 쉬 처리 이용 '\'mutate 처리 문자열 은 슬 래 쉬 를 유지 할 때 해석 에 실 패 했 습 니 다. 역 슬 래 쉬 를 유지 하려 면 역 슬 래 쉬 뒤에 문 자 를 보관 해 야 합 니 다. 다음 과 같 습 니 다
    mutate {
      gsub => [
        "request_body", "\\x5C\\x22", '\\"'
      ]
    
  • Logstash 처리 ip
    	geoip {
    		source => "clientip"
    	}
    
  • Logstash 온라인 인증 주소
  • 국내:http://grok.qiexun.net/
  • 외국:http://grokdebug.herokuapp.com/
  • 상세 한 자료:https://www.cnblogs.com/iiiiher/p/7919149.html
  • grok 문법:https://github.com/kkos/oniguruma/blob/master/doc/RE
  • 좋은 웹페이지 즐겨찾기