k8s 용기 인 스 턴 스 응용 시 문제 요약
4008 단어 k8s
분석: 먼저 생각 나 는 것 은 flanneld 가 두 노드 에서 정상적으로 작 동 하지 않 았 다 는 것 이다.
1. flanneld 의 네트워크 카드 정보 보기
[root@k8s2-1 ~]# ifconfig
docker0: flags=4163 mtu 1472
inet 10.25.1.1 netmask 255.255.255.0 broadcast 0.0.0.0
inet6 fe80::42:c5ff:fe30:de12 prefixlen 64 scopeid 0x20
ether 02:42:c5:30:de:12 txqueuelen 0 (Ethernet)
RX packets 58 bytes 3880 (3.7 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 18 bytes 1412 (1.3 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ens33: flags=4163 mtu 1500
inet 192.168.191.21 netmask 255.255.255.0 broadcast 192.168.191.255
inet6 fe80::370c:bd9e:9b5a:ed83 prefixlen 64 scopeid 0x20
ether 00:0c:29:de:b2:e0 txqueuelen 1000 (Ethernet)
RX packets 34986 bytes 15926405 (15.1 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 33482 bytes 6913324 (6.5 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
flannel0: flags=4305 mtu 1472
inet 10.25.1.0 netmask 255.255.0.0 destination 10.25.1.0
inet6 fe80::1b37:644b:a7ca:c658 prefixlen 64 scopeid 0x20
unspec 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00 txqueuelen 500 (UNSPEC)
RX packets 785 bytes 65940 (64.3 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 19 bytes 1488 (1.4 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73 mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10
loop txqueuelen 1000 (Local Loopback)
RX packets 247 bytes 29744 (29.0 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 247 bytes 29744 (29.0 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
veth5112d6a: flags=4163 mtu 1472
inet6 fe80::54f3:44ff:fed1:43f3 prefixlen 64 scopeid 0x20
ether 56:f3:44:d1:43:f3 txqueuelen 0 (Ethernet)
RX packets 18 bytes 1412 (1.3 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 41 bytes 3290 (3.2 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
flannel 0 네트워크 카드 정 보 는 flanneld 구성 요 소 를 설치 한 후 자동 으로 생 성 됩 니 다.같은 호스트 에 없 는 POD 데 이 터 를 받 은 다음 받 은 데 이 터 를 flanneld 프로 세 스에 전송 하 는 tun 가상 네트워크 카드
venth5112a 네트워크 카드: cnni 0 은 같은 호스트 pod 에서 공유 하 는 브리지 입 니 다. kubelet 이 용 기 를 만 들 때 이 용 기 를 가상 네트워크 카드 vethxxx 를 만 들 고 다 리 는 cnni 0 네트워크 다 리 를 받 습 니 다.
2. etcd 에 저 장 된 네트워크 설정 정보 보기, 정보 정상
[root@k8s1-1 ~]# etcdctl ls
/k8s
/registry
[root@k8s1-1 ~]# etcdctl ls /k8s/network
/k8s/network/subnets
/k8s/network/config
[root@k8s1-1 ~]# etcdctl ls /k8s/network/subnets
/k8s/network/subnets/10.25.1.0-24
/k8s/network/subnets/10.25.15.0-24
/k8s/network/subnets/10.25.92.0-24
[root@k8s1-1 ~]# etcdctl ls /k8s/network/subnets/10.25.1.0-24
/k8s/network/subnets/10.25.1.0-24
[root@k8s1-1 ~]# etcdctl get /k8s/network/subnets/10.25.1.0-24
{"PublicIP":"192.168.191.21"}
[root@k8s1-1 ~]# etcdctl get /k8s/network/subnets/10.25.15.0-24
{"PublicIP":"192.168.191.20"}
[root@k8s1-1 ~]# etcdctl get /k8s/network/subnets/10.25.15.0-24
3. node 노드 의 경로 정 보 를 조회 하 는데 그 중에서 xxx. xxx. 1.0 xxx. xxx. 1.1 브리지 정 보 는 master 에서 모두 ping 할 수 있 습 니 다. 구체 적 으로 pod 의 ip 에 도착 하면 ping 이 통 하지 않 고 궁금 합 니 다.
4. 마지막 으로 생각 나 는 것 은 k8s 가 iptables 와 관련 되 어 iptables - P INPUT ACCEPT 를 실 행 했 습 니 다.iptables -P FORWARD ACCEPT;iptables - F 이후 다시 ping 이 성공 했다.
2.{kubelet k8s-node-2} spec.containers{ct} Warning BackOff Back-off restarting failed docker container
미 러 가 실행 되 지 않 았 습 니 다. 당연히 종료 합 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
[K8s] Kubernetes Pod를 다시 시작하는 방법이 경우 빠르고 쉽게 다시 시작할 수 있는 방법이 필요할 수 있습니다. 따라서 단일 포드를 다시 시작하는 간단한 방법이 없습니다. 이 문서에서 다룰 몇 가지 사용 가능한 옵션이 있습니다. ReplicaSet에서 유지...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.