Kubernetes-in-action (二)
探针
作用
- 用来探测程序是否处于正常状态, 异常如JVM OOM,死锁导致无法处理请求。
探测容器的机制
- HTTP GET探针: 对程序进行http get 请求,响应异常既pod需要重启
- TCP套接字探针:与程序进行TCP连接,失败则重启
- Exec探针: 在容器内执行任意命令,并查看退出码,如果非0,则需要重启。
实践
apiVersion: v1
kind: Pod
metadata:name: kubia-liveness
spec:containers:- image: luksa/kubia-unhealthyname: kubialivenessProbe: httpGet:path: /port: 8080initialDelaySeconds: 15
ReplicationController
作用
- 管理pod,弹性伸缩。 如果pod是单独创建的,那么node节点故障时,不会被重建,但是使用ReplicationController后,会在其他node上重建pod,并保证数量一致。
- 一般使用label来识别该pod是否被管控
实践
apiVersion: v1
kind: ReplicationController
metadata:name: kubia
spec:replicas: 3selector:app: kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubiaports:- containerPort: 8080
kubectl scale rc kubia --replicas=10
# 扩容kubectl edit rc kubia
# 修改文件的配置,并且保存后立即生效kubectl delete rc kubia --cascade=false
# 删除RC但是不删除pod
注意事项
- 如果修改了pod 的标签,那么RC会新建pod,因为RC是根据标签来判断的。
kubectl label pod kubia-tm2jw app=foo --overwrite
# 修改label
- 如果修改了RC文件种的匹配标签,那么会创建出新的pod,旧的pod就不被管理了
- 修改RC种pod的template时候,并不会马上作用于现在的pod上,需要删除旧的才会有新的。
ReplicaSet
作用
- 与ReplicationController相似,但是在其基础上提供更丰富的声明表达,现在基本都是用RS而不是RC。
- 如RC只能管理具有指定的某些label的pod,后者对label的管理可以是匹配其中之一,或者全不匹配等等
实践
apiVersion: apps/v1beta2
kind: ReplicaSet
metadata:name: kubia
spec:replicas: 3selector:matchLabels:app: kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubia
- 使用 matchExpressions 来管理pod
apiVersion: apps/v1beta2
kind: ReplicaSet
metadata:name: kubia
spec:replicas: 3selector:matchExpressions:- key: appoperator: In values:- kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubia
- 删除RS命令:
kubectl delete rs kubia
# 删除rs包括pod
DaemonSet
作用
- 它不关心副本数量,只关心为每个符合的node都要建一个pod
实践
apiVersion: apps/v1beta2
kind: DaemonSet
metadata:name: ssd-monitor
spec:selector:matchLabels:app: ssd-monitortemplate:metadata:labels:app: ssd-monitorspec:nodeSelector:disk: ssdcontainers:- name: mainimage: luksa/ssd-monitor
- get ds 信息:
kubectl get d
- 给node加label:
kubectl label node node-name disk=ssd
- 修改node的label:
kubectl label node node-name disk=hdd --overwrite
# 修改后,pod会被删除
Job
作用
实践
- 查看job:
kubectl get job
- 创建一个普通job
apiVersion: batch/v1
kind: Job
metadata:name: batch-job
spec:template:metadata:labels:app: batch-jobspec:restartPolicy: OnFailure containers:- name: mainimage: luksa/batch-job
apiVersion: batch/v1
kind: Job
metadata:name: multi-completion-batch-job
spec:completions: 5 parallelism: 2 activeDeadlineSeconds: 10 backoffLimit: 1 template:metadata:labels:app: batch-jobspec:restartPolicy: OnFailurecontainers:- name: mainimage: luksa/batch-job
apiVersion: batch/v1beta1
kind: CronJob
metadata:name: batch-job-every-fifteen-minutes
spec:schedule: "0,15,30,45 * * * *" startingDeadlineSeconds: 15 jobTemplate:spec:template:metadata:labels:app: periodic-batch-jobspec:restartPolicy: OnFailurecontainers:- name: mainimage: luksa/batch-job