深入K8s:守护进程DaemonSet及其源码分析( 二 )

下面我们看一下podsShouldBeOnNode方法是如何判断哪些Pod需要创建和删除的:
在podsShouldBeOnNode会调用nodeShouldRunDaemonPod方法来判断该node是否需要运行 daemon pod 以及能不能调度成功 , 然后获取该node上有没有创建该daemon pod 。
通过判断shouldRun, shouldContinueRunning将需要创建 daemon pod 的 node 列表以及需要删除的 pod 列表获取到 , shouldSchedule 主要检查 node 上的资源是否充足 , shouldContinueRunning 默认为 true 。
func (dsc *DaemonSetsController) podsShouldBeOnNode(node *v1.Node,nodeToDaemonPods map[string][]*v1.Pod,ds *apps.DaemonSet,) (nodesNeedingDaemonPods, podsToDelete []string, err error) {//判断该 node 是否需要运行 daemon pod 以及能不能调度成功shouldRun, shouldContinueRunning, err := dsc.nodeShouldRunDaemonPod(node, ds)if err != nil {return}//获取该节点上的指定ds的pod列表daemonPods, exists := nodeToDaemonPods[node.Name]switch {//如果daemon pod是可以运行在这个node上 , 但是还没有创建 , 那么创建一个case shouldRuni < len(daemonPodsRunning); i++ {podsToDelete = append(podsToDelete, daemonPodsRunning[i].Name)}}//如果 pod 不需要继续运行但 pod 已存在则需要删除 podcase !shouldContinueRunning--tt-darkmode-bgcolor: #C0BEB8;">DaemonSet 对象的滚动更新和StatefulSet是一样的 , 可以通过 .spec.updateStrategy.type 设置更新策略 。 目前支持两种策略:

  • OnDelete:默认策略 , 更新模板后 , 只有手动删除了旧的 Pod 后才会创建新的 Pod;
  • RollingUpdate:更新 DaemonSet 模版后 , 自动删除旧的 Pod 并创建新的 Pod 。
具体的滚动更新可以在:深入k8s:kubernetes的StatefulSet控制器及源码分析回顾一下 。
仅在某些节点上运行 Pod如果想让DaemonSet在某个特定的Node上运行 , 可以使用nodeAffinity 。
如下:
apiVersion: v1kind: Podmetadata:name: with-node-affinityspec:affinity:nodeAffinity:requiredDuringSchedulingIgnoredDuringExecution:nodeSelectorTerms:- matchExpressions:- key: metadata.nameoperator: Invalues:- node1上面的这个pod , 我们指定了nodeAffinity , matchExpressions的含义是这个pod只能运行在metadata.name是node1的节点上 , operator=In表示部分匹配的意思 , 除此之外operator还可以指定:In , NotIn , Exists , DoesNotExist , Gt , Lt等 。
requiredDuringSchedulingIgnoredDuringExecution表明将pod调度到一个节点必须要满足的规则 。 除了这个规则还有preferredDuringSchedulingIgnoredDuringExecution将pod调度到一个节点可能不会满足规则
当我们使用如下命令的时候:
$ kubectl edit pod -n kube-system fluentd-elasticsearch-nwqph...spec:affinity:nodeAffinity:requiredDuringSchedulingIgnoredDuringExecution:nodeSelectorTerms:- matchFields:- key: metadata.nameoperator: Invalues:- node1...可以看到DaemonSet自动帮我们加上了affinity来进行节点调度 。 我们也可以自己在yaml里面设置affinity , 以此来覆盖系统默认的配置 。
Taints and Tolerations在k8s集群中 , 我们可以给Node打上污点 , 这样可以让pod避开那些不合适的node 。 在node上设置一个或多个Taint后 , 除非pod明确声明能够容忍这些污点 , 否则无法在这些node上运行 。
例如:
kubectl taint nodes node1 key=value:NoSchedule上面给node1打上了一个污点 , 这将阻止pod调度到node1这个节点上 。