热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

使用kubeadm搭建kubernetes集群

使用kubeadm搭建kubernetes集群kubeadm简介kubeadm是k8s官方提供的用于快速部署k8s集群的命令行工具,也是官方推荐的最小化部署k8s

使用 kubeadm 搭建 kubernetes 集群


kubeadm 简介

kubeadm 是 k8s 官方提供的用于快速部署 k8s 集群的命令行工具,也是官方推荐的最小化部署 k8s 集群的最佳实践,比起直接用二进制部署能省去很多工作,因为该方式部署的集群的各个组件以 docker 容器的方式启动,而各个容器的启动都是通过该工具配自动化启动起来的。

kubeadm 不仅仅能部署 k8s 集群,还能很方便的管理集群,比如集群的升级、降级、集群初始化配置等管理操作。

kubeadm 的设计初衷是为新用户提供一种便捷的方式来首次试用 Kubernetes, 同时也方便老用户搭建集群测试他们的应用。

kubeadm 的使用案例:


  • 新用户可以从 kubeadm 开始来试用 Kubernetes。
  • 熟悉 Kubernetes 的用户可以使用 kubeadm 快速搭建集群并测试他们的应用。
  • 大型的项目可以将 kubeadm 和其他的安装工具一起形成一个比较复杂的系统。

安装环境要求


  • 一台或多台运行着下列系统的机器:
    • Ubuntu 16.04+
    • Debian 9
    • CentOS 7
    • RHEL 7
    • Fedora 25/26
    • HypriotOS v1.0.1+
    • Container Linux (针对1800.6.0 版本测试)
  • 每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响您应用的运行内存)
  • 2 CPU 核心或更多(节点少于 2 核的话新版本 kubeadm 会报错)
  • 集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)
  • 禁用 Swap 交换分区。(Swap 分区必须要禁掉,否则安装会报错)

准备环境

本文使用 kubeadm 部署一个 3 节点的 k8s 集群:1 个 master 节点,2 个 node 节点。各节点详细信息如下:


HostnameIPOS 发行版内存(GB)CPU(核)
k8s-master192.168.10.100Centos722
k8s-node-1192.168.10.101Centos722
k8s-node-2192.168.10.102Centos722

在这里插入图片描述


kubeadm 安装 k8s 集群完整流程


  • 使用 Vagrant 启动 3 台符合上述要求的虚拟机
  • 调整每台虚拟机的服务器参数
  • 各节点安装 docker、kubeadm、kubelet、kubectl 工具
  • 使用 kubeadm 部署 master 节点
  • 安装 Pod 网络插件(CNI)
  • 使用 kubeadm 部署 node 节点

接下来我们依次介绍每步的具体细节:


使用 Vagrant 启动 3 台符合上述要求的虚拟机

Vagrant 的使用在这里不具体介绍了,如需了解请点击这里。
本文用到的 Vagrantfile:

# -*- mode: ruby -*-
# vi: set ft=ruby :
# author: qhh0205$num_nodes = 2Vagrant.configure("2") do |config|# k8s 主节点定义及初始化配置config.vm.define "k8s-master" do | k8s_master |k8s_master.vm.box = "Centos7"k8s_master.vm.hostname = "k8s-master"k8s_master.vm.network "private_network", ip: "192.168.10.100"k8s_master.vm.provider "virtualbox" do | v |v.name = "k8s-master"v.memory = "2048"v.cpus = 2endend# k8s node 节点定义及初始化配置(1..$num_nodes).each do |i|config.vm.define "k8s-node-#{i}" do |node|node.vm.box = "Centos7"node.vm.hostname = "k8s-node-#{i}"node.vm.network "private_network", ip: "192.168.10.#{i+100}"node.vm.provider "virtualbox" do |v|v.name = "k8s-node-#{i}"v.memory = "2048"v.cpus = 2endendend
end

进入 Vagrantfile 文件所在目录,执行如下命令启动上述定义的 3 台虚拟机:

vagrant up

调整每台虚拟机的服务器参数


  1. 禁用 swap 分区:
    临时禁用:swapoff -a
    永久禁用:sed -i '/swap/s/^/#/g' /etc/fstab
    swap 分区必须禁止掉,否则 kubadm init 自检时会报如下错误:

[ERROR Swap]: running with swap on is not supported. Please disable swap

  1. 将桥接的 IPv4 流量传递到 iptables 的链:

$ cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables &#61; 1
net.bridge.bridge-nf-call-iptables &#61; 1
EOF

$ sysctl --system

如果不进行这一步的设置&#xff0c;kubadm init 自检时会报如下错误&#xff1a;

[ERROR FileContent--proc-sys-net-bridge-bridge-nf-call-iptables]: /proc/sys/net/bridge/bridge-nf-call-iptables contents are not set to 1

  1. 关闭网络防火墙&#xff1a;

systemctl stop firewalld
systemctl disable firewalld

  1. 禁用 SELinux&#xff1a;
    临时关闭 selinux&#xff08;不需要重启主机&#xff09;: setenforce 0
    永久关闭 selinux&#xff08;需要重启主机才能生效&#xff09;&#xff1a;sed -i &#39;s/SELINUX&#61;enforcing/SELINUX&#61;disabled/g&#39; /etc/selinux/config

各节点安装 docker、kubeadm、kubelet、kubectl 工具


安装 Docker

配置 Docker yum 源&#xff08;阿里 yum 源&#xff09;&#xff1a;

curl -sS -o /etc/yum.repos.d/docker-ce.repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

安装 docker&#xff1a;

yum install --nogpgcheck -y yum-utils device-mapper-persistent-data lvm2
yum install --nogpgcheck -y docker-ce
systemctl enable docker && systemctl start docker

安装 kubeadm、kubelet、kubectl 工具

配置相关工具 yum 源&#xff08;阿里 yum 源&#xff09;&#xff1a;

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name&#61;Kubernetes
baseurl&#61;https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled&#61;1
gpgcheck&#61;1
repo_gpgcheck&#61;1
gpgkey&#61;https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

安装 kubeadm、kubelet、kubectl&#xff1a;
其实 kubeadm、kubelet、kubectl 这三个工具的版本命名是一致的&#xff08;和 k8s 版本命名一致&#xff09;&#xff0c;我们可以指定安装特定的版本&#xff0c;即安装指定版本的 k8s 集群。

查看哪些版本可以安装&#xff1a;
yum --showduplicates list kubeadm|kubelet|kubectl

在这里我们安装 1.13.2 版本&#xff1a;

yum install -y kubeadm-1.13.2 kubelet-1.13.2 kubectl-1.13.2
# 设置 kubelet 开机自启动: kubelet 特别重要&#xff0c;如果服务器重启后 kubelet
# 没有启动&#xff0c;那么 k8s 相关组件的容器就无法启动。在这里不需要把 kubelet 启动
# 起来&#xff0c;因为现在还启动不起来&#xff0c;后续执行的 kubeadm 命令会自动把 kubelet 拉起来。
systemctl enable kubelet

使用 kubeadm 部署 master 节点

登陆 master 节点执行如下命令&#xff1a;

kubeadm init --kubernetes-version v1.13.2 --image-repository registry.aliyuncs.com/google_containers --pod-network-cidr&#61;10.244.0.0/16 --apiserver-advertise-address&#61;192.168.10.100

参数说明&#xff1a;
--kubernetes-version: 安装指定版本的 k8s 版本&#xff0c;该参数和 kubeadm 的版本有关&#xff0c;特定版本的 kubeadm 并不能安装所有版本的 k8s&#xff0c;最好还是 kubeadm 的版本和该参数指定的版本一致。

--image-repository: 该参数仅在高版本&#xff08;具体哪个版本没仔细查&#xff0c;反正在 1.13.x 中是支持的&#xff09;的 kubeadm 中支持&#xff0c;用来设置 kubeadm 拉取 k8s 各组件镜像的地址&#xff0c;默认拉取的地址是&#xff1a;k8s.gcr.io。众所周知 k8s.gcr.io 国内是无法访问的&#xff0c;所以在这里改为阿里云镜像仓库。

--pod-network-cidr: 设置 pod ip 的网段 &#xff0c;网段之所以是 10.244.0.0/16&#xff0c;是因为后面安装 flannel 网络插件时&#xff0c;yaml 文件里面的 ip 段也是这个&#xff0c;两个保持一致&#xff0c;不然可能会使得 Node 间 Cluster IP 不通。这个参数必须得指定&#xff0c;如果这里不设置的话后面安装 flannel 网络插件时会报如下错误&#xff1a;

E0317 17:02:15.077598 1 main.go:289] Error registering network: failed to acquire lease: node "k8s-master" pod cidr not assigned

--apiserver-advertise-address: API server 用来告知集群中其它成员的地址&#xff0c;这个参数也必须得设置&#xff0c;否则 api-server 容器启动不起来&#xff0c;该参数的值为 master 节点所在的本地 ip 地址。



题外话&#xff1a;像之前没有 --image-repository 这个参数时&#xff0c;大家为了通过 kubeadm 安装 k8s 都是采用"曲线救国"的方式&#xff1a;先从别的地方把同样的镜像拉到本地&#xff08;当然镜像的 tag 肯定不是 k8s.gcr.io/xxxx&#xff09;&#xff0c;然后将拉下来的镜像重新打个 tag&#xff0c;tag 命名成和执行 kubeadm init 时真正拉取镜像的名称一致&#xff08;比如&#xff1a;k8s.gcr.io/kube-controller-manager-amd64:v1.13.2&#xff09;。这么做显然做了很多不必要的工作&#xff0c;幸好现在有了 --image-repository 这个参数能自定义 kubeadm 拉取 k8s 相关组件的镜像地址了。



执行上面命令后&#xff0c;如果出现如下输出&#xff08;截取了部分&#xff09;&#xff0c;则表示 master 节点安装成功了&#xff1a;

...
[bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxyYour Kubernetes master has initialized successfully!To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/configYou should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/You can now join any number of machines by running the following on each node
as root:kubeadm join 192.168.10.100:6443 --token jm6o42.9ystvjarc6u09pjp --discovery-token-ca-cert-hash sha256:64405f3a90597e0ebf1f33134649196047ce74df575cb1a7b38c4ed1e2f94421

根据上面输出知道&#xff1a;要开始使用集群普通用户执行下面命令&#xff1a;

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

现在就可以使用 kubectl 访问集群了&#xff1a;

[vagrant&#64;k8s-master ~]$ kubectl get node
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 13m v1.13.2

可以看出现在 master 节点还是 NotReady 状态&#xff0c;这是因为默认情况下&#xff0c;为了保证 master 的安全&#xff0c;master 是不会被分配工作负载的。你可以取消这个限制通过输入&#xff08;不建议这样做&#xff0c;我们后面会向集群中添加两 node 工作节点&#xff09;&#xff1a;

$ kubectl taint nodes --all node-role.kubernetes.io/master-

安装 Pod 网络插件&#xff08;CNI&#xff09;

Pod 网络插件有很多种&#xff0c;具体见这里&#xff1a;https://kubernetes.io/docs/concepts/cluster-administration/addons/&#xff0c;我们选择部署 Flannel 网络插件&#xff1a;

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

使用 kubeadm 部署 node 节点

前面已经将 master 节点部署完了&#xff0c;接下来部署 node 节点就很简单了&#xff0c;在 node节点执行如下命令将自己加到 k8s 集群中&#xff08;复制 master 节点安装完后的输出&#xff09;&#xff1a;

kubeadm join 192.168.10.100:6443 --token jm6o42.9ystvjarc6u09pjp --discovery-token-ca-cert-hash sha256:64405f3a90597e0ebf1f33134649196047ce74df575cb1a7b38c4ed1e2f94421

出现如下输出&#xff08;截取了部分&#xff09;表示成功将 node 添加到了集群&#xff1a;

...
This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.Run &#39;kubectl get nodes&#39; on the master to see this node join the cluster.

在 master 节点查看 node 状态&#xff0c;如果都为 Ready&#xff0c;则表示集群搭建完成&#xff1a;

[vagrant&#64;k8s-master ~]$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master Ready master 14m v1.13.2
k8s-node-1 Ready <none> 3m v1.13.2

用同样的方法把另一个节点也加入到集群中。


相关资料

https://purewhite.io/2017/12/17/use-kubeadm-setup-k8s/
https://kubernetes.io/zh/docs/setup/independent/install-kubeadm/
https://k8smeetup.github.io/docs/admin/kubeadm/


推荐阅读
  • kubernetes + rancher 使用教程
    目录kubernetes介绍官方文档kubernetes(K8S)概念服务器部署时代变迁为什么需要Kubernetes,它能做什么?Pods控制器Service(服务发现)本教程版 ... [详细]
  • k8shelm官网:https:helm.sh点击charts:https:artifacthub.iopackagessearch?sortrelevance&page11.1h ... [详细]
  • 适用于初学者的基本
    去杂货店“采购”这些命令,你需要用这些Kubernetes工具来入门。最近,我丈夫告诉我他即将要去参加一个工作面试,面试时他需要在计算机上运行一些基本命令。他对这场面试感到焦虑,但 ... [详细]
  • Spring框架《一》简介
    Spring框架《一》1.Spring概述1.1简介1.2Spring模板二、IOC容器和Bean1.IOC和DI简介2.三种通过类型获取bean3.给bean的属性赋值3.1依赖 ... [详细]
  • OpenMap教程4 – 图层概述
    本文介绍了OpenMap教程4中关于地图图层的内容,包括将ShapeLayer添加到MapBean中的方法,OpenMap支持的图层类型以及使用BufferedLayer创建图像的MapBean。此外,还介绍了Layer背景标志的作用和OMGraphicHandlerLayer的基础层类。 ... [详细]
  • kubelet配置cni插件_Kubernetes新近kubectl及CNI漏洞修复,Rancher 2.2.1发布
    今天,Kubernetes发布了一系列补丁版本,修复新近发现的两个安全漏洞CVE-2019-1002101(kubectlcp命令安全漏洞)和CVE-2 ... [详细]
  • 本文|层面_Kubernetes概述
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了Kubernetes概述相关的知识,希望对你有一定的参考价值。前言本文搜集大量关于Kuber ... [详细]
  • 虚拟机CentOS7挂载文件系统失败上周五下班前没有关闭虚拟机和物理机,今天周一开了虚拟机之后,发现操作系统启动失败。原因跟这篇文章描述的一模一样。解决操作系统的文件系统挂载的问题 ... [详细]
  • linux运维之K8S(一)
    1.什么是Kubernetes?Kubernetes(通常简称为K8S,即是将8个字母“ubernete”替换成“8”的缩写)是一个以容器为中心的基础架构。可以实现在物理集群或者虚 ... [详细]
  • 使用工具   https:kubernetes.iodocssetupindependentcreate-cluster-kubeadmkubeadm简介:  kubeadm是ku ... [详细]
  • 从 Kubectl Top 说起, 浅谈 Kubernetes 是如何进行资源监控的?
    公众号关注「奇妙的Linux世界」设为「星标」,每天带你玩转Linux!一.前言kubectltop可以很方便地查看node、pod的实时资源使用情况& ... [详细]
  • kubernetesDashboard是什么?Dashboard是kubernetes的WebGUI,可用于在kubernetes集群上部署容器化应用,应用排错,管理集群本身及其附 ... [详细]
  • Servlet多用户登录时HttpSession会话信息覆盖问题的解决方案
    本文讨论了在Servlet多用户登录时可能出现的HttpSession会话信息覆盖问题,并提供了解决方案。通过分析JSESSIONID的作用机制和编码方式,我们可以得出每个HttpSession对象都是通过客户端发送的唯一JSESSIONID来识别的,因此无需担心会话信息被覆盖的问题。需要注意的是,本文讨论的是多个客户端级别上的多用户登录,而非同一个浏览器级别上的多用户登录。 ... [详细]
  • 用Kubeadm安装K8s后,kubeflannelds一直CrashLoopBackOff
    2019独角兽企业重金招聘Python工程师标准如果使用Kubeadm安装K8s集群,在安装flannel网络插件后,发现pod:kube-fla ... [详细]
  • 需要您在执行KubernetesYAML文件时就某个问题提供指导。我的kubectl版本如下:ClientVersion:version.Inf ... [详细]
author-avatar
没有完美的谎言
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有