CentOS 7.5二進制部署Kubernetes1.12(加密通信)(五)

      網(wǎng)友投稿 610 2022-05-29

      一、安裝方式介紹

      1、yum 安裝

      目前CentOS官方已經(jīng)把Kubernetes源放入到自己的默認 extras 倉庫里面,使用 yum 安裝,好處是簡單,壞處也很明顯,需要官方更新 yum 源才能獲得最新版本的軟件,而所有軟件的依賴又不能自己指定,尤其是你的操作系統(tǒng)版本如果低的話,使用 yum 源安裝的 Kubernetes 的版本也會受到限制,通常會低于官方很多版本,我安裝的時候目前官方版本為1.12,而 yum 源中的版本為1.5.2。

      請查看博文:http://blog.51cto.com/wzlinux/2321767

      2、二進制安裝

      使用二進制文件安裝,好處是可以安裝任意版本的 Kubernetes,對一些新版本新功能追求的同學(xué)比較合適,壞處是配置比較復(fù)雜,很多軟件包因為一些原因,我們在大陸是訪問不到的。

      3、Kubeadm 安裝

      kubeadm 是 Kubernetes 官方提供的用于快速安裝 Kubernetes 集群的工具,伴隨Kubernetes每個版本的發(fā)布都會同步更新,kubeadm會對集群配置方面的一些實踐做調(diào)整,通過實驗 kubeadm 可以學(xué)習(xí)到 Kubernetes 官方在集群配置上一些新的最佳實踐。

      請查看博文:http://blog.51cto.com/wzlinux/2322616

      這里我們選用第二種方式安裝。

      二、環(huán)境準備

      1、軟件版本

      我們安裝的版本基本是目前最新的版本。

      2、節(jié)點規(guī)劃

      CentOS 7.5二進制部署Kubernetes1.12(加密通信)(五)

      節(jié)點及網(wǎng)絡(luò)規(guī)劃如下:

      3、系統(tǒng)配置

      關(guān)閉防火墻。

      systemctl?stop?firewalld systemctl?disable?firewalld

      配置/etc/hosts,添加如下內(nèi)容。

      172.18.8.200?master.wzlinux.com?master172.18.8.201?node01.wzlinux.com?node01172.18.8.202?node02.wzlinux.com?node02

      關(guān)閉SELinux。

      sed?-i?'s#SELINUX=enforcing#SELINUX=disabled#g'?/etc/selinux/config setenforce?0

      關(guān)閉swap。

      swapoff?-ased?-i?'s/.*swap.*/#&/'?/etc/fstab

      4、二進制軟件包下載

      我們可以下載編譯好的二進制文件,也可以下載源碼自己編譯,這里只討論二進制的安裝方式。在Kubernetes的Github?CHANGELOG日志中可以看到最新的版本號,也可以到Tag頁面中找到自己需要的版本,我下載的是?v1.12.2。

      上傳我們下載的二進制軟件包到各節(jié)點,并解壓在root家目錄,查看目錄內(nèi)容。

      [root@master?~]#?ll?kubernetes/server/bin/ total?1821524-rwxr-xr-x?1?root?root??60859975?Oct?24?15:49?apiextensions-apiserver-rwxr-xr-x?1?root?root?142923436?Oct?24?15:49?cloud-controller-manager-rw-r--r--?1?root?root?????????8?Oct?24?15:44?cloud-controller-manager.docker_tag-rw-r--r--?1?root?root?144309760?Oct?24?15:44?cloud-controller-manager.tar-rwxr-xr-x?1?root?root?248021112?Oct?24?15:49?hyperkube-rwxr-xr-x?1?root?root??54042644?Oct?24?15:49?kubeadm-rwxr-xr-x?1?root?root?192781649?Oct?24?15:49?kube-apiserver-rw-r--r--?1?root?root?????????8?Oct?24?15:44?kube-apiserver.docker_tag-rw-r--r--?1?root?root?194167808?Oct?24?15:44?kube-apiserver.tar-rwxr-xr-x?1?root?root?162961401?Oct?24?15:49?kube-controller-manager-rw-r--r--?1?root?root?????????8?Oct?24?15:44?kube-controller-manager.docker_tag-rw-r--r--?1?root?root?164347392?Oct?24?15:44?kube-controller-manager.tar-rwxr-xr-x?1?root?root??57352138?Oct?24?15:49?kubectl-rwxr-xr-x?1?root?root?176648680?Oct?24?15:49?kubelet-rwxr-xr-x?1?root?root??50330867?Oct?24?15:49?kube-proxy-rw-r--r--?1?root?root?????????8?Oct?24?15:44?kube-proxy.docker_tag-rw-r--r--?1?root?root??98355200?Oct?24?15:44?kube-proxy.tar-rwxr-xr-x?1?root?root??57184656?Oct?24?15:49?kube-scheduler-rw-r--r--?1?root?root?????????8?Oct?24?15:44?kube-scheduler.docker_tag-rw-r--r--?1?root?root??58570752?Oct?24?15:44?kube-scheduler.tar-rwxr-xr-x?1?root?root???2330265?Oct?24?15:49?mounter

      這些包都是存儲在google的服務(wù)器上面,因為眾所周知的原因,我們是無法訪問的,所以需要各位科學(xué)上網(wǎng)才可以獲取,不過我可以把我獲取的包傳到網(wǎng)盤分享給大家。

      大家可以去下載使用。鏈接:?https://pan.baidu.com/s/1Ut9VERgm55B4lmz0wjjzFQ?提取碼: mjem

      三、安裝master

      master節(jié)點需要安裝的服務(wù)有kube-apiserver,kube-controller-manager,kube-scheduler,所以我們先把需要的二進制文件放到環(huán)境變量。

      cd?/root/kubernetes/server/bin cp?kube-apiserver?kube-controller-manager?kube-scheduler?kubectl?/usr/local/bin/

      創(chuàng)建需要的目錄。

      mkdir?-p?/var/lib/etcdmkdir?-p?/etc/etcd/mkdir?/etc/kubernetesmkdir?/etc/kubernetes/ssl

      1、安裝etcd

      因為所以的組件都是需要etcd存儲,所以我們第一安裝的就是etcd,如果不是為了新版本,為了方便可以使用yum安裝。

      我這里采用二進制安裝方法,首先下載安裝包。

      下載。

      wget?https://github.com/etcd-io/etcd/releases/download/v3.3.10/etcd-v3.3.10-linux-amd64.tar.gz

      解壓安裝。

      tar?xf?etcd-v3.3.10-linux-amd64.tar.gzcd?etcd-v3.3.10-linux-amd64 cp?etcd?etcdctl?/usr/local/bin/

      創(chuàng)建system啟動文件etcd.service。

      cat?<?/usr/lib/systemd/system/etcd.service [Unit] Description=Etcd?Server After=network.target After=network-online.target Wants=network-online.target [Service] Type=notify TimeoutStartSec=0 Restart=always WorkingDirectory=/var/lib/etcd EnvironmentFile=-/etc/etcd/etcd.conf ExecStart=/usr/local/bin/etcd Restart=on-failure [Install] WantedBy=multi-user.target EOF

      創(chuàng)建配置文件。

      cat?</etc/etcd/etcd.conf ETCD_NAME=ETCD?Server ETCD_DATA_DIR="/var/lib/etcd/"ETCD_LISTEN_CLIENT_URLS=http://0.0.0.0:2379 ETCD_ADVERTISE_CLIENT_URLS="http://172.18.8.200:2379"EOF

      啟動etcd。

      systemctl?daemon-reloadsystemctl?start?etcd.servicesystemctl?enable?etcd.service

      查看啟動狀態(tài)。

      [root@master?~]#?netstat?-tlnp|grep?etcdtcp????????0??????0?127.0.0.1:2380??????????0.0.0.0:*???????????????LISTEN??????1550/etcd??????????? tcp6???????0??????0?:::2379?????????????????:::*????????????????????LISTEN??????1550/etcd???? [root@master?~]#?etcdctl?cluster-healthmember?8e9e05c52164694d?is?healthy:?got?healthy?result?from?http://172.18.8.200:2379cluster?is?healthy

      說明: etcd 會啟用兩個端口,其中2380 是集群的通信端口,2379是服務(wù)端口。如果是配置etcd集群,則要修改配置文件,設(shè)置監(jiān)聽IP和端口。

      2、安裝 kube-apiserver

      創(chuàng)建啟動文件/usr/lib/systemd/system/kube-apiserver.service,修改為如下內(nèi)容:

      [Unit] Description=Kubernetes?API?Server Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=network.target After=etcd.service [Service] EnvironmentFile=/etc/kubernetes/apiserver ExecStart=/usr/local/bin/kube-apiserver??\ ????????$KUBE_ETCD_SERVERS?\ ????????$KUBE_BIND_ADDRESS?\ ????????$KUBE_API_PORT?\ ????????$KUBE_SERVICE_ADDRESSES?\ ????????$KUBE_ADMISSION_CONTROL?\ ????????$KUBE_API_ARGS Restart=on-failure Type=notify LimitNOFILE=65536 [Install] WantedBy=multi-user.target

      創(chuàng)建目錄和配置文件。

      cat?<?/etc/kubernetes/apiserver KUBE_BIND_ADDRESS="--bind-address=0.0.0.0"KUBE_API_PORT="--secure-port=6443"KUBE_ETCD_SERVERS="--etcd-servers=http://172.18.8.200:2379"KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.96.0.0/12"KUBE_ADMISSION_CONTROL="--enable-admission-plugins=NamespaceLifecycle,LimitRanger,SecurityContextDeny,ServiceAccount,DefaultStorageClass,ResourceQuota"KUBE_API_ARGS="--client-ca-file=/etc/kubernetes/ssl/ca.crt?\ --tls-private-key-file=/etc/kubernetes/ssl/server.key?--tls-cert-file=/etc/kubernetes/ssl/server.crt"EOF

      service-cluster-ip-range是servcies的虛擬IP的IP范圍,這里可以自己定義,不能當前的宿主機網(wǎng)段重疊。

      bind-addres 指定的apiserver監(jiān)聽地址,對應(yīng)的監(jiān)聽端口是6443,使用的https的方式。

      client-ca-file 這是認證的相關(guān)文件,這預(yù)先定義,后面會創(chuàng)建證書文件,并放置到對應(yīng)的路徑。

      3、安裝kube-controller-manager

      創(chuàng)建啟動文件/usr/lib/systemd/system/kube-controller-manager.service,添加如下內(nèi)容:

      [Unit] Description=Kubernetes?Controller?Manager Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=kube-apiserver.service Requires=kube-apiserver.service [Service] EnvironmentFile=-/etc/kubernetes/controller-manager ExecStart=/usr/local/bin/kube-controller-manager?\ ?????????????$KUBE_MASTER?\ ?????????????$KUBE_CONTROLLER_MANAGER_ARGS Restart=on-failure LimitNOFILE=65536 [Install] WantedBy=multi-user.target

      創(chuàng)建配置文件controller-manager,IP根據(jù)自己的實際情況進行修改。

      cat?<?/etc/kubernetes/controller-manager KUBE_MASTER="--master=https://172.18.8.200:6443"KUBE_CONTROLLER_MANAGER_ARGS="--service-account-private-key-file=/etc/kubernetes/ssl/server.key?\ --root-ca-file=/etc/kubernetes/ssl/ca.crt?--kubeconfig=/etc/kubernetes/kubeconfig"EOF

      4、安裝kube-scheduler

      創(chuàng)建啟動文件/usr/lib/systemd/system/kube-scheduler.service,添加如下內(nèi)容:

      [Unit] Description=Kubernetes?Scheduler?Plugin Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=kube-apiserver.service Requires=kube-apiserver.service [Service] EnvironmentFile=/etc/kubernetes/scheduler ExecStart=/usr/local/bin/kube-scheduler?\ ????????$KUBE_MASTER?\ ????????$KUBE_SCHEDULER_ARGS Restart=on-failure LimitNOFILE=65536 [Install] WantedBy=multi-user.target

      創(chuàng)建配置文件/etc/kubernetes/scheduler。

      cat?<?/etc/kubernetes/scheduler KUBE_MASTER="--master=https://172.18.8.200:6443"KUBE_SCHEDULER_ARGS="--kubeconfig=/etc/kubernetes/kubeconfig"EOF

      5、創(chuàng)建kubeconfig文件

      創(chuàng)建/etc/kubernetes/kubeconfig文件。

      apiVersion:?v1kind:?Configusers:-?name:?controllermanager ??user: ????client-certificate:?/etc/kubernetes/ssl/cs_client.crt ????client-key:?/etc/kubernetes/ssl/cs_client.keyclusters:-?name:?kubernetes ??cluster: ????certificate-authority:?/etc/kubernetes/ssl/ca.crtcontexts:-?context: ????cluster:?kubernetes ????user:?controllermanager ??name:?service-account-contextcurrent-context:?service-account-context

      6、創(chuàng)建CA證書

      配置kube-apiserver的CA證書和私鑰文件。

      cd??/etc/kubernetes/ssl/ openssl?genrsa?-out?ca.key?2048#?CN指定Master的IP地址openssl?req?-x509?-new?-nodes?-key?ca.key?-subj?"/CN=172.18.8.200"?-days?5000?-out?ca.crt openssl?genrsa?-out?server.key?2048

      創(chuàng)建master_ssl.cnf文件,內(nèi)容如下:

      [req] req_extensions?=?v3_req distinguished_name?=?req_distinguished_name [req_distinguished_name] [?v3_req?] basicConstraints?=?CA:FALSE keyUsage?=?nonRepudiation,?digitalSignature,?keyEncipherment subjectAltName?=?@alt_names [alt_names] DNS.1?=?kubernetes DNS.2?=?kubernetes.default DNS.3?=?kubernetes.default.svc DNS.4?=?kubernetes.default.svc.cluster.local DNS.5?=?k8s_master IP.1?=?10.96.0.1?????????????????????#?ClusterIP?地址IP.2?=?172.18.8.200?????????????????#?master?IP地址

      基于上述文件,創(chuàng)建server.csr和 server.crt文件,執(zhí)行如下命令。

      #?CN指定主機名openssl?req?-new?-key?server.key?-subj?"/CN=master.wzlinux.com"?-config?master_ssl.cnf?-out?server.csr openssl?x509?-req?-in?server.csr?-CA?ca.crt?-CAkey?ca.key?-CAcreateserial?-days?5000?-extensions?v3_req?-extfile?master_ssl.cnf?-out?server.crt

      設(shè)置kube-controller-manager相關(guān)證書。

      cd??/etc/kubernetes/ssl/ openssl?genrsa?-out?cs_client.key?2048#?CN指定主機名openssl?req?-new?-key?cs_client.key?-subj?"/CN=master.wzlinux.com"?-out?cs_client.csr openssl?x509?-req?-in?cs_client.csr?-CA?ca.crt?-CAkey?ca.key?-CAcreateserial?-out?cs_client.crt?-days?5000

      確保/etc/kubernetes/ssl/ 目錄下有如下文件。

      [root@master?ssl]#?lltotal?40-rw-r--r--?1?root?root?1103?Nov?28?21:58?ca.crt-rw-r--r--?1?root?root?1679?Nov?28?21:58?ca.key-rw-r--r--?1?root?root???17?Nov?28?22:07?ca.srl-rw-r--r--?1?root?root??993?Nov?28?22:07?cs_client.crt-rw-r--r--?1?root?root??903?Nov?28?22:07?cs_client.csr-rw-r--r--?1?root?root?1675?Nov?28?22:06?cs_client.key-rw-r--r--?1?root?root??493?Nov?28?22:01?master_ssl.cnf-rw-r--r--?1?root?root?1216?Nov?28?22:03?server.crt-rw-r--r--?1?root?root?1139?Nov?28?22:03?server.csr-rw-r--r--?1?root?root?1679?Nov?28?21:58?server.key

      7、啟動服務(wù)

      啟動kube-apiserver。

      systemctl?daemon-reload systemctl?enable?kube-apiserver systemctl?start?kube-apiserver

      說明:kube-apiserver 默認會啟動兩個端口(8080和6443),其中,8080是各個組件之間通信的端口,在新的版本中已經(jīng)很少使用,kube-apiserver所在的主機一般稱為Master, 另一個端口6443是為HTTPS提供身份驗證和授權(quán)的端口。

      啟動kube-controller-manager。

      systemctl?daemon-reload systemctl?enable?kube-controller-manager systemctl?start?kube-controller-manager

      說明:此服務(wù)會啟動一個10252的端口。

      啟動kube-scheduler。

      systemctl?daemon-reload systemctl?enable?kube-scheduler systemctl?start?kube-scheduler

      說明: 此服務(wù)會啟動一個10251的端口

      啟動各項服務(wù)時,分別查看對應(yīng)的日志和啟動狀態(tài)信息,確認服務(wù)沒有報錯。

      使用 kubectl 查看狀態(tài)。

      [root@master?~]#?kubectl?get?csNAME?????????????????STATUS????MESSAGE?????????????ERROR etcd-0???????????????Healthy???{"health":"true"}??? controller-manager???Healthy???ok?????????????????? scheduler????????????Healthy???ok

      四、安裝node節(jié)點(node01為例)

      1、環(huán)境準備

      node節(jié)點需要安裝的服務(wù)有docker,kubelet,kube-prox,flannel,所以我們先把需要的二進制文件放到環(huán)境變量。

      cd?/root/kubernetes/server/bin/ cp?kubelet?kube-proxy?/usr/local/bin/

      加載ipvs內(nèi)核,使node節(jié)點kube-proxy支持ipvs代理規(guī)則。

      modprobe?ip_vs_rr modprobe?ip_vs_wrr modprobe?ip_vs_sh

      創(chuàng)建需要的目錄。

      mkdir?/var/lib/kubeletmkdir?/etc/kubernetesmkdir?/etc/kubernetes/ssl

      配置轉(zhuǎn)發(fā)參數(shù)。

      cat?<??/etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables?=?1net.bridge.bridge-nf-call-iptables?=?1EOF sysctl?--system

      2、安裝docker-ce

      我們使用推薦的版本18.06,此時docker官方的最新版本為18.09,所以我們需要配置官方y(tǒng)um源。

      wget?https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo?-P?/etc/yum.repos.d/

      查看需要安裝的版本。

      yum?list?docker-ce.x86_64??--showduplicates?|sort?-ryum?install?docker-ce-18.06.1.ce?-y

      配置加速器。

      sudo?mkdir?-p?/etc/docker sudo?tee?/etc/docker/daemon.json?<<-'EOF'{??"registry-mirrors":?["https://hdi5v8p1.mirror.aliyuncs.com"] } EOF

      2、創(chuàng)建需要的證書

      復(fù)制Master上的ca.crt,ca.key到node節(jié)點上的ssl目錄,執(zhí)行如下命令生成kubelet_client.crt和kubelet_client.csr文件

      cd?/etc/kubernetes/ssl/ openssl?genrsa?-out?kubelet_client.key?2048#??CN指定Node節(jié)點的IPopenssl?req?-new?-key?kubelet_client.key?-subj?"/CN=172.18.8.201"?-out?kubelet_client.csr openssl?x509?-req?-in?kubelet_client.csr?-CA?ca.crt?-CAkey?ca.key?-CAcreateserial?-out?kubelet_client.crt?-days?5000

      3、安裝 kube-proxy 服務(wù)

      創(chuàng)建啟動文件/usr/lib/systemd/system/kube-proxy.service,添加如下內(nèi)容:

      [Unit] Description=Kubernetes?Kube-Proxy?Server Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=network.target [Service] EnvironmentFile=/etc/kubernetes/proxy ExecStart=/usr/local/bin/kube-proxy?\ ????????????$KUBE_MASTER?\ ????????????$KUBE_PROXY_ARGS Restart=on-failure LimitNOFILE=65536 [Install] WantedBy=multi-user.target

      創(chuàng)建需要的配置文件,IP請根據(jù)自己的實際情況進行修改。

      cat?<?/etc/kubernetes/proxy KUBE_MASTER="--master=http://172.18.8.200:8080"KUBE_PROXY_ARGS="--kubeconfig=/etc/kubernetes/kubeconfig.yaml"EOF

      3、安裝 kubelete 服務(wù)

      創(chuàng)建啟動文件/usr/lib/systemd/system/kubelet.service,新增如下內(nèi)容:

      [Unit]Description=Kubernetes?Kubelet?ServerDocumentation=https://github.com/GoogleCloudPlatform/kubernetesAfter=docker.serviceRequires=docker.service[Service]WorkingDirectory=/var/lib/kubeletExecStart=/usr/local/bin/kubelet?--kubeconfig=/etc/kubernetes/kubeconfig.yamlRestart=on-failure[Install]WantedBy=multi-user.target

      創(chuàng)建配置文件/etc/kubernetes/kubeconfig.yaml,具體參數(shù)請根據(jù)自己的需求進行修改,新增如下內(nèi)容:

      apiVersion:?v1kind:?Configusers:-?name:?kubelet ??user: ????client-certificate:?/etc/kubernetes/ssl/kubelet_client.crt ????client-key:?/etc/kubernetes/ssl/kubelet_client.keyclusters:-?name:?kubernetes ??cluster: ????certificate-authority:?/etc/kubernetes/ssl/ca.crt ????server:?https://172.18.8.200:6443contexts:-?context: ????cluster:?kubernetes ????user:?kubelet ??name:?service-account-contextcurrent-context:?service-account-context

      kubeconfig官方文檔請點擊查看。

      4、啟動服務(wù)。

      啟動kubelet。

      systemctl?daemon-reloadsystemctl?start?kubelet.servicesystemctl?enable?kubelet.service

      kubelet的配置文件是一個yaml格式文件,對master的指定需要在配置文件中說明。默認監(jiān)聽10248、10250、10255、4194端口。

      在master查看節(jié)點。

      [root@master?~]#?kubectl?get?nodesNAME?????????????????STATUS???ROLES????AGE????VERSIONnode01.wzlinux.com???Ready???????5m7s???v1.12.2node02.wzlinux.com???Ready???????5m7s???v1.12.2

      啟動kube-proxy。

      systemctl?daemon-reloadsystemctl?start?kube-proxy.servicesystemctl?enable?kube-proxy.service

      說明:啟動服務(wù)后默認監(jiān)聽10249,10256.

      4、配置flannel網(wǎng)絡(luò)(Pod使用)

      我們之所以要單獨使用第三方的網(wǎng)絡(luò)插件來擴展k8s,主要原因是在使用docker的環(huán)境中,在每個node節(jié)點的docker0默認的網(wǎng)段都是172.17.0.0/16的網(wǎng)絡(luò)。如果要實現(xiàn)不同宿主node上pod(這里也可以理解為容器)互相通信,就不能使用默認的docker0提供的網(wǎng)段,我們需要部署一個覆蓋網(wǎng)絡(luò),讓每個node節(jié)點的docker0網(wǎng)絡(luò)都處于不同的網(wǎng)段,這樣,通過添加一些路由轉(zhuǎn)發(fā)策略,就能讓集群中各個pod在同一個虛擬的網(wǎng)絡(luò)中實現(xiàn)通信。

      從github官網(wǎng)下載最新版本。

      wget?https://github.com/coreos/flannel/releases/download/v0.10.0/flannel-v0.10.0-linux-amd64.tar.gz tar?xf?flannel-v0.10.0-linux-amd64.tar.gz cp?flanneld?/usr/local/bin/ cp?mk-docker-opts.sh?/usr/local/libexec/

      創(chuàng)建啟動文件/usr/lib/systemd/system/flanneld.service,新增如下內(nèi)容:

      [Unit] Description=Flanneld?overlay?address?etcd?agent After=network.target After=network-online.target Wants=network-online.target After=etcd.service Before=docker.service [Service] Type=notify EnvironmentFile=/etc/sysconfig/flanneld EnvironmentFile=-/etc/sysconfig/docker-network ExecStart=/usr/local/bin/flanneld?\ ????????????$FLANNEL_ETCD_ENDPOINTS?\ ????????????$FLANNEL_ETCD_PREFIX?\ ????????????$FLANNEL_OPTIONS ExecStartPost=/usr/local/libexec/mk-docker-opts.sh?-d?/run/flannel/docker Restart=on-failure [Install] WantedBy=multi-user.target RequiredBy=docker.service

      對上面的文件做一下解釋:

      Flannel網(wǎng)絡(luò)必須在宿主機網(wǎng)絡(luò)能對外(其它node節(jié)點)正常通信的情況下啟動才有意義,所以這里定義After=network.target

      只有當Flannel 網(wǎng)絡(luò)啟動之后,才能創(chuàng)建一個與其它節(jié)點不會沖突的網(wǎng)絡(luò),而docker的網(wǎng)絡(luò)需要和fannel 網(wǎng)絡(luò)相同才能保證跨主機通信,所以docker必須要在flannel網(wǎng)絡(luò)創(chuàng)建后才能啟動,這里定義Before=docker.service

      創(chuàng)建配置文件/etc/sysconfig/flanneld,設(shè)置為如下內(nèi)容:

      cat?<?/etc/sysconfig/flanneld#?Flanneld?configuration?options??#?etcd?url?location.??Point?this?to?the?server?where?etcd?runsFLANNEL_ETCD_ENDPOINTS="-etcd-endpoints=http://172.18.8.200:2379"#?etcd?config?key.??This?is?the?configuration?key?that?flannel?queries#?For?address?range?assignmentFLANNEL_ETCD_PREFIX="-etcd-prefix=/atomic.io/network"#?Any?additional?options?that?you?want?to?passFLANNEL_OPTIONS=""EOF

      在master節(jié)點上為 falnnel 創(chuàng)建分配pod的網(wǎng)絡(luò)。

      [root@master?~]#??etcdctl?mk?/atomic.io/network/config?'{"Network":?"10.244.0.0/16"}'

      在各node節(jié)點上啟動 flannel。

      systemctl?daemon-reloadsystemctl?start?flanneld.servicesystemctl?enable?flanneld.service

      檢查是否啟動好。

      ps?-ef?|grep?flanneld

      也可以使用自助安裝,官方建議的使用方法。

      kubectl apply -f?https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

      5、啟動docker

      編輯文件/usr/lib/systemd/system/docker.service,修改為如下內(nèi)容,讓docker使用flannel網(wǎng)絡(luò)。

      [Unit]Description=Docker?Application?Container?EngineDocumentation=https://docs.docker.comAfter=network-online.target?firewalld.service?flannel.serviceWants=network-online.targetRequires=flanneld.service[Service]Type=notifyEnvironmentFile=-/run/flannel/dockerExecStart=/usr/bin/dockerd?$DOCKER_OPTSExecReload=/bin/kill?-s?HUP?$MAINPIDLimitNOFILE=infinityLimitNPROC=infinityLimitCORE=infinityTimeoutStartSec=0Delegate=yesKillMode=processRestart=on-failureStartLimitBurst=3StartLimitInterval=60s[Install]WantedBy=multi-user.target

      我們最后啟動docker服務(wù)。

      systemctl?daemon-reloadsystemctl?restart?docker.servicesystemctl?enable?docker.service

      我們可以看到docker0已經(jīng)連接到flannel0,并且添加10.244.71.0/24的路由。

      [root@node01?~]#?ip?rdefault?via?172.18.8.1?dev?ens33?proto?static?metric?100?10.244.0.0/16?dev?flannel0?proto?kernel?scope?link?src?10.244.71.0?10.244.71.0/24?dev?docker0?proto?kernel?scope?link?src?10.244.71.1?172.18.0.0/16?dev?ens33?proto?kernel?scope?link?src?172.18.8.201?metric?100

      五、master節(jié)點驗證

      [root@master?~]#?kubectl?get?nodesNAME?????????????????STATUS???ROLES????AGE?????VERSIONnode01.wzlinux.com???Ready???????5m38s???v1.12.2node02.wzlinux.com???Ready???????5m34s???v1.12.2

      先運行幾個pod看一下。

      kubectl?run?nginx?--image=nginx?--replicas=3

      查看一下pod狀態(tài),發(fā)現(xiàn)容器的狀態(tài)為ContainerCreating,使用kubectl describe pod POD_NAME發(fā)現(xiàn)在請求k8s.gcr.io/pause:3.1pod鏡像模板。

      因為我們還沒有pod基礎(chǔ)設(shè)施鏡像k8s.gcr.io/pause:3.1,就是所有pod的模板,我們需要從gcr.io下載,但是這個地址我們國內(nèi)是無法訪問的,我們可以使用間接的方法,在所有的node節(jié)點上,我們可以從阿里云的鏡像下載,然后再tag成我們需要的鏡像。

      docker?pull?registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1docker?tag?registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1?k8s.gcr.io/pause:3.1docker?image?rm?registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1

      問題解決之后我們再次查看。

      [root@master?~]#?kubectl?get?pods?-o?wide NAME????????????????????READY???STATUS????RESTARTS???AGE?????IP????????????NODE?????????????????NOMINATED?NODE nginx-dbddb74b8-gzd6j???1/1?????Running???0??????????2m11s???10.244.50.3???node02.wzlinux.com???nginx-dbddb74b8-hmmll???1/1?????Running???0??????????2m11s???10.244.50.2???node02.wzlinux.com???nginx-dbddb74b8-lpkln???1/1?????Running???0??????????2m11s???10.244.71.2???node01.wzlinux.com???

      當前的網(wǎng)絡(luò)結(jié)構(gòu)圖如下所示:

      我們可以創(chuàng)建一個service,查看其分配的IP。

      [root@master?~]#?kubectl?expose?deploy?nginx?--port=8888?--target-port=80[root@master?~]#?kubectl?get?svcNAME?????????TYPE????????CLUSTER-IP??????EXTERNAL-IP???PORT(S)????AGE kubernetes???ClusterIP???10.96.0.1???????????????443/TCP????51m nginx????????ClusterIP???10.98.190.189???????????8888/TCP???7s

      至此,使用二進制程序搭建的過程我們已經(jīng)介紹完了。

      ----------------------------------------

      本文轉(zhuǎn)自wzlinux博客51cto博客

      K8S Kubernetes

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔相應(yīng)法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      上一篇:docker desktop使用入門
      下一篇:第三屆CCF未來計算機教育峰會推薦書單
      相關(guān)文章
      亚洲精品无码av人在线观看 | 中文字幕乱码亚洲无线三区| 欧美激情综合亚洲一二区| 亚洲日韩av无码中文| 亚洲国产日韩精品| 91天堂素人精品系列全集亚洲| 亚洲日韩小电影在线观看| 久久亚洲国产精品成人AV秋霞| 亚洲国产AV无码专区亚洲AV| 亚洲国产精品成人综合色在线| 亚洲色无码一区二区三区| 亚洲熟妇无码AV在线播放| a级亚洲片精品久久久久久久| 国产亚洲人成网站在线观看| 亚洲色成人WWW永久网站| 国产成人亚洲精品青草天美| 久久久亚洲欧洲日产国码农村| 亚洲欧洲日产国码高潮αv| 亚洲精品国产精品国自产观看 | 亚洲国产精品xo在线观看| 亚洲免费在线观看视频| 亚洲人成www在线播放| 亚洲一卡2卡三卡4卡无卡下载| 亚洲av午夜国产精品无码中文字| 久久精品国产亚洲av瑜伽| 亚洲精品麻豆av| 亚洲精品乱码久久久久久中文字幕 | 亚洲福利中文字幕在线网址| 亚洲国产欧美日韩精品一区二区三区| 亚洲一区中文字幕久久| 亚洲色爱图小说专区| 亚洲AV美女一区二区三区| 亚洲美女自拍视频| 亚洲AV人无码激艳猛片| 亚洲欧洲久久精品| 亚洲欧洲av综合色无码| 亚洲成人影院在线观看| 久久亚洲国产欧洲精品一| 久久精品国产亚洲AV无码偷窥| 亚洲youjizz| 国产一区二区三区亚洲综合|