tencent cloud

文档反馈

创建集群(新版)

最后更新时间:2024-12-26 17:32:13
    本文介绍如何使用新版容器服务控制台快速创建标准 TKE 集群,您可在集群创建完毕后再创建 Worker Node。

    前提条件

    在创建集群前,您需要完成以下工作:
    当您首次登录 容器服务控制台 时,需对当前账号授予腾讯云容器服务操作云服务器 CVM、负载均衡 CLB、云硬盘 CBS 等云资源的权限。详情请参见 服务授权
    如果要创建网络类型为私有网络的容器集群,需要在目标地域 创建一个私有网络,并且在私有网络下的目标可用区 创建一个子网
    集群创建过程中将使用私有网络、子网、安全组等多种资源。资源所在地域具备一定的配额限制,详情请参见 购买集群配额限制

    通过控制台创建集群

    1. 登录 容器服务控制台,选择左侧导航栏中的 集群
    2. 单击集群列表上方的新建
    3. 在集群类型中,选择标准集群,单击创建

    1. (必填)填写集群信息

    集群信息页面,设置集群的基础配置和网络配置。如下图所示:
    
    
    

    基础配置核心参数说明

    参数名称
    使用说明
    集群名称
    输入要创建的集群名称,不超过50个字符。
    Master&Etcd 维护
    平台管理:由腾讯云专业团队维护集群控制面组件,需支付一定的管理费用,详情请参见 集群管理费用
    自行维护:需用户自行购买、维护和管理控制面资源,平台不提供服务保障。
    集群规格
    根据业务实际情况选择合适的集群规格,详情请参见 如何选择集群规格。集群规格可手动调整,或者通过自动升配能力自动调整。
    Kubernetes 版本
    推荐您选择最新版本,版本支持范围可参考 TKE Kubernetes Revision 版本历史,版本维护规则请参见 TKE Kubernetes 版本维护机制
    运行时组件
    推荐您选择 Containerd 支持的最新版本。(Kubernetes 1.24通过 Dockershim 对 Docker 的支持已移除,TKE 新建节点的容器运行时仅支持 Containerd 1.6.9。)
    操作系统
    TKE 提供了包含 TencentOS、Ubuntu、CentOS 在内的多款公共镜像,请根据实际情况进行选择,详情请参见 TKE 支持的公共镜像列表
    腾讯云标签
    为集群绑定标签后可实现资源的分类管理,在集群内创建的云资源会默认继承集群标签。
    高级设置
    节点 hostname 命名模式:主机和节点命名规则,支持设置“自动命名(默认为内网 IP)”和“手动命名”。 新增资源所属项目:根据实际需求进行选择,新增的资源将会自动分配到该项目下。

    网络配置核心参数说明

    参数名称
    使用说明
    VPC 网络
    为集群内节点选择一个私有网络,详情请参见 VPC 产品概述
    容器网络插件
    CNI (Container Network Interface) 网络插件是一种用于 Kubernetes 集群的网络解决方案,旨在提供灵活、可扩展和高性能的网络连接。CNI TKE 网络插件遵循 CNI 规范,允许 Kubernetes 集群与各种网络解决方案无缝集成,以满足不同的业务需求和性能要求。TKE 提供了3种网络 CNI 插件方案:VPC-CNI、Global Router 和 Cilium-Overlay,详情请参见 如何选择容器网络模式
    注意:
    TKE 推荐用户在公有云场景下使用 “VPC-CNI” 网络方案,在注册节点场景下使用 “Cilium-Overlay” 网络方案。
    VPC-CNI 网络方案
    TKE 默认推荐用户使用VPC-CNI 方案。VPC-CNI 网络方案是 TKE 基于腾讯云 VPC 实现的容器网络接口 CNI,可以将 VPC 原生的弹性网卡直接分配给 Pod,实现 Pod 之间的网络互联,适用于对时延有较高需求的场景。该网络模式下,容器与节点分布在同一网络平面,容器 IP 为 IPAMD 组件分配的弹性网卡 IP。详情请参见 VPC-CNI 方案介绍
    Global Router 网络方案 Global Router 网络方案是 TKE 基于腾讯云 VPC 的全局路由能力实现的容器网络接口 CNI。其中 Pod CIDR 网段独立于 VPC 的 CIDR 网段,不同节点的 Pod CIDR 信息会通过全局路由方式下发到 VPC,实现跨节点 Pod 的互访。详情请参见 Global Router 方案介绍
    Cilium-Overlay 网络方案 Cilium-Overlay 网络方案是 TKE 基于 Cilium VXLan 实现的容器网络插件,实现分布式云场景中,注册节点添加到 TKE 集群的网络管理。详情请参见 Cilium-Overlay 方案介绍
    高级设置
    Kube-proxy 代理模式:可选择 iptables 或 ipvs。ipvs 适用于将在集群中运行大规模服务的场景,开启后不能关闭。详情请参见 集群启用 IPVS

    2. (选填)填写组件配置

    说明:
    所选组件需待节点资源就绪后才能正常部署,您也可以跳过当前步骤,等待集群创建初始化完毕后在集群内通过组件管理页安装,详情请参见 组件管理
    组件配置页面,设置集群的组件和云原生服务,如下图所示:
    
    
    

    云原生服务参数说明

    参数名称
    使用说明
    Prometheus 监控服务
    开启后,您可以按照实际需求灵活配置数据采集规则,并按需要配置告警规则,配置完成后即可打开 Grafana 查看监控数据。详情请参见 Prometheus 监控服务
    日志服务
    选择是否开通集群审计服务。详情请参见 集群审计

    3. 信息确认

    信息确认页面,确认集群的已选配置信息和费用,勾选我已阅读并同意 容器服务服务等级协议。如下图所示:
    
    
    
    单击完成即可创建一个不包含 Worker Node 的 TKE 标准集群。

    相关操作

    为集群添加 Worker 节点,详情请参见 节点概述
    联系我们

    联系我们,为您的业务提供专属服务。

    技术支持

    如果你想寻求进一步的帮助,通过工单与我们进行联络。我们提供7x24的工单服务。

    7x24 电话支持