一、Proxmox Virtual Environment介绍Proxmox VE 是用于企业虚拟化的开源服务器管理平台。它在单个平台上紧密集成了KVM虚拟机管理程序和LXC,软件定义的存储以及网络功能。借助基于Web的集成用户界面,您可以轻松管理VM和容器,高可用性群集或集成的灾难恢复工具。 同时Proxmox VE对接Proxmox备份服务器,可实现对VM、容器的全量和增量备份,可显著减少网络负载并节省宝贵的存储空间。 二、环境介绍本文章所述环境采用3台物理服务器(含4口万兆网卡),1台万兆业务交换机,1台万兆管理交换机。 注意:由于使用ceph搭建分布式存储,为保证性能,管理网络及业务网络强烈建议采用全万兆部署。 2.1 软件版本
本次部署采用当前最新版本:Proxmox VE 6.3,可根据当时情况选择最新版本。 2.2 服务器配置![]()
三、软件获取
访问官网下载ISO镜像文件,根据需要选择版本: 四、RAID规划4.1 系统盘
4.2 ceph盘
五、物理网络生产环境对可靠性要求较高,所以建议采用链路聚合方式,将多个物理网卡绑定为一个逻辑接口,从而提高网络的性能及可靠性。 链路聚合可在以下三种模式中选择:
5.1 网络规划5.1.1 物理网络拓扑![]()
5.1.2 vlan及网段规划![]()
5.2 网络配置
5.2 网络配置
以华为交换机为例。
六、PVE安装6.1 选择第一个选项,安装PVE![]()
6.2 同意协议![]()
6.3 选择系统盘
![]()
6.5 配置密码、邮箱
6.6 配置网卡、主机名、IP地址、DNS等信息
![]()
![]()
6.7 检查无误后点击安装![]()
安装结束后重启,通过浏览器访问,出现以下页面内容证明安装成功。
6.8 按照此方法安装全部服务器七、更换软件源(三个节点都需要配置)由于自带的软件源速度较慢,此处选择科大源:http://mirrors.ustc.edu.cn
涉及的软件源有三个,分别为debain、pve、ceph,需要分别修改下列文件。
7.1 通过web管理页面中的shell或ssh登录后台![]()
7.2 更换debian源
删除默认的源,替换为:
7.3 更换pve源为非订阅源
7.4 添加 Ceph 镜像源
创建 ceph_mirror.list 文件:
增加以下内容:
八、更新PVE至最新版本(按需)根据实际需求决定是否更新为最新版本。 如需更新三台节点都需要执行:
九、基础配置(三个节点都需要配置)9.1 安装ifupdown2此组件用于配置网卡后重启网卡操作:
9.2 安装vim
9.3 配置ntp服务配置统一的时钟源
十、PVE网络配置(三个节点都需要配置)10.1 PVE服务器网络拓扑
放一张图有助于理解配置,可以结合5.1.1章节拓扑图理解。
10.2 管理网络10.2.1 编辑vmbr0
移除eno1,以便于将eno1加入到bond0中,删除桥接端口中的eno1,然后点击OK。
10.2.2 创建bond0
点击创建Linux Bond。
10.2.3 编辑vmbr0
桥接端口配置:bond0。
10.2.4 应用配置
如果感觉配置有问题可以点击还原按钮,还原为配置前状态。 10.3 业务网络业务网络配置与管理网络类似。 10.3.1 创建bond1
点击创建Linux Bond。
10.3.2 创建vmbr1
桥接端口配置:bond1。
10.3.3 应用配置点击应用配置使配置生效。 10.4 网络配置检查
在交换机中检查聚合接口状态是否正常。
查看所有eth-trunk接口状态,Status为Selected,则聚合接口正常。
十一、集群组建创建集群,将三台节点加入同一集群。 11.1 在其中一个节点上点击,”数据中心“ — ”集群“ — ”创建集群“。11.2 点击加入信息,复制加入信息。![]()
11.3 在其他两个节点上,点击加入集群,粘贴加入信息,然后输入第一台节点的root密码,即可完成加入。![]()
11.4 加入集群完成后需要刷新页面才能正常使用,全部加入完成后,就可以在一个节点上管理集群中所有节点了。![]()
十二、cephCeph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。它可以将多台服务器中的硬盘聚合成一个集群,对外可提供文件存储、块存储、对象存储等多种形式,ceph的另一个特点是数据采用多副本方式存储,避免由于单点故障造成的业务中断和数据丢失。 PVE自带了ceph的图形化安装、管理工具,集群搭建完成后,可以快速完成ceph的安装、配置。同时pve也提供命令行工具,可以使用命令行对ceph进行自定义配置。 12.1 ceph磁盘规划我的环境中,sda到sdh为8块HDD硬盘,sdi到sdl为4块SSD硬盘。 为提高hdd的性能,我们将sdi作为所有hdd硬盘的DB盘,将sdj作为所有hdd硬盘的WAL磁盘。
![]()
12.2 ceph安装在全部节点中,安装ceph组件。
12.2.1 选择节点 — ”ceph“ 点击 ” Install ceph ”![]()
12.2.2 选择版本,此处选择 “ 15.2 ”![]()
12.2.3 输入 ” Y “ 开始安装
此配置是将ssd硬盘和hdd硬盘分别创建pool,分别为sdd_data和hdd_data。 12.3.1 创建osd在 ”ceph“ — ”osd“ 选项卡创建OSD。 正常情况下磁盘类型会自动识别,如果识别的不正确,注意手动调整。 创建方式如下:
创建hdd时注意选择DB和WAL磁盘。
![]()
假设osd0需要更改。 删除osd类别信息:
设置osd类别信息
12.3.2 创建class rule
12.3.3 创建存储池
原因是集群默认的 crushmap 规则是按 host 级别,可使用以下方法修改为 osd 级别:
12.3.4 添加存储池至PVE ”数据中心“ — ”存储“ — ”添加“ — ”RBD“。
![]()
![]()
十三、安全加固13.1 配置公钥登录13.1.1 生成密钥对以xshell为例。
![]()
设置密码为可选项,为保证密钥安全,建议设置。
13.1.2 将公钥复制至服务器"/root/.ssh/authorized_keys"文件中,选择"SSH2 - OpenSSH"格式。![]()
13.1.3 禁止ssh使用密码登录,禁止前先验证一下公钥方式能否登录。
(责任编辑:IT) |