pve/back
2023-06-17 22:31:57 +08:00
..
back.md Update back.md 2023-06-03 14:07:38 +08:00
buildv6only.sh Rename buildv6only.sh to back/buildv6only.sh 2023-04-23 08:45:53 +08:00
get_images.py Create get_images.py 2023-04-09 01:07:45 +08:00
install_iso.sh Rename install_iso.sh to back/install_iso.sh 2023-04-10 22:37:29 +08:00
install_pve7.sh Rename install_pve7.sh to back/install_pve7.sh 2023-02-24 14:32:05 +08:00
pve6_to_pve7.sh Rename pve6_to_pve7.sh to back/pve6_to_pve7.sh 2023-04-03 21:51:25 +08:00
README.md Update README.md 2023-06-17 22:31:57 +08:00
rebuild.sh Update rebuild.sh 2023-05-07 13:13:19 +08:00
rebuild_qcow2.sh Update rebuild_qcow2.sh 2023-05-07 13:09:21 +08:00
uninstallpve.sh Update uninstallpve.sh 2023-05-11 16:08:31 +08:00

存档的脚本 - 勿要使用 - 全是BUG

pve6.4升级为最新的pve7.x

自测中,勿要使用,未完成

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/pve6_to_pve7.sh -o pve6_to_pve7.sh && chmod +x pve6_to_pve7.sh && bash pve6_to_pve7.sh

加载系统模板

  • 加载KVM或LXC模板到PVE的ISO/CT列表中(debian11ubuntu20)
  • 加载完成后请web端查看 pve > local(pve) > ISO Images/CT Templates 刷新一下记录,直接去创建虚拟机是可能看不到已加载的
curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/install_iso.sh -o install_iso.sh && chmod +x install_iso.sh && bash install_iso.sh

替换qcow2

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/back/rebuild.sh -o rebuild.sh && chmod +x rebuild.sh && bash rebuild.sh
guestfish -a xxx -i -c "cat /etc/ssh/sshd_config"
qm exec 虚拟机ID /bin/bash

卸载所有虚拟机

for vmid in $(qm list | awk '{if(NR>1) print $1}'); do qm stop $vmid; qm destroy $vmid; rm -rf /var/lib/vz/images/$vmid*; done
iptables -t nat -F
iptables -t filter -F
service networking restart
systemctl restart networking.service
rm -rf vm*

卸载PVE整体环境

尝试失败因为已自动替换过为PVE的内核如需卸载需要先替换为原生内核

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/back/uninstallpve.sh -o uninstallpve.sh && chmod +x uninstallpve.sh && bash uninstallpve.sh

PVE基础安装说明

  • 配置完毕需要重启系统加载新内核
  • 重启系统前推荐挂上nezha探针方便在后台不通过SSH使用命令行避免SSH可能因为商家奇葩的预设导致重启后root密码丢失

目录

系统要求与配置

各种要求

建议debian在使用前尽量使用最新的系统

非debian11可使用 debian一键升级 来升级系统

当然不使用最新的debian系统也没问题只不过得不到官方支持。只适配Debian系统(非Debian无法通过APT源安装官方只给了Debian的镜像其他系统只能使用ISO安装)

  • 系统要求Debian 8+ (建议debian11而不是debian12因为后者是beta版本debian11安装的才是稳定版)
  • 最低的硬件要求2核2G内存x86_64架构服务器硬盘至少20G内存开点swap免得机器炸了开SWAP点我跳转
  • 可开KVM的硬件要求VM-X或AMD-V支持-(部分VPS和全部独服支持)
  • 如果硬件需求不满足可使用LXD批量开LXC的跳转

遇到选项不会选的可无脑回车安装所有脚本内置国内外IP自动判断使用的是不同的安装源与配置文件有使用CDN加速镜像下载

检测硬件环境

  • 本仓库脚本执行前务必执行本脚本检测环境如果不符合安装PVE的要求则无法使用后续的脚本
  • 检测硬件配置是否满足最低要求
  • 检测硬件环境是否可嵌套虚拟化KVM类型的服务器
  • 检测系统环境是否可嵌套虚拟化KVM类型的服务器
  • 不可嵌套虚拟化KVM类型的服务器也可以开LXC虚拟化的服务器但不推荐安装PVE不如使用LXD
bash <(wget -qO- --no-check-certificate https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/check_kernal.sh)

国内:

bash <(wget -qO- --no-check-certificate https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/check_kernal.sh)

PVE基础安装说明

  • 安装的是当下apt源最新的PVE
  • 比如debian10则是pve6.4debian11则是pve7.xdebian12则是pve8.x(建议debian11而不是debian12因为后者是beta版本debian11安装的才是稳定版)
  • /etc/hosts文件修改(修正商家hostname设置错误以及新增PVE所需的内容)
  • 已设置/etc/hosts为只读模式,避免重启后文件被覆写,如需修改请使用chattr -i /etc/hosts取消只读锁定,修改完毕请执行chattr +i /etc/hosts只读锁定
  • 检测/etc/cloud/cloud.cfg如果发现preserve_hostnamefalse,则改为true同上也用chattr命令进行了文件锁定避免重启覆盖设置
  • 检测是否为中国IP如果为中国IP使用清华镜像源否则使用官方源
  • 安装PVE开虚拟机需要的必备工具包
  • 替换apt源中的企业订阅为社区源
  • 打印查询Linux系统内核和PVE内核是否已安装
  • 检测/etc/resolv.conf是否为空,为空则设置检测8.8.8.8的开机自启添加DNS的systemd服务
  • 新增PVE的APT源链接后下载PVE并打印输出登陆信息

一键安装PVE

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/install_pve.sh -o install_pve.sh && chmod +x install_pve.sh && bash install_pve.sh

国内:

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/install_pve.sh -o install_pve.sh && chmod +x install_pve.sh && bash install_pve.sh

预配置环境

  • 创建资源池mypool
  • 移除订阅弹窗
  • 尝试开启硬件直通
  • 检测AppArmor模块并试图安装
  • 重启系统前推荐挂上nezha探针方便在后台不通过SSH使用命令行避免SSH可能因为商家奇葩的预设导致重启后root密码丢失
  • 执行完毕建议等待几分钟后再重启服务器,执行reboot前需要等待后台任务执行完毕一些宿主机的系统apt命令执行很慢得等一会才能执行完毕
bash <(wget -qO- --no-check-certificate https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/build_backend.sh)

国内

bash <(wget -qO- --no-check-certificate https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/build_backend.sh)

自动配置宿主机的网关

  • 使用前请保证重启过服务器且此时PVE能正常使用WEB端再执行重启机器后不要立即执行此命令待WEB端启动成功后至少等5分钟再执行本命令
  • 这一步是最容易造成SSH断开的原因是未等待PVE内核启动就修改网络会造成设置冲突所以至少等几分钟待内核启动也就是WEB端启动成功后再执行
  • 创建vmbr0母鸡允许addr和gateway为内网IP或外网IP已自动识别
  • vmbr0创建支持纯IPV4或双栈服务器自动识别IPV4地址和IPV6地址自动识别对应的IP区间
  • 创建vmbr1(NAT网关)
  • 开NAT虚拟机时网关IPV4使用172.16.1.1IPV4/CIDR使用172.16.1.x/24这里的x不能是1当然如果后续使用本套脚本无需关注这点细枝末节的东西
  • 想查看完整设置可以执行cat /etc/network/interfaces查看
  • 加载iptables并设置回源且允许NAT端口转发
bash <(wget -qO- --no-check-certificate https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/build_nat_network.sh)

国内

bash <(wget -qO- --no-check-certificate https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/build_nat_network.sh)

一键生成KVM虚拟化的NAT服务器

使用前记得执行本仓库的第一个个命令,那个检测硬件环境的命令,展示如下

图片

查询如上的只需使用下面的一键脚本自动创建虚拟机即可无需手动再修改WEB端设置

图片

查询如上的在使用后续脚本创建了虚拟机后,可能需要手动修改WEB端设置需要关闭对应每个虚拟机的硬件嵌套虚拟化如下图

图片

先停止虚拟机再修改修改完后再开机才能使用NOVNC不关闭可能导致这个虚拟机有BUG无法使用

如果强行安装PVE开KVM启动不了的也可以关闭这个选项试试能不能启动虚拟机

单独生成KVM虚拟化的VM

  • 自动开设NAT服务器默认使用Debian10镜像因为该镜像占用最小
  • 可在命令中自定义需要使用的镜像这里有给出配置好的镜像镜像自带空间设置是2~10G硬盘日常使用至少10G以上即可,除非某些镜像开不起来再增加硬盘大小
  • 可在命令中指定存储盘位置默认不指定时为local盘即系统盘可指定为PVE中显示的挂载盘
  • 自定义内存大小推荐512MB内存需要注意的是母鸡内存记得开点swap免得机器炸了开SWAP点我跳转
  • 自动进行内外网端口映射含2280443端口以及其他25个内外网端口号一样的端口
  • 生成后需要等待一段时间虚拟机内部的cloudinit配置好网络以及登陆信息大概需要5分钟
  • 虚拟机的相关信息将会存储到对应的虚拟机的NOTE中可在WEB端查看
curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildvm.sh -o buildvm.sh && chmod +x buildvm.sh

国内

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildvm.sh -o buildvm.sh && chmod +x buildvm.sh

单个生成的使用方法

  • 系统支持:详见 跳转 中列出的系统,使用时只需写文件名字,不需要.qcow2尾缀
  • 注意这里的用户名不能是纯数字会造成cloudinit出问题最好是纯英文或英文开头
./buildvm.sh VMID 用户名 密码 CPU核数 内存 硬盘 SSH端口 80端口 443端口 外网端口起 外网端口止 系统 存储盘

示例

测试开一个NAT服务器

以下示例开设VMID为102的虚拟机用户名是test1密码是1234567CPU是1核内存是512MB硬盘是10GSSH端口是4000180端口是40002443端口是40003

同时内外网映射端口一致的区间是50000到50025系统使用的是ubuntu20使用宿主机的存储盘是local盘

./buildvm.sh 102 test1 1234567 1 512 10 40001 40002 40003 50000 50025 ubuntu20 local

开设完毕可执行

cat vm102

登陆后可使用sudo -i切换到root用户

查看信息

删除示例

删除端口映射删除测试的虚拟机和log文件

qm stop 102
qm destroy 102
iptables -t nat -F
iptables -t filter -F
service networking restart
systemctl restart networking.service
rm -rf vm102

相关qcow2镜像

  • 已预安装开启cloudinit开启SSH登陆预设值SSH监听V4和V6的22端口开启允许密码验证登陆开启允许ROOT登陆

https://github.com/spiritLHLS/Images/releases/tag/v1.0

批量开设NAT的KVM虚拟化的VM

  • 初次使用前需要保证当前PVE未有任何虚拟机未有进行任何端口映射否则可能出现BUG
  • 开设前请使用screen挂起执行避免批量开设时间过长SSH不稳定导致中间执行中断推荐使用PVE自带的Shell操作母鸡
  • 可多次运行批量生成VM但需要注意的是母鸡内存记得开点swap免得机器炸了开SWAP点我跳转
  • 自动开设NAT服务器选项留空默认使用debian11镜像可自定义使用镜像名字支持的系统名字详见上文的镜像仓库
  • 自动进行内外网端口映射含2280443端口以及其他25个内外网端口号一样的端口
  • 生成后需要等待一段时间虚拟机内部的cloudinit配置好网络以及登陆信息大概需要5分钟每个虚拟机创建之间有间隔等待60秒避免突发性能不足
  • 默认批量开设的虚拟机网络配置为2280443端口及一个25个端口区间的内外网映射
  • 可自定义批量开设的核心数,内存大小,硬盘大小,使用宿主机哪个存储盘,记得自己计算好空闲资源开设
  • 虚拟机的相关信息将会存储到对应的虚拟机的NOTE中可在WEB端查看

使用方法

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/create_vm.sh -o create_vm.sh && chmod +x create_vm.sh && bash create_vm.sh

国内

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/create_vm.sh -o create_vm.sh && chmod +x create_vm.sh && bash create_vm.sh

开设完毕可执行

cat vmlog

查看信息

登陆后可使用sudo -i切换到root用户

删除所有虚拟机

删除所有nat的端口映射并重启网络删除所有虚拟机和log文件

for vmid in $(qm list | awk '{if(NR>1) print $1}'); do qm stop $vmid; qm destroy $vmid; rm -rf /var/lib/vz/images/$vmid*; done
iptables -t nat -F
iptables -t filter -F
service networking restart
systemctl restart networking.service
rm -rf vmlog

注意事项

PVE修改虚拟机配置前都得停机先再修改配置修改完再启动免得出现配置重载错误

一键开设独立IPV4地址的虚拟机

  • 使用前需要保证当前宿主机的IP段带了至少2个IP且有空余的IP未配置该空余的IP未绑定宿主机
  • 开设前请使用screen挂起执行避免开设时间过长SSH不稳定导致中间执行中断
  • 自动检测可用的IP区间通过ping检测空余可使用的IP选取其中之一绑定到虚拟机上
  • 系统的相关信息将会存储到对应的虚拟机的NOTE中可在WEB端查看

方法

下载脚本

curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildvm_extraip.sh -o buildvm_extraip.sh && chmod +x buildvm_extraip.sh

国内下载

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildvm_extraip.sh -o buildvm_extraip.sh && chmod +x buildvm_extraip.sh

示例创建

./buildvm_extraip.sh VMID 用户名 密码 CPU核数 内存大小以MB计算 硬盘大小以GB计算 系统 存储盘
./buildvm_extraip.sh 152 test1 1234567 1 1024 10 ubuntu20 local

上述命令意义为开设一个带独立IPV4地址的虚拟机VMID是152用户名是test1密码是1234567CPU是1核内存是1024MB硬盘是10G系统是Ubuntu20存储盘是local盘也就是系统盘

删除独立IPV4的虚拟机

删除示例

qm stop 152
qm destroy 152
rm -rf vm152

一键生成单个CT也就是LXC虚拟化的NAT容器

LXC虚拟化的容器-自带内外网映射

  • 初次使用前需要保证当前PVE未有任何虚拟机未有进行任何端口映射否则可能出现BUG
  • 开设前请使用screen挂起执行避免批量开设时间过长SSH不稳定导致中间执行中断推荐使用PVE自带的Shell操作母鸡
  • 自动开设NAT服务器默认使用Debian11镜像也可自定义系统
  • 自动进行内外网端口映射含2280443端口以及其他25个内外网端口号一样的端口
  • 生成后需要等待一段时间虚拟机内部配置好网络以及登陆信息大概需要3分钟
  • 默认开设的虚拟机网络配置为2280443端口及一个25个端口区间的内外网映射
  • 可自定义开设的核心数,内存大小,硬盘大小,使用宿主机哪个存储盘,记得自己计算好空闲资源开设
  • 可在命令中指定存储盘位置默认不指定时为local盘即系统盘可指定为PVE中显示的挂载盘
  • 开设的CT默认已启用SSH且允许root登陆且已设置支持使用docker的嵌套虚拟化
  • 容器的相关信息将会存储到对应的容器的NOTE中可在WEB端查看
curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildct.sh -o buildct.sh && chmod +x buildct.sh

国内

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/buildct.sh -o buildct.sh && chmod +x buildct.sh

如何使用

  • 系统支持debian10debian11ubuntu18ubuntu20ubuntu22centos8almalinux9等
  • 系统参数一律是小写的系统名字拼接版本号,具体可执行pveam available --section system查看可用的系统名字和版本号(注意脚本使用的参数只有小写的英文系统名字拼接版本号)
  • 其他系统可能支持可能不支持,自行测试
  • 默认用户名是root
./buildct.sh CTID 密码 CPU核数 内存 硬盘 SSH端口 80端口 443端口 外网端口起 外网端口止 系统 存储盘

CT示例

测试开一个NAT的LXC虚拟化的容器

以下示例开设CTID为102的容器用户名是root密码是1234567CPU是1核内存是512MB硬盘是5GSSH端口是2000180端口是20002443端口是20003

同时内外网映射端口一致的区间是30000到30025系统使用的是debian11使用宿主机的存储盘是local盘

./buildct.sh 102 1234567 1 512 5 20001 20002 20003 30000 30025 debian11 local

开设完毕可执行

cat ct102

查看信息或在web端的note查看

删除示例CT

以下命令将删除示例CT和log文件删除所有的nat的端口映射并重启网络

pct stop 102
pct destroy 102
rm -rf ct102
iptables -t nat -F
iptables -t filter -F
service networking restart
systemctl restart networking.service

批量开设NAT的LXC虚拟化的CT容器

  • 自带内外网映射
  • 可重复运行继承配置

一键命令

  • 初次使用前需要保证当前PVE未有任何CT容器未有进行任何端口映射否则可能出现BUG
  • 开设前请使用screen挂起执行避免批量开设时间过长SSH不稳定导致中间执行中断推荐使用PVE自带的Shell操作母鸡
  • 可多次运行批量生成CT容器但需要注意的是母鸡内存记得开点swap免得机器炸了开SWAP点我跳转
  • 每个容器创建之间有间隔等待60秒避免突发性能不足
  • 可自定义批量开设的核心数,内存大小,硬盘大小,使用宿主机哪个存储盘,记得自己计算好空闲资源开设
  • 开设的CT默认已启用SSH且允许root登陆且已设置支持使用docker的嵌套虚拟化
  • 容器的相关信息将会存储到对应的容器的NOTE中可在WEB端查看
curl -L https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/create_ct.sh -o create_ct.sh && chmod +x create_ct.sh && bash create_ct.sh

国内

curl -L https://ghproxy.com/https://raw.githubusercontent.com/spiritLHLS/pve/main/scripts/create_ct.sh -o create_ct.sh && chmod +x create_ct.sh && bash create_ct.sh

开设完毕可执行

cat ctlog

查看信息

删除所有CT

以下命令将删除所有CT和所有的log文件删除所有nat的端口映射并重启网络

pct list | awk 'NR>1{print $1}' | xargs -I {} sh -c 'pct stop {}; pct destroy {}'
rm -rf ct*
iptables -t nat -F
iptables -t filter -F
service networking restart
systemctl restart networking.service

致谢

https://blog.ilolicon.com/archives/615

https://github.com/Ella-Alinda/somescripts/blob/main/nat.sh

https://pve.proxmox.com/pve-docs/qm.1.html

https://down.idc.wiki/Image/realServer-Template/

https://mirrors.tuna.tsinghua.edu.cn/proxmox/

https://github.com/roacn/pve/blob/main/pve.sh

https://github.com/spiritLHLS/lxc

感谢 @Ella-Alinda 提供的PVE指导