Aller au contenu

Proxmox 9

Dans cet article

Fonctionnalités de déploiement

ID Nom du logiciel Système d'exploitation compatible VM BM VGPU GPU Min CPU (Cœurs) Min RAM (Go) Min HDD/SSD (Go) Actif
350 ProxmoxVE 9 community edition Debian 13 + + + + 2 2 - COMMANDER
25 ProxmoxVE 7.6 community edition Debian 11 + + + + 2 2 - Non
32 ProxmoxVE 8.x community edition Debian 12 + + + + 2 2 - Non

Proxmox VE 9.0

Proxmox VE 9.0 a été publié le 5 août 2025 et présente des différences significatives par rapport à la version 8.x :

Principales nouvelles fonctionnalités de la version 9.0 :

  • Transition vers Debian Trixie ;
  • Snapshots pour les machines virtuelles sur le stockage LVM avec allocation de ressources épaisses (technologie preview) ;
  • Règles de haute disponibilité (HA) pour la liaison des nœuds et des ressources ;
  • Factories pour la pile réseau définie par logiciel (SDN) ;
  • Interface web mobile modernisée ;
  • ZFS prend en charge l'ajout de nouveaux périphériques aux pools RAIDZ existants avec un temps d'arrêt minimal.

Changements critiques dans la version 9.0 :

  • Le dépôt de test a été renommé en pve-test ;
  • Changements possibles dans les noms des interfaces réseau ;
  • VirtIO vNIC : valeur par défaut modifiée pour le champ MTU ;
  • Mise à jour vers AppArmor 4 ;
  • Privilège VM.Monitor révoqué ;
  • Nouveau privilège VM.Replicate pour la réplication de stockage ;
  • La création de conteneurs privilégiés nécessite les privilèges Sys.Modify ;
  • Prise en charge de la configuration maxfiles pour la sauvegarde abandonnée ;
  • Prise en charge de GlusterFS abandonnée ;
  • systemd enregistre un avertissement System is tainted: unmerged-bin après le démarrage.

Si vous avez commandé un serveur avec la version 9.0, assurez-vous de consulter la documentation détaillée des développeurs

Note

Sauf indication contraire, nous installons par défaut la dernière version de publication du logiciel à partir des dépôts officiels.

Proxmox 9. Installation

Après l'installation du serveur, dans les 15-20 minutes, l'installation du service Proxmox VE est effectuée. Un e-mail sera envoyé à la boîte mail liée au compte, vous informant du serveur installé et fournissant un lien au format https://proxmox<ID_server>.hostkey.in, auquel vous devez accéder pour entrer dans l'interface de gestion web de Proxmox VE :

  • Login - root ;
  • Password - mot de passe système.

Attention

Si vous installez Proxmox en tant que système d'exploitation, pour accéder à l'interface web, vous devez aller à l'adresse http://IP_serveur:8006.

Première connexion et vérification de base

  1. Ouvrez votre navigateur → https://<IP_serveur>:8006 et entrez les identifiants :

  2. Naviguez vers : DatacenterNodeSummary - vérifiez le CPU, la RAM, les disques, l'uptime :

  3. Désactivez le dépôt entreprise si vous n'avez pas d'abonnement : NodeRepositoriespve-enterpriseDisable. Gardez pve-no-subscription :

Commandes pour le terminal :

sed -i 's/^deb/#deb/g' /etc/apt/sources.list.d/pve-enterprise.list || true
apt update

Réseau : Bridge vmbr0

Le bridge vmbr0 est un "switch" virtuel auquel les VMs sont connectées. Il est lié à une interface physique (par exemple, ens18/eno1).

Via l'interface Web

  1. NodeSystemNetwork :

  2. Vérifiez que vmbr0 existe. S'il n'existe pas ou n'est pas configuré - CreateLinux Bridge :

    • Name : vmbr0
    • IPv4/CIDR : spécifiez votre IP statique au format X.X.X.X/YY (laissez vide si vous utilisez DHCP) ;
    • Gateway (IPv4) : passerelle par défaut (généralement X.X.X.1) (ne saisissez pas si vous utilisez DHCP) ;
    • Bridge ports : votre interface physique, par exemple ens1 ;
    • Save → Apply configuration :

Via CLI (si l'accès web est perdu)

Exemple /etc/network/interfaces (ifupdown2) :

auto lo
iface lo inet loopback

auto ens18
iface ens18 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.0.2.10/24
    gateway 192.0.2.1
    bridge-ports ens18
    bridge-stp off
    bridge-fd 0

Appliquer les modifications :

ifreload -a

Note

Si l'adressage DHCP est nécessaire pour le nœud : remplacez le bloc iface vmbr0 inet static par iface vmbr0 inet dhcp et supprimez la ligne gateway.

Erreurs courantes :

  • bridge-ports incorrectement spécifié (mauvaise interface physique) → le réseau "disparaît". Corrigez l'interface et exécutez ifreload -a.
  • Mauvaise passerelle ou sous-réseau saisi → connexion locale existe mais pas d'accès Internet.

Disques et stockage

Ajouter un deuxième disque pour le stockage des VM

  1. NodeDisks : assurez-vous que le nouveau disque est visible (par exemple, sdb) :

  2. Option A - LVM-Thin (pratique pour les snapshots) :

    • DisksLVM-ThinCreate : sélectionnez le disque → spécifiez le nom VG (par exemple, pve2) et thin-pool (par exemple, data2) :

    • Le stockage apparaîtra dans DatacenterStorage.

  3. Option B - Directory :

    • Créez un système de fichiers (DisksZFS ou manuellement mkfs.ext4), montez sur /mnt/... :

    • DatacenterStorageAddDirectory → chemin /mnt/... → activez Disk image, ISO image (au besoin).

Note

Pour ZFS choisissez un profil en tenant compte de la RAM (recommandé ≥ 8 Go). Sur les VDS faibles, LVM-Thin ou Directory est préférable.

Chargement des images ISO

Les images ISO peuvent être chargées de deux manières.

A. Via l'interface Web

  1. DatacenterStorage → (sélectionnez storage avec le type ISO, par exemple local) → Content.
  2. Upload → sélectionnez le fichier local ubuntu-25.10-live-server-amd64.iso → attendez la fin du téléchargement :

B. Via le nœud (CLI)

Exemple de téléchargement de l'ISO Ubuntu 25.10 dans le stockage local :

cd /var/lib/vz/template/iso
wget https://releases.ubuntu.com/25.10/ubuntu-25.10-live-server-amd64.iso

Si l'ISO n'apparaît pas dans la liste - vérifiez qu'il se trouve dans le dossier .../template/iso du stockage souhaité et que le storage a le type ISO Image activé.

Créer la première VM (Ubuntu 25.10)

Exemple : Ubuntu Server 25.10 (VPS avec 2 vCPU)

Cliquez sur Create VM (en haut à droite) :

General : laissez l'ID par défaut, Name - ubuntu2510 (ou le vôtre) :

OS : sélectionnez l'ISO ubuntu-25.10-live-server-amd64.iso, Type : Linux :

System :

  • Graphics card : Default ;
  • BIOS : OVMF (UEFI) ;
  • Machine : q35 ;
  • SCSI Controller : VirtIO SCSI single ;
  • (Optionnel) activez Qemu Agent dans Options après la création de la VM (voir ci-dessous) :

Disks :

  • Bus/Device : SCSI ;
  • SCSI Controller : VirtIO SCSI single ;
  • Storage : votre LVM-Thin/Directory ;
  • Size : 20–40 Go (minimum 10-15 Go pour les tests) ;
  • Discard (TRIM) : activez sur un thin-pool :

CPU :

  • Sockets : 1 ;
  • Cores : 2 (selon votre VPS) ;
  • Type : host (meilleure performance) :

Memory :

  • 2048–4096 Mo. Vous pouvez activer Ballooning (par exemple, Min 1024, Max 4096) :

Network :

  • Model : VirtIO (paravirtualisé) ;
  • Bridge : vmbr0 ;
  • Si VLAN nécessaire : VLAN Tag :

Confirm : vérifiez les paramètres, cochez Start after created et cliquez sur Finish :

Installation de l'OS :

  1. Démarrez la VM → Console (noVNC) → Try or Install Ubuntu :

  2. Installateur :

    • DHCP/IP statique selon la situation ;
    • Disque : Use entire disk ;
    • Profil : utilisateur/mot de passe ;
    • OpenSSH server : activer.
  3. Redémarrez et connectez-vous via console/SSH.

Post-installation :

sudo apt update && sudo apt -y full-upgrade
sudo apt -y install qemu-guest-agent
sudo systemctl enable --now qemu-guest-agent

Ensuite dans Proxmox : VMOptionsQemu Agent = Enabled :

Boot Order : si démarrage depuis ISO - OptionsBoot Order → déplacez scsi0 au-dessus de cdrom.

Installation de Windows (pour les nœuds plus puissants)

Convient pour les nœuds avec ≥4 vCPU/8 Go RAM. Sur les VPS faibles, Windows peut fonctionner de manière instable.

  1. ISO : téléchargez les ISO de Windows Server (2019/2022/2025) et virtio-win.iso (pilotes) dans StorageContent :

  2. Create VMOS : Microsoft Windows, ISO - image d'installation. L'option Add additional drive for VirtIO drivers permet d'ajouter un second CD avec les pilotes :

  3. System : BIOS OVMF (UEFI) ;

    • Machine : q35 ;
    • Si nécessaire, activez Add EFI Disk et Add TPM (pour les nouvelles versions de Windows). Si ça ne démarre pas - essayez SeaBIOS et désactivez EFI/TPM :

  4. Disks :

    • Bus : SCSI ;
    • Controller : VirtIO SCSI ;
    • Size : 40–80 Go ;
    • IO Threads : activer :

  5. CPU : 2–4 vCPU ;

    • Type : host :

  6. Memory : 4–8 Go :

  7. Network : Model VirtIO (paravirtualisé), Bridge vmbr0 :

  8. Confirm : terminez la création de la VM avec le bouton Create, puis dans HardwareCD/DVD Drive connectez le second ISO - virtio-win.iso :

  9. Installateur Windows : à l'étape de sélection du disque, cliquez sur Charger le pilote → spécifiez le CD avec VirtIO (vioscsi/viostor). Après l'installation - dans le Gestionnaire de périphériques, installez les pilotes réseau (NetKVM) :

  10. Agent invité (facultatif) : installez Qemu Guest Agent pour Windows depuis virtio-win ISO :

Dépannage Windows :

  • Écran noir/ne démarre pas : changez OVMF → SeaBIOS, désactivez EFI/TPM.
  • Pas de réseau : vérifiez que NIC = VirtIO et que le pilote NetKVM est installé.
  • Ralentissements du disque : assurez-vous que disque = SCSI + pilote virtio.

Conteneurs LXC : Démarrage rapide

Des modèles prêts à l'emploi avec un minimum de logiciels sont disponibles dans le stockage de modèles.

  1. DatacenterStorage → (sélectionnez storage avec le type Templates) → ContentTemplates. Téléchargez, par exemple : ubuntu-25.04-standard_*.tar.zst ou un autre modèle nécessaire :

  2. Cliquez sur Create CT :

    • General : spécifiez ID/Name, Unprivileged container = Enabled (par défaut plus sûr). Définissez le mot de passe root ou la clé SSH :

    • Template : sélectionnez le modèle téléchargé :

    • Disks : Storage/Size (par exemple, 8–20 Go) :

    • CPU/RAM : selon la tâche (par exemple, 1 vCPU, 1–2 Go RAM) :

    • Network : Bridge vmbr0, IPv4 = DHCP (ou Static si nécessaire). VLAN Tag si nécessaire :

    Conseil pour Network : Si vous utilisez NAT sur vmbr1, configurez-le et spécifiez l'IP statique.

    • DNS : par défaut depuis l'hôte ou le vôtre :

    • Features : si nécessaire, activez nesting, fuse, keyctl (dépend des applications dans le conteneur).
  3. Start at boot/Start after created : au choix.

  4. Après le démarrage : connectez-vous via SSH et installez les logiciels depuis le modèle ou les paquets :

    apt update && apt -y upgrade
    

Dans LXC, Qemu Guest Agent n'est pas nécessaire. Le montage des répertoires hôtes se fait via MP (Mount points).

Profils VM typiques

  • Ubuntu/Debian (Web/DB/Utilitaire) : SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 Go RAM, disque 20–60 Go ; activer Qemu Guest Agent.

  • Services légers (DNS/DHCP/Proxy) : 1 vCPU, 1–2 Go RAM, disque 8–20 Go.

  • Hôtes de conteneurs (Docker/Podman) : 2–4 vCPU, 4–8 Go RAM ; disque/pool séparé pour les données.

Alternative à l'ISO : vous pouvez utiliser des images Cloud-Init Ubuntu 25.10 pour un clonage rapide avec auto-configuration réseau/SSH. Convient si vous prévoyez de nombreuses VM similaires.

Connexion des VM et LXC dans un même réseau

Attention

Si vous utilisez Proxmox sur un VPS, vous n'obtiendrez qu'une seule IP externe et une seule MAC sans IP supplémentaires, VLANs et DHCP, donc :

  • L'IP publique doit être assignée uniquement au pont vmbr0, qui relie l'interface unique (par ex., ens18).
  • Les VM/CT ne peuvent pas obtenir leurs propres IP publiques ; elles doivent utiliser un sous-réseau interne (par ex., 10.10.0.0/24) et atteindre Internet via NAT sur l'hôte.
  • Les exemples ci-dessous avec les adresses 10.10.0.x se réfèrent aux réseaux internes (vmbr1), pas au pont externe vmbr0.

Variante de base (un seul sous-réseau) :

  1. Assurez-vous que toutes les VMs/conteneurs ont Bridge = vmbr0 (ou vmbr1).

  2. Si réseau avec DHCP - les adresses sont attribuées automatiquement, si statique - spécifiez les IP dans un même sous-réseau (par exemple, 10.10.0.2/24, 10.10.0.3/24) et passerelle commune 10.10.0.1.

  3. Optionnel. VLAN : spécifiez le Tag VLAN dans les paramètres de la carte réseau VM/CT et assurez-vous que l'uplink du switch permet ce VLAN.

  4. À l'intérieur de l'OS, vérifiez que le pare-feu local ne bloque pas ICMP/SSH/HTTP.

  5. Test : depuis la VM Ubuntu ping <IP-LXC> et vice versa ; ip route, traceroute aideront en cas de problème.

Lorsque des sous-réseaux différents :

  • Proxmox lui-même ne route pas entre les bridges. Un routeur (VM séparé avec Linux/pfSense) ou NAT sur l'hôte est nécessaire.

  • NAT simple sur l'hôte (exemple) :

Activer le forwarding :

sysctl -w net.ipv4.ip_forward=1
NAT de vmbr1 vers Internet via vmbr0 :

iptables -t nat -A POSTROUTING -o vmbr0 -j MASQUERADE

Pour la persistance, ajoutez des règles dans /etc/network/if-up.d/ ou utilisez nftables :

EXT_IF=vmbr0

iptables -t nat -C POSTROUTING -s 10.10.0.0/24 -o $EXT_IF -j MASQUERADE 2>/dev/null || \
iptables -t nat -A POSTROUTING -s 10.10.0.0/24 -o $EXT_IF -j MASQUERADE

iptables -C FORWARD -i vmbr1 -o $EXT_IF -j ACCEPT 2>/dev/null || \
iptables -A FORWARD -i vmbr1 -o $EXT_IF -j ACCEPT

iptables -C FORWARD -i $EXT_IF -o vmbr1 -m state --state RELATED,ESTABLISHED -j ACCEPT 2>/dev/null || \
iptables -A FORWARD -i $EXT_IF -o vmbr1 -m state --state RELATED,ESTABLISHED -j ACCEPT

Attention

Sur un VPS avec une seule IP, toutes les VMs/CTs sont généralement situées dans un sous‑réseau interne (par ex., 10.10.0.0/24) sur le pont vmbr1 et quittent l’internet via NAT sur l’hôte en utilisant la seule IP externe sur vmbr0.

Note

L'utilisation de NAT est adaptée pour fusionner les OS LXC et ISO‑installés dans un seul sous‑réseau.

Sauvegardes et modèles

  • Backup : DatacenterBackup ou NodeBackup - configurez le planning vzdump (stockage, heure, mode snapshot/stop) :

  • Modèle VM : après la configuration de base de la VM → Convert to Template. Créer de nouvelles VMs via Clone économise du temps et élimine les erreurs :

Problèmes courants et solutions

"L'interface Web a disparu" (GUI ne s'ouvre pas)

Vérifiez que le nœud est accessible via SSH. Sur le nœud, exécutez :

systemctl status pveproxy pvedaemon pve-cluster
journalctl -u pveproxy --no-pager -n 100
Redémarrage en douceur des services :

systemctl restart pveproxy pvedaemon

Si les paquets ont été mis à jour - terminez apt et résolvez les processus bloqués (prudemment), vérifiez l'espace disponible df -h.

Réseau perdu après modification du bridge

Connectez-vous via console (via fournisseur/VNC/IPMI). Vérifiez /etc/network/interfaces et appliquez :

ifreload -a
ip a
ip r

Vérifiez que la passerelle et le masque sont correctement définis, bridge-ports est la bonne interface physique.

La VM ne se connecte pas à Internet

  • Assurez-vous qu'à l'intérieur de la VM les IP/masque/passerelle/DNS corrects sont spécifiés.
  • Vérifiez que le Bridge de l'adaptateur réseau de la VM est vmbr0 (ou nat/vmbr1).
  • Si VLAN est utilisé - spécifiez le Tag VLAN dans les paramètres NIC de la VM (HardwareNetwork DeviceVLAN Tag), et sur l'uplink du switch autorisez ce VLAN.

L'ISO ne démarre pas / l'installateur n'est pas visible

  • Vérifiez l'ordre de démarrage (OptionsBoot Order) et que l'ISO correct est connecté.
  • Pour UEFI, vérifiez que Secure Boot n'est pas activé dans l'OS invité si l'ISO ne le supporte pas.

Charge élevée/« engorgement » du disque

  • Utilisez VirtIO SCSI et activez IO Threads pour les disques intensifs.
  • Ne stockez pas les sauvegardes sur le même thin-pool que les disques de production - préférez un stockage séparé.

Webcam/périphérique USB « déconnecté » dans la VM

  • Pour le passthrough USB, utilisez HardwareUSB Device (passthrough USB). Si le périphérique cesse de répondre - Stop/Start la VM ou reconnectez l'USB sur l'hôte. Parfois désactiver Use USB3 aide pour la compatibilité.

Mises à jour et redémarrage

apt update && apt full-upgrade -y
reboot

Mettez à jour pendant une « fenêtre » et faites une sauvegarde avant les mises à niveau majeures.

Diagnostics : Guide rapide

Réseau du nœud :

ip a; ip r; ping -c3 1.1.1.1; ping -c3 google.com
Services Proxmox :

systemctl status pveproxy pvedaemon pvestatd pve-cluster
journalctl -u pveproxy -n 200 --no-pager
Espace disque :

df -h | sort -k5 -h
lvs; vgs; pvs
Stockages :

cat /etc/pve/storage.cfg
Périphérique VM :

qm list; qm config <VMID>; qm status <VMID>
Redémarrage rapide de la VM :

qm stop <VMID> --skiplock; sleep 2; qm start <VMID>

Mini-FAQ

Q : Peut-on renommer le bridge vmbr0 ? R : Oui, mais ce n'est pas recommandé sur un nœud de production - il est plus facile de laisser vmbr0 et d'ajouter des bridges supplémentaires (vmbr1) si nécessaire.

Q : Où se trouvent les ISO par défaut ? R : Dans le stockage local : /var/lib/vz/template/iso.

Q : Quelle est la différence entre local et local-lvm ? R : local - répertoire ordinaire pour ISO, modèles de conteneurs, etc. local-lvm - LVM-Thin pour les disques VM/conteneurs avec snapshots.

Q : Comment cloner rapidement une VM ? R : Convertissez une VM de référence en Template, puis CloneFull/Linked.

Q : Comment dimensionner en toute sécurité le CPU/RAM d'une VM ? R : Éteignez la VM et modifiez les ressources ; pour Linux, certains paramètres peuvent être changés « à la volée », mais mieux vaut planifier.

Liste de vérification pour la préparation du système

  • Accès à https://<IP_serveur>:8006 disponible ;
  • vmbr0 configuré et Internet depuis le nœud ;
  • ISOs chargés dans le stockage ;
  • Première VM créée et installée ;
  • Qemu Guest Agent activé ;
  • Sauvegarde configurée (planning vzdump) ;
  • Mises à jour vérifiées.

Commander un serveur avec Proxmox 9 via l'API

Pour installer ce logiciel en utilisant l'API, suivez ces instructions.


Une partie du contenu de cette page a été créée ou traduite à l'aide de l'IA.