Aller au contenu

Proxmox 9

Dans cet article

Fonctionnalités de déploiement

ID Système d'exploitation compatible VM BM VGPU GPU Min CPU (Cœurs) Min RAM (Go) Min HDD/SSD (Go) Actif
32 Debian 12 + + + + 2 2 - Non

Proxmox VE 9.0

Proxmox VE 9.0 a été publié le 5 août 2025 et présente des différences significatives par rapport à la version 8.x :

Principales nouvelles fonctionnalités de la version 9.0 :

  • Transition vers Debian Trixie ;
  • Snapshots pour les machines virtuelles sur le stockage LVM avec allocation de ressources épaisses (technologie preview) ;
  • Règles de haute disponibilité (HA) pour la liaison des nœuds et des ressources ;
  • Factories pour la pile réseau définie par logiciel (SDN) ;
  • Interface web mobile modernisée ;
  • ZFS prend en charge l'ajout de nouveaux périphériques aux pools RAIDZ existants avec un temps d'arrêt minimal.

Changements critiques dans la version 9.0 :

  • Le dépôt de test a été renommé en pve-test ;
  • Changements possibles dans les noms des interfaces réseau ;
  • VirtIO vNIC : valeur par défaut modifiée pour le champ MTU ;
  • Mise à jour vers AppArmor 4 ;
  • Privilège VM.Monitor révoqué ;
  • Nouveau privilège VM.Replicate pour la réplication de stockage ;
  • La création de conteneurs privilégiés nécessite les privilèges Sys.Modify ;
  • Prise en charge de la configuration maxfiles pour la sauvegarde abandonnée ;
  • Prise en charge de GlusterFS abandonnée ;
  • systemd enregistre un avertissement System is tainted: unmerged-bin après le démarrage.

Si vous avez commandé un serveur avec la version 9.0, assurez-vous de consulter la documentation détaillée des développeurs

Note

Sauf indication contraire, nous installons par défaut la dernière version de publication du logiciel à partir des dépôts officiels.

Proxmox 9. Installation

Après l'installation du serveur, dans les 15-20 minutes, l'installation du service Proxmox VE est effectuée. Un e-mail sera envoyé à la boîte mail liée au compte, vous informant du serveur installé et fournissant un lien au format https://proxmox<ID_server>.hostkey.in, auquel vous devez accéder pour entrer dans l'interface de gestion web de Proxmox VE :

  • Login - root ;
  • Password - mot de passe système.

Attention

Si vous installez Proxmox en tant que système d'exploitation, pour accéder à l'interface web, vous devez aller à l'adresse http://IP_serveur:8006.

Première connexion et vérification de base

  1. Ouvrez votre navigateur → https://<IP_serveur>:8006 et entrez les identifiants :

  2. Naviguez vers : DatacenterNodeSummary - vérifiez le CPU, la RAM, les disques, l'uptime :

  3. Désactivez le dépôt entreprise si vous n'avez pas d'abonnement : NodeRepositoriespve-enterpriseDisable. Gardez pve-no-subscription :

Commandes pour le terminal :

sed -i 's/^deb/#deb/g' /etc/apt/sources.list.d/pve-enterprise.list || true
apt update

Réseau : Bridge vmbr0

Le bridge vmbr0 est un "switch" virtuel auquel les VMs sont connectées. Il est lié à une interface physique (par exemple, ens18/eno1).

Via l'interface Web

  1. NodeSystemNetwork :

  2. Vérifiez que vmbr0 existe. S'il n'existe pas ou n'est pas configuré - CreateLinux Bridge :

    • Name : vmbr0
    • IPv4/CIDR : spécifiez votre IP statique au format X.X.X.X/YY (laissez vide si vous utilisez DHCP) ;
    • Gateway (IPv4) : passerelle par défaut (généralement X.X.X.1) (ne saisissez pas si vous utilisez DHCP) ;
    • Bridge ports : votre interface physique, par exemple ens1 ;
    • Save → Apply configuration :

Via CLI (si l'accès web est perdu)

Exemple /etc/network/interfaces (ifupdown2) :

auto lo
iface lo inet loopback

auto ens18
iface ens18 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.0.2.10/24
    gateway 192.0.2.1
    bridge-ports ens18
    bridge-stp off
    bridge-fd 0

Appliquer les modifications :

ifreload -a

Note

Si l'adressage DHCP est nécessaire pour le nœud : remplacez le bloc iface vmbr0 inet static par iface vmbr0 inet dhcp et supprimez la ligne gateway.

Erreurs courantes :

  • bridge-ports incorrectement spécifié (mauvaise interface physique) → le réseau "disparaît". Corrigez l'interface et exécutez ifreload -a.
  • Mauvaise passerelle ou sous-réseau saisi → connexion locale existe mais pas d'accès Internet.

Disques et stockage

Ajouter un deuxième disque pour le stockage des VM

  1. NodeDisks : assurez-vous que le nouveau disque est visible (par exemple, sdb) :

  2. Option A - LVM-Thin (pratique pour les snapshots) :

    • DisksLVM-ThinCreate : sélectionnez le disque → spécifiez le nom VG (par exemple, pve2) et thin-pool (par exemple, data2) :

    • Le stockage apparaîtra dans DatacenterStorage.

  3. Option B - Directory :

    • Créez un système de fichiers (DisksZFS ou manuellement mkfs.ext4), montez sur /mnt/... :

    • DatacenterStorageAddDirectory → chemin /mnt/... → activez Disk image, ISO image (au besoin).

Note

Pour ZFS choisissez un profil en tenant compte de la RAM (recommandé ≥ 8 Go). Sur les VDS faibles, LVM-Thin ou Directory est préférable.

Chargement des images ISO

Les images ISO peuvent être chargées de deux manières.

A. Via l'interface Web

  1. DatacenterStorage → (sélectionnez storage avec le type ISO, par exemple local) → Content.
  2. Upload → sélectionnez le fichier local ubuntu-25.10-live-server-amd64.iso → attendez la fin du téléchargement :

B. Via le nœud (CLI)

Exemple de téléchargement de l'ISO Ubuntu 25.10 dans le stockage local :

cd /var/lib/vz/template/iso
wget https://releases.ubuntu.com/25.10/ubuntu-25.10-live-server-amd64.iso

Si l'ISO n'apparaît pas dans la liste - vérifiez qu'il se trouve dans le dossier .../template/iso du stockage souhaité et que le storage a le type ISO Image activé.

Créer la première VM (Ubuntu 25.10)

Exemple : Ubuntu Server 25.10 (VPS avec 2 vCPU)

Cliquez sur Create VM (en haut à droite) :

General : laissez l'ID par défaut, Name - ubuntu2510 (ou le vôtre) :

OS : sélectionnez l'ISO ubuntu-25.10-live-server-amd64.iso, Type : Linux :

System :

  • Graphics card : Default ;
  • BIOS : OVMF (UEFI) ;
  • Machine : q35 ;
  • SCSI Controller : VirtIO SCSI single ;
  • (Optionnel) activez Qemu Agent dans Options après la création de la VM (voir ci-dessous) :

Disks :

  • Bus/Device : SCSI ;
  • SCSI Controller : VirtIO SCSI single ;
  • Storage : votre LVM-Thin/Directory ;
  • Size : 20–40 Go (minimum 10-15 Go pour les tests) ;
  • Discard (TRIM) : activez sur un thin-pool :

CPU :

  • Sockets : 1 ;
  • Cores : 2 (selon votre VPS) ;
  • Type : host (meilleure performance) :

Memory :

  • 2048–4096 Mo. Vous pouvez activer Ballooning (par exemple, Min 1024, Max 4096) :

Network :

  • Model : VirtIO (paravirtualisé) ;
  • Bridge : vmbr0 ;
  • Si VLAN nécessaire : VLAN Tag :

Confirm : vérifiez les paramètres, cochez Start after created et cliquez sur Finish :

Installation de l'OS :

  1. Démarrez la VM → Console (noVNC) → Try or Install Ubuntu :

  2. Installateur :

    • DHCP/IP statique selon la situation ;
    • Disque : Use entire disk ;
    • Profil : utilisateur/mot de passe ;
    • OpenSSH server : activer.
  3. Redémarrez et connectez-vous via console/SSH.

Post-installation :

sudo apt update && sudo apt -y full-upgrade
sudo apt -y install qemu-guest-agent
sudo systemctl enable --now qemu-guest-agent

Ensuite dans Proxmox : VMOptionsQemu Agent = Enabled :

Boot Order : si démarrage depuis ISO - OptionsBoot Order → déplacez scsi0 au-dessus de cdrom.

Installation de Windows (pour les nœuds plus puissants)

Convient pour les nœuds avec ≥4 vCPU/8 Go RAM. Sur les VPS faibles, Windows peut fonctionner de manière instable.

  1. ISO : téléchargez les ISO de Windows Server (2019/2022/2025) et virtio-win.iso (pilotes) dans StorageContent :

  2. Create VMOS : Microsoft Windows, ISO - image d'installation. L'option Add additional drive for VirtIO drivers permet d'ajouter un second CD avec les pilotes :

  3. System : BIOS OVMF (UEFI) ;

    • Machine : q35 ;
    • Si nécessaire, activez Add EFI Disk et Add TPM (pour les nouvelles versions de Windows). Si ça ne démarre pas - essayez SeaBIOS et désactivez EFI/TPM :

  4. Disks :

    • Bus : SCSI ;
    • Controller : VirtIO SCSI ;
    • Size : 40–80 Go ;
    • IO Threads : activer :

  5. CPU : 2–4 vCPU ;

    • Type : host :

  6. Memory : 4–8 Go :

  7. Network : Model VirtIO (paravirtualisé), Bridge vmbr0 :

  8. Confirm : terminez la création de la VM avec le bouton Create, puis dans HardwareCD/DVD Drive connectez le second ISO - virtio-win.iso :

  9. Installateur Windows : à l'étape de sélection du disque, cliquez sur Charger le pilote → spécifiez le CD avec VirtIO (vioscsi/viostor). Après l'installation - dans le Gestionnaire de périphériques, installez les pilotes réseau (NetKVM) :

  10. Agent invité (facultatif) : installez Qemu Guest Agent pour Windows depuis virtio-win ISO :

Dépannage Windows :

  • Écran noir/ne démarre pas : changez OVMF → SeaBIOS, désactivez EFI/TPM.
  • Pas de réseau : vérifiez que NIC = VirtIO et que le pilote NetKVM est installé.
  • Ralentissements du disque : assurez-vous que disque = SCSI + pilote virtio.

Conteneurs LXC : Démarrage rapide

Des modèles prêts à l'emploi avec un minimum de logiciels sont disponibles dans le stockage de modèles.

  1. DatacenterStorage → (sélectionnez storage avec le type Templates) → ContentTemplates. Téléchargez, par exemple : ubuntu-25.04-standard_*.tar.zst ou un autre modèle nécessaire :

  2. Cliquez sur Create CT :

    • General : spécifiez ID/Name, Unprivileged container = Enabled (par défaut plus sûr). Définissez le mot de passe root ou la clé SSH :

    • Template : sélectionnez le modèle téléchargé :

    • Disks : Storage/Size (par exemple, 8–20 Go) :

    • CPU/RAM : selon la tâche (par exemple, 1 vCPU, 1–2 Go RAM) :

    • Network : Bridge vmbr0, IPv4 = DHCP (ou Static si nécessaire). VLAN Tag si nécessaire :

    Conseil pour Network : Si vous utilisez NAT sur vmbr1, configurez-le et spécifiez l'IP statique.

    • DNS : par défaut depuis l'hôte ou le vôtre :

    • Features : si nécessaire, activez nesting, fuse, keyctl (dépend des applications dans le conteneur).
  3. Start at boot/Start after created : au choix.

  4. Après le démarrage : connectez-vous via SSH et installez les logiciels depuis le modèle ou les paquets :

    apt update && apt -y upgrade
    

Dans LXC, Qemu Guest Agent n'est pas nécessaire. Le montage des répertoires hôtes se fait via MP (Mount points).

Profils VM typiques

  • Ubuntu/Debian (Web/DB/Utilitaire) : SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 Go RAM, disque 20–60 Go ; activer Qemu Guest Agent.

  • Services légers (DNS/DHCP/Proxy) : 1 vCPU, 1–2 Go RAM, disque 8–20 Go.

  • Hôtes de conteneurs (Docker/Podman) : 2–4 vCPU, 4–8 Go RAM ; disque/pool séparé pour les données.

Alternative à l'ISO : vous pouvez utiliser des images Cloud-Init Ubuntu 25.10 pour un clonage rapide avec auto-configuration réseau/SSH. Convient si vous prévoyez de nombreuses VM similaires.

Connexion des VM et LXC dans un même réseau

Variante de base (un seul sous-réseau) :

  1. Assurez-vous que toutes les VMs/conteneurs ont Bridge = vmbr0 (ou vmbr1).

  2. Si réseau avec DHCP - les adresses sont attribuées automatiquement, si statique - spécifiez les IP dans un même sous-réseau (par exemple, 10.10.0.2/24, 10.10.0.3/24) et passerelle commune 10.10.0.1.

  3. Optionnel. VLAN : spécifiez le Tag VLAN dans les paramètres de la carte réseau VM/CT et assurez-vous que l'uplink du switch permet ce VLAN.

  4. À l'intérieur de l'OS, vérifiez que le pare-feu local ne bloque pas ICMP/SSH/HTTP.

  5. Test : depuis la VM Ubuntu ping <IP-LXC> et vice versa ; ip route, traceroute aideront en cas de problème.

Lorsque des sous-réseaux différents :

  • Proxmox lui-même ne route pas entre les bridges. Un routeur (VM séparé avec Linux/pfSense) ou NAT sur l'hôte est nécessaire.

  • NAT simple sur l'hôte (exemple) :

Activer le forwarding :

sysctl -w net.ipv4.ip_forward=1
NAT de vmbr1 vers Internet via vmbr0 :

iptables -t nat -A POSTROUTING -o vmbr0 -j MASQUERADE

Pour la persistance, ajoutez des règles dans /etc/network/if-up.d/ ou utilisez nftables :

Note

L'utilisation de NAT convient pour combiner LXC et OS installés via ISO dans un même sous-réseau.

Sauvegardes et modèles

  • Backup : DatacenterBackup ou NodeBackup - configurez le planning vzdump (stockage, heure, mode snapshot/stop) :

  • Modèle VM : après la configuration de base de la VM → Convert to Template. Créer de nouvelles VMs via Clone économise du temps et élimine les erreurs :

Problèmes courants et solutions

"L'interface Web a disparu" (GUI ne s'ouvre pas)

Vérifiez que le nœud est accessible via SSH. Sur le nœud, exécutez :

systemctl status pveproxy pvedaemon pve-cluster
journalctl -u pveproxy --no-pager -n 100
Redémarrage en douceur des services :

systemctl restart pveproxy pvedaemon

Si les paquets ont été mis à jour - terminez apt et résolvez les processus bloqués (prudemment), vérifiez l'espace disponible df -h.

Réseau perdu après modification du bridge

Connectez-vous via console (via fournisseur/VNC/IPMI). Vérifiez /etc/network/interfaces et appliquez :

ifreload -a
ip a
ip r

Vérifiez que la passerelle et le masque sont correctement définis, bridge-ports est la bonne interface physique.

La VM ne se connecte pas à Internet

  • Assurez-vous qu'à l'intérieur de la VM les IP/masque/passerelle/DNS corrects sont spécifiés.
  • Vérifiez que le Bridge de l'adaptateur réseau de la VM est vmbr0 (ou nat/vmbr1).
  • Si VLAN est utilisé - spécifiez le Tag VLAN dans les paramètres NIC de la VM (HardwareNetwork DeviceVLAN Tag), et sur l'uplink du switch autorisez ce VLAN.

L'ISO ne démarre pas / l'installateur n'est pas visible

  • Vérifiez l'ordre de démarrage (OptionsBoot Order) et que l'ISO correct est connecté.
  • Pour UEFI, vérifiez que Secure Boot n'est pas activé dans l'OS invité si l'ISO ne le supporte pas.

Charge élevée/« engorgement » du disque

  • Utilisez VirtIO SCSI et activez IO Threads pour les disques intensifs.
  • Ne stockez pas les sauvegardes sur le même thin-pool que les disques de production - préférez un stockage séparé.

Webcam/périphérique USB « déconnecté » dans la VM

  • Pour le passthrough USB, utilisez HardwareUSB Device (passthrough USB). Si le périphérique cesse de répondre - Stop/Start la VM ou reconnectez l'USB sur l'hôte. Parfois désactiver Use USB3 aide pour la compatibilité.

Mises à jour et redémarrage

apt update && apt full-upgrade -y
reboot

Mettez à jour pendant une « fenêtre » et faites une sauvegarde avant les mises à niveau majeures.

Diagnostics : Guide rapide

Réseau du nœud :

ip a; ip r; ping -c3 1.1.1.1; ping -c3 google.com
Services Proxmox :

systemctl status pveproxy pvedaemon pvestatd pve-cluster
journalctl -u pveproxy -n 200 --no-pager
Espace disque :

df -h | sort -k5 -h
lvs; vgs; pvs
Stockages :

cat /etc/pve/storage.cfg
Périphérique VM :

qm list; qm config <VMID>; qm status <VMID>
Redémarrage rapide de la VM :

qm stop <VMID> --skiplock; sleep 2; qm start <VMID>

Mini-FAQ

Q : Peut-on renommer le bridge vmbr0 ? R : Oui, mais ce n'est pas recommandé sur un nœud de production - il est plus facile de laisser vmbr0 et d'ajouter des bridges supplémentaires (vmbr1) si nécessaire.

Q : Où se trouvent les ISO par défaut ? R : Dans le stockage local : /var/lib/vz/template/iso.

Q : Quelle est la différence entre local et local-lvm ? R : local - répertoire ordinaire pour ISO, modèles de conteneurs, etc. local-lvm - LVM-Thin pour les disques VM/conteneurs avec snapshots.

Q : Comment cloner rapidement une VM ? R : Convertissez une VM de référence en Template, puis CloneFull/Linked.

Q : Comment dimensionner en toute sécurité le CPU/RAM d'une VM ? R : Éteignez la VM et modifiez les ressources ; pour Linux, certains paramètres peuvent être changés « à la volée », mais mieux vaut planifier.

Liste de vérification pour la préparation du système

  • Accès à https://<IP_serveur>:8006 disponible ;
  • vmbr0 configuré et Internet depuis le nœud ;
  • ISOs chargés dans le stockage ;
  • Première VM créée et installée ;
  • Qemu Guest Agent activé ;
  • Sauvegarde configurée (planning vzdump) ;
  • Mises à jour vérifiées.

Commander un serveur avec Proxmox 9 via l'API

Pour installer ce logiciel en utilisant l'API, suivez ces instructions.


Une partie du contenu de cette page a été créée ou traduite à l'aide de l'IA.