Proxmox 9¶
Dans cet article
- Fonctionnalités de déploiement
- Proxmox 9. Installation
- Première connexion et vérification de base
- Réseau : Bridge vmbr0
- Disques et stockage
- Chargement des images ISO
- Créer la première VM (Ubuntu 25.10)
- Installation de Windows
- Conteneurs LXC : Démarrage rapide
- Profils VM typiques
- Connexion des VM et LXC dans un même réseau
- Sauvegardes et modèles
- Problèmes courants et solutions
- Diagnostics : Guide rapide
- Mini-FAQ
- Liste de vérification pour la préparation du système
- Commander un serveur avec Proxmox 9 via l'API
Fonctionnalités de déploiement¶
| ID | Nom du logiciel | Système d'exploitation compatible | VM | BM | VGPU | GPU | Min CPU (Cœurs) | Min RAM (Go) | Min HDD/SSD (Go) | Actif |
|---|---|---|---|---|---|---|---|---|---|---|
| 350 | ProxmoxVE 9 community edition | Debian 13 | + | + | + | + | 2 | 2 | - | COMMANDER |
| 25 | ProxmoxVE 7.6 community edition | Debian 11 | + | + | + | + | 2 | 2 | - | Non |
| 32 | ProxmoxVE 8.x community edition | Debian 12 | + | + | + | + | 2 | 2 | - | Non |
Proxmox VE 9.0
Proxmox VE 9.0 a été publié le 5 août 2025 et présente des différences significatives par rapport à la version 8.x :
Principales nouvelles fonctionnalités de la version 9.0 :
- Transition vers Debian Trixie ;
- Snapshots pour les machines virtuelles sur le stockage LVM avec allocation de ressources épaisses (technologie preview) ;
- Règles de haute disponibilité (HA) pour la liaison des nœuds et des ressources ;
- Factories pour la pile réseau définie par logiciel (SDN) ;
- Interface web mobile modernisée ;
- ZFS prend en charge l'ajout de nouveaux périphériques aux pools RAIDZ existants avec un temps d'arrêt minimal.
Changements critiques dans la version 9.0 :
- Le dépôt de test a été renommé en
pve-test; - Changements possibles dans les noms des interfaces réseau ;
- VirtIO vNIC : valeur par défaut modifiée pour le champ MTU ;
- Mise à jour vers AppArmor 4 ;
- Privilège
VM.Monitorrévoqué ; - Nouveau privilège
VM.Replicatepour la réplication de stockage ; - La création de conteneurs privilégiés nécessite les privilèges
Sys.Modify; - Prise en charge de la configuration
maxfilespour la sauvegarde abandonnée ; - Prise en charge de GlusterFS abandonnée ;
- systemd enregistre un avertissement
System is tainted: unmerged-binaprès le démarrage.
Si vous avez commandé un serveur avec la version 9.0, assurez-vous de consulter la documentation détaillée des développeurs
Note
Sauf indication contraire, nous installons par défaut la dernière version de publication du logiciel à partir des dépôts officiels.
Proxmox 9. Installation¶
Après l'installation du serveur, dans les 15-20 minutes, l'installation du service Proxmox VE est effectuée. Un e-mail sera envoyé à la boîte mail liée au compte, vous informant du serveur installé et fournissant un lien au format https://proxmox<ID_server>.hostkey.in, auquel vous devez accéder pour entrer dans l'interface de gestion web de Proxmox VE :
- Login -
root; - Password - mot de passe système.
Attention
Si vous installez Proxmox en tant que système d'exploitation, pour accéder à l'interface web, vous devez aller à l'adresse http://IP_serveur:8006.
Première connexion et vérification de base¶
-
Ouvrez votre navigateur →
https://<IP_serveur>:8006et entrez les identifiants :
-
Naviguez vers : Datacenter → Node → Summary - vérifiez le CPU, la RAM, les disques, l'uptime :

-
Désactivez le dépôt entreprise si vous n'avez pas d'abonnement : Node → Repositories →
pve-enterprise→Disable. Gardezpve-no-subscription:
Commandes pour le terminal :
Réseau : Bridge vmbr0¶
Le bridge vmbr0 est un "switch" virtuel auquel les VMs sont connectées. Il est lié à une interface physique (par exemple, ens18/eno1).
Via l'interface Web¶
-
Node → System → Network :

-
Vérifiez que vmbr0 existe. S'il n'existe pas ou n'est pas configuré -
Create→Linux Bridge:- Name :
vmbr0 - IPv4/CIDR : spécifiez votre IP statique au format X.X.X.X/YY (laissez vide si vous utilisez DHCP) ;
- Gateway (IPv4) : passerelle par défaut (généralement X.X.X.1) (ne saisissez pas si vous utilisez DHCP) ;
- Bridge ports : votre interface physique, par exemple
ens1; - Save →
Apply configuration:

- Name :
Via CLI (si l'accès web est perdu)¶
Exemple /etc/network/interfaces (ifupdown2) :
auto lo
iface lo inet loopback
auto ens18
iface ens18 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.0.2.10/24
gateway 192.0.2.1
bridge-ports ens18
bridge-stp off
bridge-fd 0
Appliquer les modifications :
Note
Si l'adressage DHCP est nécessaire pour le nœud : remplacez le bloc iface vmbr0 inet static par iface vmbr0 inet dhcp et supprimez la ligne gateway.
Erreurs courantes :
- bridge-ports incorrectement spécifié (mauvaise interface physique) → le réseau "disparaît". Corrigez l'interface et exécutez
ifreload -a. - Mauvaise passerelle ou sous-réseau saisi → connexion locale existe mais pas d'accès Internet.
Disques et stockage¶
Ajouter un deuxième disque pour le stockage des VM¶
-
Node → Disks : assurez-vous que le nouveau disque est visible (par exemple, sdb) :

-
Option A - LVM-Thin (pratique pour les snapshots) :
- Disks → LVM-Thin →
Create: sélectionnez le disque → spécifiez le nom VG (par exemple, pve2) et thin-pool (par exemple, data2) :

- Le stockage apparaîtra dans Datacenter → Storage.

- Disks → LVM-Thin →
-
Option B - Directory :
- Créez un système de fichiers (Disks → ZFS ou manuellement
mkfs.ext4), montez sur/mnt/...:

- Datacenter → Storage →
Add→Directory→ chemin/mnt/...→ activez Disk image, ISO image (au besoin).
- Créez un système de fichiers (Disks → ZFS ou manuellement
Note
Pour ZFS choisissez un profil en tenant compte de la RAM (recommandé ≥ 8 Go). Sur les VDS faibles, LVM-Thin ou Directory est préférable.
Chargement des images ISO¶
Les images ISO peuvent être chargées de deux manières.
A. Via l'interface Web¶
- Datacenter → Storage → (sélectionnez
storageavec le typeISO, par exemplelocal) → Content. Upload→ sélectionnez le fichier localubuntu-25.10-live-server-amd64.iso→ attendez la fin du téléchargement :

B. Via le nœud (CLI)¶
Exemple de téléchargement de l'ISO Ubuntu 25.10 dans le stockage local :
Si l'ISO n'apparaît pas dans la liste - vérifiez qu'il se trouve dans le dossier .../template/iso du stockage souhaité et que le storage a le type ISO Image activé.
Créer la première VM (Ubuntu 25.10)¶
Exemple : Ubuntu Server 25.10 (VPS avec 2 vCPU)
Cliquez sur Create VM (en haut à droite) :

General : laissez l'ID par défaut, Name - ubuntu2510 (ou le vôtre) :

OS : sélectionnez l'ISO ubuntu-25.10-live-server-amd64.iso, Type : Linux :

System :
- Graphics card :
Default; - BIOS :
OVMF(UEFI) ; - Machine :
q35; - SCSI Controller :
VirtIO SCSI single; - (Optionnel) activez Qemu Agent dans Options après la création de la VM (voir ci-dessous) :

Disks :
- Bus/Device :
SCSI; - SCSI Controller :
VirtIO SCSI single; - Storage : votre
LVM-Thin/Directory; - Size : 20–40 Go (minimum 10-15 Go pour les tests) ;
- Discard (TRIM) : activez sur un
thin-pool:

CPU :
- Sockets : 1 ;
- Cores : 2 (selon votre VPS) ;
- Type :
host(meilleure performance) :

Memory :
- 2048–4096 Mo. Vous pouvez activer Ballooning (par exemple,
Min 1024,Max 4096) :

Network :
- Model :
VirtIO(paravirtualisé) ; - Bridge :
vmbr0; - Si VLAN nécessaire :
VLAN Tag:

Confirm : vérifiez les paramètres, cochez Start after created et cliquez sur Finish :

Installation de l'OS :¶
-
Démarrez la VM → Console (
noVNC) →Try or Install Ubuntu:
-
Installateur :
- DHCP/IP statique selon la situation ;
- Disque :
Use entire disk; - Profil : utilisateur/mot de passe ;
- OpenSSH server : activer.
-
Redémarrez et connectez-vous via console/SSH.
Post-installation :¶
Ensuite dans Proxmox : VM → Options → Qemu Agent = Enabled :

Boot Order : si démarrage depuis ISO - Options → Boot Order → déplacez scsi0 au-dessus de cdrom.
Installation de Windows (pour les nœuds plus puissants)¶
Convient pour les nœuds avec ≥4 vCPU/8 Go RAM. Sur les VPS faibles, Windows peut fonctionner de manière instable.
-
ISO : téléchargez les ISO de Windows Server (2019/2022/2025) et
virtio-win.iso(pilotes) dans Storage → Content :
-
Create VM→ OS :Microsoft Windows, ISO - image d'installation. L'optionAdd additional drive for VirtIO driverspermet d'ajouter un second CD avec les pilotes :
-
System :
BIOS OVMF(UEFI) ;- Machine :
q35; - Si nécessaire, activez
Add EFI DisketAdd TPM(pour les nouvelles versions de Windows). Si ça ne démarre pas - essayezSeaBIOSet désactivezEFI/TPM:

- Machine :
-
Disks :
- Bus :
SCSI; - Controller :
VirtIO SCSI; - Size : 40–80 Go ;
- IO Threads : activer :

- Bus :
-
CPU : 2–4 vCPU ;
- Type :
host:

- Type :
-
Memory : 4–8 Go :

-
Network :
Model VirtIO(paravirtualisé),Bridge vmbr0:
-
Confirm : terminez la création de la VM avec le bouton
Create, puis dans Hardware → CD/DVD Drive connectez le second ISO -virtio-win.iso:
-
Installateur Windows : à l'étape de sélection du disque, cliquez sur
Charger le pilote→ spécifiez le CD avec VirtIO (vioscsi/viostor). Après l'installation - dans le Gestionnaire de périphériques, installez les pilotes réseau (NetKVM) :
-
Agent invité (facultatif) : installez
Qemu Guest Agentpour Windows depuisvirtio-win ISO:
Dépannage Windows :¶
- Écran noir/ne démarre pas : changez OVMF → SeaBIOS, désactivez EFI/TPM.
- Pas de réseau : vérifiez que NIC = VirtIO et que le pilote NetKVM est installé.
- Ralentissements du disque : assurez-vous que disque = SCSI + pilote virtio.
Conteneurs LXC : Démarrage rapide¶
Des modèles prêts à l'emploi avec un minimum de logiciels sont disponibles dans le stockage de modèles.
-
Datacenter → Storage → (sélectionnez
storageavec le typeTemplates) → Content → Templates. Téléchargez, par exemple :ubuntu-25.04-standard_*.tar.zstou un autre modèle nécessaire :
-
Cliquez sur
Create CT:- General : spécifiez ID/Name, Unprivileged container =
Enabled(par défaut plus sûr). Définissez le mot de passerootou la clé SSH :

- Template : sélectionnez le modèle téléchargé :

- Disks : Storage/Size (par exemple, 8–20 Go) :

- CPU/RAM : selon la tâche (par exemple, 1 vCPU, 1–2 Go RAM) :

- Network :
Bridge vmbr0, IPv4 =DHCP(ou Static si nécessaire). VLAN Tag si nécessaire :

Conseil pour Network : Si vous utilisez NAT sur
vmbr1, configurez-le et spécifiez l'IP statique.- DNS : par défaut depuis l'hôte ou le vôtre :

- Features : si nécessaire, activez
nesting,fuse,keyctl(dépend des applications dans le conteneur).
- General : spécifiez ID/Name, Unprivileged container =
-
Start at boot/Start after created: au choix. -
Après le démarrage : connectez-vous via SSH et installez les logiciels depuis le modèle ou les paquets :

Dans LXC, Qemu Guest Agent n'est pas nécessaire. Le montage des répertoires hôtes se fait via MP (Mount points).
Profils VM typiques¶
-
Ubuntu/Debian (Web/DB/Utilitaire) : SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 Go RAM, disque 20–60 Go ; activer Qemu Guest Agent.
-
Services légers (DNS/DHCP/Proxy) : 1 vCPU, 1–2 Go RAM, disque 8–20 Go.
-
Hôtes de conteneurs (Docker/Podman) : 2–4 vCPU, 4–8 Go RAM ; disque/pool séparé pour les données.
Alternative à l'ISO : vous pouvez utiliser des images Cloud-Init Ubuntu 25.10 pour un clonage rapide avec auto-configuration réseau/SSH. Convient si vous prévoyez de nombreuses VM similaires.
Connexion des VM et LXC dans un même réseau¶
Attention
Si vous utilisez Proxmox sur un VPS, vous n'obtiendrez qu'une seule IP externe et une seule MAC sans IP supplémentaires, VLANs et DHCP, donc :
- L'IP publique doit être assignée uniquement au pont vmbr0, qui relie l'interface unique (par ex., ens18).
- Les VM/CT ne peuvent pas obtenir leurs propres IP publiques ; elles doivent utiliser un sous-réseau interne (par ex., 10.10.0.0/24) et atteindre Internet via NAT sur l'hôte.
- Les exemples ci-dessous avec les adresses 10.10.0.x se réfèrent aux réseaux internes (vmbr1), pas au pont externe vmbr0.
Variante de base (un seul sous-réseau) :¶
-
Assurez-vous que toutes les VMs/conteneurs ont Bridge =
vmbr0(ouvmbr1). -
Si réseau avec DHCP - les adresses sont attribuées automatiquement, si statique - spécifiez les IP dans un même sous-réseau (par exemple,
10.10.0.2/24,10.10.0.3/24) et passerelle commune10.10.0.1. -
Optionnel. VLAN : spécifiez le Tag VLAN dans les paramètres de la carte réseau VM/CT et assurez-vous que l'uplink du switch permet ce VLAN.
-
À l'intérieur de l'OS, vérifiez que le pare-feu local ne bloque pas ICMP/SSH/HTTP.
-
Test : depuis la VM Ubuntu
ping <IP-LXC>et vice versa ;ip route,tracerouteaideront en cas de problème.
Lorsque des sous-réseaux différents :¶
-
Proxmox lui-même ne route pas entre les bridges. Un routeur (VM séparé avec Linux/pfSense) ou NAT sur l'hôte est nécessaire.
-
NAT simple sur l'hôte (exemple) :
Activer le forwarding :
NAT de vmbr1 vers Internet viavmbr0 : Pour la persistance, ajoutez des règles dans /etc/network/if-up.d/ ou utilisez nftables :
EXT_IF=vmbr0
iptables -t nat -C POSTROUTING -s 10.10.0.0/24 -o $EXT_IF -j MASQUERADE 2>/dev/null || \
iptables -t nat -A POSTROUTING -s 10.10.0.0/24 -o $EXT_IF -j MASQUERADE
iptables -C FORWARD -i vmbr1 -o $EXT_IF -j ACCEPT 2>/dev/null || \
iptables -A FORWARD -i vmbr1 -o $EXT_IF -j ACCEPT
iptables -C FORWARD -i $EXT_IF -o vmbr1 -m state --state RELATED,ESTABLISHED -j ACCEPT 2>/dev/null || \
iptables -A FORWARD -i $EXT_IF -o vmbr1 -m state --state RELATED,ESTABLISHED -j ACCEPT
Attention
Sur un VPS avec une seule IP, toutes les VMs/CTs sont généralement situées dans un sous‑réseau interne (par ex., 10.10.0.0/24) sur le pont vmbr1 et quittent l’internet via NAT sur l’hôte en utilisant la seule IP externe sur vmbr0.
Note
L'utilisation de NAT est adaptée pour fusionner les OS LXC et ISO‑installés dans un seul sous‑réseau.
Sauvegardes et modèles¶
-
Backup : Datacenter → Backup ou Node → Backup - configurez le planning
vzdump(stockage, heure, mode snapshot/stop) :
-
Modèle VM : après la configuration de base de la VM →
Convert to Template. Créer de nouvelles VMs viaCloneéconomise du temps et élimine les erreurs :

Problèmes courants et solutions¶
"L'interface Web a disparu" (GUI ne s'ouvre pas)¶
Vérifiez que le nœud est accessible via SSH. Sur le nœud, exécutez :
Redémarrage en douceur des services :Si les paquets ont été mis à jour - terminez apt et résolvez les processus bloqués (prudemment), vérifiez l'espace disponible df -h.
Réseau perdu après modification du bridge¶
Connectez-vous via console (via fournisseur/VNC/IPMI). Vérifiez /etc/network/interfaces et appliquez :
Vérifiez que la passerelle et le masque sont correctement définis, bridge-ports est la bonne interface physique.
La VM ne se connecte pas à Internet¶
- Assurez-vous qu'à l'intérieur de la VM les IP/masque/passerelle/DNS corrects sont spécifiés.
- Vérifiez que le Bridge de l'adaptateur réseau de la VM est vmbr0 (ou nat/vmbr1).
- Si VLAN est utilisé - spécifiez le Tag VLAN dans les paramètres NIC de la VM (Hardware → Network Device → VLAN Tag), et sur l'uplink du switch autorisez ce VLAN.
L'ISO ne démarre pas / l'installateur n'est pas visible¶
- Vérifiez l'ordre de démarrage (Options → Boot Order) et que l'ISO correct est connecté.
- Pour UEFI, vérifiez que Secure Boot n'est pas activé dans l'OS invité si l'ISO ne le supporte pas.
Charge élevée/« engorgement » du disque¶
- Utilisez VirtIO SCSI et activez IO Threads pour les disques intensifs.
- Ne stockez pas les sauvegardes sur le même thin-pool que les disques de production - préférez un stockage séparé.
Webcam/périphérique USB « déconnecté » dans la VM¶
- Pour le passthrough USB, utilisez Hardware → USB Device (passthrough USB). Si le périphérique cesse de répondre -
Stop/Startla VM ou reconnectez l'USB sur l'hôte. Parfois désactiverUse USB3aide pour la compatibilité.
Mises à jour et redémarrage¶
Mettez à jour pendant une « fenêtre » et faites une sauvegarde avant les mises à niveau majeures.
Diagnostics : Guide rapide¶
Réseau du nœud :
Services Proxmox : Espace disque : Stockages : Périphérique VM : Redémarrage rapide de la VM :Mini-FAQ¶
Q : Peut-on renommer le bridge vmbr0 ? R : Oui, mais ce n'est pas recommandé sur un nœud de production - il est plus facile de laisser vmbr0 et d'ajouter des bridges supplémentaires (vmbr1) si nécessaire.
Q : Où se trouvent les ISO par défaut ? R : Dans le stockage local : /var/lib/vz/template/iso.
Q : Quelle est la différence entre local et local-lvm ? R : local - répertoire ordinaire pour ISO, modèles de conteneurs, etc. local-lvm - LVM-Thin pour les disques VM/conteneurs avec snapshots.
Q : Comment cloner rapidement une VM ? R : Convertissez une VM de référence en Template, puis Clone → Full/Linked.
Q : Comment dimensionner en toute sécurité le CPU/RAM d'une VM ? R : Éteignez la VM et modifiez les ressources ; pour Linux, certains paramètres peuvent être changés « à la volée », mais mieux vaut planifier.
Liste de vérification pour la préparation du système¶
- Accès à
https://<IP_serveur>:8006disponible ; vmbr0configuré et Internet depuis le nœud ;- ISOs chargés dans le stockage ;
- Première VM créée et installée ;
- Qemu Guest Agent activé ;
- Sauvegarde configurée (planning vzdump) ;
- Mises à jour vérifiées.
Commander un serveur avec Proxmox 9 via l'API¶
Pour installer ce logiciel en utilisant l'API, suivez ces instructions.
Une partie du contenu de cette page a été créée ou traduite à l'aide de l'IA.