Proxmox 9¶
Dans cet article
- Fonctionnalités de déploiement
- Proxmox 9. Installation
- Première connexion et vérification de base
- Réseau : Bridge vmbr0
- Disques et stockage
- Chargement des images ISO
- Créer la première VM (Ubuntu 25.10)
- Installation de Windows
- Conteneurs LXC : Démarrage rapide
- Profils VM typiques
- Connexion des VM et LXC dans un même réseau
- Sauvegardes et modèles
- Problèmes courants et solutions
- Diagnostics : Guide rapide
- Mini-FAQ
- Liste de vérification pour la préparation du système
- Commander un serveur avec Proxmox 9 via l'API
Fonctionnalités de déploiement¶
| ID | Système d'exploitation compatible | VM | BM | VGPU | GPU | Min CPU (Cœurs) | Min RAM (Go) | Min HDD/SSD (Go) | Actif |
|---|---|---|---|---|---|---|---|---|---|
| 32 | Debian 12 | + | + | + | + | 2 | 2 | - | Non |
Proxmox VE 9.0
Proxmox VE 9.0 a été publié le 5 août 2025 et présente des différences significatives par rapport à la version 8.x :
Principales nouvelles fonctionnalités de la version 9.0 :
- Transition vers Debian Trixie ;
- Snapshots pour les machines virtuelles sur le stockage LVM avec allocation de ressources épaisses (technologie preview) ;
- Règles de haute disponibilité (HA) pour la liaison des nœuds et des ressources ;
- Factories pour la pile réseau définie par logiciel (SDN) ;
- Interface web mobile modernisée ;
- ZFS prend en charge l'ajout de nouveaux périphériques aux pools RAIDZ existants avec un temps d'arrêt minimal.
Changements critiques dans la version 9.0 :
- Le dépôt de test a été renommé en
pve-test; - Changements possibles dans les noms des interfaces réseau ;
- VirtIO vNIC : valeur par défaut modifiée pour le champ MTU ;
- Mise à jour vers AppArmor 4 ;
- Privilège
VM.Monitorrévoqué ; - Nouveau privilège
VM.Replicatepour la réplication de stockage ; - La création de conteneurs privilégiés nécessite les privilèges
Sys.Modify; - Prise en charge de la configuration
maxfilespour la sauvegarde abandonnée ; - Prise en charge de GlusterFS abandonnée ;
- systemd enregistre un avertissement
System is tainted: unmerged-binaprès le démarrage.
Si vous avez commandé un serveur avec la version 9.0, assurez-vous de consulter la documentation détaillée des développeurs
Note
Sauf indication contraire, nous installons par défaut la dernière version de publication du logiciel à partir des dépôts officiels.
Proxmox 9. Installation¶
Après l'installation du serveur, dans les 15-20 minutes, l'installation du service Proxmox VE est effectuée. Un e-mail sera envoyé à la boîte mail liée au compte, vous informant du serveur installé et fournissant un lien au format https://proxmox<ID_server>.hostkey.in, auquel vous devez accéder pour entrer dans l'interface de gestion web de Proxmox VE :
- Login -
root; - Password - mot de passe système.
Attention
Si vous installez Proxmox en tant que système d'exploitation, pour accéder à l'interface web, vous devez aller à l'adresse http://IP_serveur:8006.
Première connexion et vérification de base¶
-
Ouvrez votre navigateur →
https://<IP_serveur>:8006et entrez les identifiants :
-
Naviguez vers : Datacenter → Node → Summary - vérifiez le CPU, la RAM, les disques, l'uptime :

-
Désactivez le dépôt entreprise si vous n'avez pas d'abonnement : Node → Repositories →
pve-enterprise→Disable. Gardezpve-no-subscription:
Commandes pour le terminal :
Réseau : Bridge vmbr0¶
Le bridge vmbr0 est un "switch" virtuel auquel les VMs sont connectées. Il est lié à une interface physique (par exemple, ens18/eno1).
Via l'interface Web¶
-
Node → System → Network :

-
Vérifiez que vmbr0 existe. S'il n'existe pas ou n'est pas configuré -
Create→Linux Bridge:- Name :
vmbr0 - IPv4/CIDR : spécifiez votre IP statique au format X.X.X.X/YY (laissez vide si vous utilisez DHCP) ;
- Gateway (IPv4) : passerelle par défaut (généralement X.X.X.1) (ne saisissez pas si vous utilisez DHCP) ;
- Bridge ports : votre interface physique, par exemple
ens1; - Save →
Apply configuration:

- Name :
Via CLI (si l'accès web est perdu)¶
Exemple /etc/network/interfaces (ifupdown2) :
auto lo
iface lo inet loopback
auto ens18
iface ens18 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.0.2.10/24
gateway 192.0.2.1
bridge-ports ens18
bridge-stp off
bridge-fd 0
Appliquer les modifications :
Note
Si l'adressage DHCP est nécessaire pour le nœud : remplacez le bloc iface vmbr0 inet static par iface vmbr0 inet dhcp et supprimez la ligne gateway.
Erreurs courantes :
- bridge-ports incorrectement spécifié (mauvaise interface physique) → le réseau "disparaît". Corrigez l'interface et exécutez
ifreload -a. - Mauvaise passerelle ou sous-réseau saisi → connexion locale existe mais pas d'accès Internet.
Disques et stockage¶
Ajouter un deuxième disque pour le stockage des VM¶
-
Node → Disks : assurez-vous que le nouveau disque est visible (par exemple, sdb) :

-
Option A - LVM-Thin (pratique pour les snapshots) :
- Disks → LVM-Thin →
Create: sélectionnez le disque → spécifiez le nom VG (par exemple, pve2) et thin-pool (par exemple, data2) :

- Le stockage apparaîtra dans Datacenter → Storage.

- Disks → LVM-Thin →
-
Option B - Directory :
- Créez un système de fichiers (Disks → ZFS ou manuellement
mkfs.ext4), montez sur/mnt/...:

- Datacenter → Storage →
Add→Directory→ chemin/mnt/...→ activez Disk image, ISO image (au besoin).
- Créez un système de fichiers (Disks → ZFS ou manuellement
Note
Pour ZFS choisissez un profil en tenant compte de la RAM (recommandé ≥ 8 Go). Sur les VDS faibles, LVM-Thin ou Directory est préférable.
Chargement des images ISO¶
Les images ISO peuvent être chargées de deux manières.
A. Via l'interface Web¶
- Datacenter → Storage → (sélectionnez
storageavec le typeISO, par exemplelocal) → Content. Upload→ sélectionnez le fichier localubuntu-25.10-live-server-amd64.iso→ attendez la fin du téléchargement :

B. Via le nœud (CLI)¶
Exemple de téléchargement de l'ISO Ubuntu 25.10 dans le stockage local :
Si l'ISO n'apparaît pas dans la liste - vérifiez qu'il se trouve dans le dossier .../template/iso du stockage souhaité et que le storage a le type ISO Image activé.
Créer la première VM (Ubuntu 25.10)¶
Exemple : Ubuntu Server 25.10 (VPS avec 2 vCPU)
Cliquez sur Create VM (en haut à droite) :

General : laissez l'ID par défaut, Name - ubuntu2510 (ou le vôtre) :

OS : sélectionnez l'ISO ubuntu-25.10-live-server-amd64.iso, Type : Linux :

System :
- Graphics card :
Default; - BIOS :
OVMF(UEFI) ; - Machine :
q35; - SCSI Controller :
VirtIO SCSI single; - (Optionnel) activez Qemu Agent dans Options après la création de la VM (voir ci-dessous) :

Disks :
- Bus/Device :
SCSI; - SCSI Controller :
VirtIO SCSI single; - Storage : votre
LVM-Thin/Directory; - Size : 20–40 Go (minimum 10-15 Go pour les tests) ;
- Discard (TRIM) : activez sur un
thin-pool:

CPU :
- Sockets : 1 ;
- Cores : 2 (selon votre VPS) ;
- Type :
host(meilleure performance) :

Memory :
- 2048–4096 Mo. Vous pouvez activer Ballooning (par exemple,
Min 1024,Max 4096) :

Network :
- Model :
VirtIO(paravirtualisé) ; - Bridge :
vmbr0; - Si VLAN nécessaire :
VLAN Tag:

Confirm : vérifiez les paramètres, cochez Start after created et cliquez sur Finish :

Installation de l'OS :¶
-
Démarrez la VM → Console (
noVNC) →Try or Install Ubuntu:
-
Installateur :
- DHCP/IP statique selon la situation ;
- Disque :
Use entire disk; - Profil : utilisateur/mot de passe ;
- OpenSSH server : activer.
-
Redémarrez et connectez-vous via console/SSH.
Post-installation :¶
Ensuite dans Proxmox : VM → Options → Qemu Agent = Enabled :

Boot Order : si démarrage depuis ISO - Options → Boot Order → déplacez scsi0 au-dessus de cdrom.
Installation de Windows (pour les nœuds plus puissants)¶
Convient pour les nœuds avec ≥4 vCPU/8 Go RAM. Sur les VPS faibles, Windows peut fonctionner de manière instable.
-
ISO : téléchargez les ISO de Windows Server (2019/2022/2025) et
virtio-win.iso(pilotes) dans Storage → Content :
-
Create VM→ OS :Microsoft Windows, ISO - image d'installation. L'optionAdd additional drive for VirtIO driverspermet d'ajouter un second CD avec les pilotes :
-
System :
BIOS OVMF(UEFI) ;- Machine :
q35; - Si nécessaire, activez
Add EFI DisketAdd TPM(pour les nouvelles versions de Windows). Si ça ne démarre pas - essayezSeaBIOSet désactivezEFI/TPM:

- Machine :
-
Disks :
- Bus :
SCSI; - Controller :
VirtIO SCSI; - Size : 40–80 Go ;
- IO Threads : activer :

- Bus :
-
CPU : 2–4 vCPU ;
- Type :
host:

- Type :
-
Memory : 4–8 Go :

-
Network :
Model VirtIO(paravirtualisé),Bridge vmbr0:
-
Confirm : terminez la création de la VM avec le bouton
Create, puis dans Hardware → CD/DVD Drive connectez le second ISO -virtio-win.iso:
-
Installateur Windows : à l'étape de sélection du disque, cliquez sur
Charger le pilote→ spécifiez le CD avec VirtIO (vioscsi/viostor). Après l'installation - dans le Gestionnaire de périphériques, installez les pilotes réseau (NetKVM) :
-
Agent invité (facultatif) : installez
Qemu Guest Agentpour Windows depuisvirtio-win ISO:
Dépannage Windows :¶
- Écran noir/ne démarre pas : changez OVMF → SeaBIOS, désactivez EFI/TPM.
- Pas de réseau : vérifiez que NIC = VirtIO et que le pilote NetKVM est installé.
- Ralentissements du disque : assurez-vous que disque = SCSI + pilote virtio.
Conteneurs LXC : Démarrage rapide¶
Des modèles prêts à l'emploi avec un minimum de logiciels sont disponibles dans le stockage de modèles.
-
Datacenter → Storage → (sélectionnez
storageavec le typeTemplates) → Content → Templates. Téléchargez, par exemple :ubuntu-25.04-standard_*.tar.zstou un autre modèle nécessaire :
-
Cliquez sur
Create CT:- General : spécifiez ID/Name, Unprivileged container =
Enabled(par défaut plus sûr). Définissez le mot de passerootou la clé SSH :

- Template : sélectionnez le modèle téléchargé :

- Disks : Storage/Size (par exemple, 8–20 Go) :

- CPU/RAM : selon la tâche (par exemple, 1 vCPU, 1–2 Go RAM) :

- Network :
Bridge vmbr0, IPv4 =DHCP(ou Static si nécessaire). VLAN Tag si nécessaire :

Conseil pour Network : Si vous utilisez NAT sur
vmbr1, configurez-le et spécifiez l'IP statique.- DNS : par défaut depuis l'hôte ou le vôtre :

- Features : si nécessaire, activez
nesting,fuse,keyctl(dépend des applications dans le conteneur).
- General : spécifiez ID/Name, Unprivileged container =
-
Start at boot/Start after created: au choix. -
Après le démarrage : connectez-vous via SSH et installez les logiciels depuis le modèle ou les paquets :

Dans LXC, Qemu Guest Agent n'est pas nécessaire. Le montage des répertoires hôtes se fait via MP (Mount points).
Profils VM typiques¶
-
Ubuntu/Debian (Web/DB/Utilitaire) : SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 Go RAM, disque 20–60 Go ; activer Qemu Guest Agent.
-
Services légers (DNS/DHCP/Proxy) : 1 vCPU, 1–2 Go RAM, disque 8–20 Go.
-
Hôtes de conteneurs (Docker/Podman) : 2–4 vCPU, 4–8 Go RAM ; disque/pool séparé pour les données.
Alternative à l'ISO : vous pouvez utiliser des images Cloud-Init Ubuntu 25.10 pour un clonage rapide avec auto-configuration réseau/SSH. Convient si vous prévoyez de nombreuses VM similaires.
Connexion des VM et LXC dans un même réseau¶
Variante de base (un seul sous-réseau) :¶
-
Assurez-vous que toutes les VMs/conteneurs ont Bridge =
vmbr0(ouvmbr1). -
Si réseau avec DHCP - les adresses sont attribuées automatiquement, si statique - spécifiez les IP dans un même sous-réseau (par exemple,
10.10.0.2/24,10.10.0.3/24) et passerelle commune10.10.0.1. -
Optionnel. VLAN : spécifiez le Tag VLAN dans les paramètres de la carte réseau VM/CT et assurez-vous que l'uplink du switch permet ce VLAN.
-
À l'intérieur de l'OS, vérifiez que le pare-feu local ne bloque pas ICMP/SSH/HTTP.
-
Test : depuis la VM Ubuntu
ping <IP-LXC>et vice versa ;ip route,tracerouteaideront en cas de problème.
Lorsque des sous-réseaux différents :¶
-
Proxmox lui-même ne route pas entre les bridges. Un routeur (VM séparé avec Linux/pfSense) ou NAT sur l'hôte est nécessaire.
-
NAT simple sur l'hôte (exemple) :
Activer le forwarding :
NAT de vmbr1 vers Internet viavmbr0 : Pour la persistance, ajoutez des règles dans /etc/network/if-up.d/ ou utilisez nftables :

Note
L'utilisation de NAT convient pour combiner LXC et OS installés via ISO dans un même sous-réseau.
Sauvegardes et modèles¶
-
Backup : Datacenter → Backup ou Node → Backup - configurez le planning
vzdump(stockage, heure, mode snapshot/stop) :
-
Modèle VM : après la configuration de base de la VM →
Convert to Template. Créer de nouvelles VMs viaCloneéconomise du temps et élimine les erreurs :

Problèmes courants et solutions¶
"L'interface Web a disparu" (GUI ne s'ouvre pas)¶
Vérifiez que le nœud est accessible via SSH. Sur le nœud, exécutez :
Redémarrage en douceur des services :Si les paquets ont été mis à jour - terminez apt et résolvez les processus bloqués (prudemment), vérifiez l'espace disponible df -h.
Réseau perdu après modification du bridge¶
Connectez-vous via console (via fournisseur/VNC/IPMI). Vérifiez /etc/network/interfaces et appliquez :
Vérifiez que la passerelle et le masque sont correctement définis, bridge-ports est la bonne interface physique.
La VM ne se connecte pas à Internet¶
- Assurez-vous qu'à l'intérieur de la VM les IP/masque/passerelle/DNS corrects sont spécifiés.
- Vérifiez que le Bridge de l'adaptateur réseau de la VM est vmbr0 (ou nat/vmbr1).
- Si VLAN est utilisé - spécifiez le Tag VLAN dans les paramètres NIC de la VM (Hardware → Network Device → VLAN Tag), et sur l'uplink du switch autorisez ce VLAN.
L'ISO ne démarre pas / l'installateur n'est pas visible¶
- Vérifiez l'ordre de démarrage (Options → Boot Order) et que l'ISO correct est connecté.
- Pour UEFI, vérifiez que Secure Boot n'est pas activé dans l'OS invité si l'ISO ne le supporte pas.
Charge élevée/« engorgement » du disque¶
- Utilisez VirtIO SCSI et activez IO Threads pour les disques intensifs.
- Ne stockez pas les sauvegardes sur le même thin-pool que les disques de production - préférez un stockage séparé.
Webcam/périphérique USB « déconnecté » dans la VM¶
- Pour le passthrough USB, utilisez Hardware → USB Device (passthrough USB). Si le périphérique cesse de répondre -
Stop/Startla VM ou reconnectez l'USB sur l'hôte. Parfois désactiverUse USB3aide pour la compatibilité.
Mises à jour et redémarrage¶
Mettez à jour pendant une « fenêtre » et faites une sauvegarde avant les mises à niveau majeures.
Diagnostics : Guide rapide¶
Réseau du nœud :
Services Proxmox : Espace disque : Stockages : Périphérique VM : Redémarrage rapide de la VM :Mini-FAQ¶
Q : Peut-on renommer le bridge vmbr0 ? R : Oui, mais ce n'est pas recommandé sur un nœud de production - il est plus facile de laisser vmbr0 et d'ajouter des bridges supplémentaires (vmbr1) si nécessaire.
Q : Où se trouvent les ISO par défaut ? R : Dans le stockage local : /var/lib/vz/template/iso.
Q : Quelle est la différence entre local et local-lvm ? R : local - répertoire ordinaire pour ISO, modèles de conteneurs, etc. local-lvm - LVM-Thin pour les disques VM/conteneurs avec snapshots.
Q : Comment cloner rapidement une VM ? R : Convertissez une VM de référence en Template, puis Clone → Full/Linked.
Q : Comment dimensionner en toute sécurité le CPU/RAM d'une VM ? R : Éteignez la VM et modifiez les ressources ; pour Linux, certains paramètres peuvent être changés « à la volée », mais mieux vaut planifier.
Liste de vérification pour la préparation du système¶
- Accès à
https://<IP_serveur>:8006disponible ; vmbr0configuré et Internet depuis le nœud ;- ISOs chargés dans le stockage ;
- Première VM créée et installée ;
- Qemu Guest Agent activé ;
- Sauvegarde configurée (planning vzdump) ;
- Mises à jour vérifiées.
Commander un serveur avec Proxmox 9 via l'API¶
Pour installer ce logiciel en utilisant l'API, suivez ces instructions.
Une partie du contenu de cette page a été créée ou traduite à l'aide de l'IA.