Installation de TensorFlow¶
Dans cet article
TensorFlow est une plateforme open-source pour le machine learning et la formation de réseaux neuronaux profonds, développée par Google. Avec TensorFlow, vous pouvez créer, entraîner et utiliser des réseaux neuronaux complexes à l'aide d'une API conviviale en Python.
Cette plateforme prend également en charge les algorithmes de machine learning traditionnels, tels que la régression linéaire et logistique, ainsi que des architectures plus avancées, notamment les réseaux neuronaux convolutionnels (CNN) et les réseaux neuronaux récurrents (RNN).
Installation de TensorFlow sur Linux¶
Cette instruction convient aux systèmes d'exploitation suivants : Ubuntu 22.04 et a été vérifiée pour les versions Python : Python 3.10.
Note
Si vous prévoyez d'utiliser l'accélération GPU, veuillez installer les pilotes NVIDIA et CUDA selon cette instruction.
-
Installer Python :
Dans Ubuntu 22.04, cette version est préinstallée par défaut, nous ne recommandons donc pas d'installer une version plus récente.
-
Installer les bibliothèques système pour TensorRT :
-
Créer un environnement virtuel pour Python :
-
Activer l'environnement virtuel :
Après une activation réussie, le prompt inclura le nom de l'environnement virtuel entre parenthèses :
Note
Vous pouvez créer autant d'environnements virtuels que vous souhaitez et installer différentes bibliothèques (y compris simultanément, mais cela peut parfois entraîner des conflits).
-
Installer les liaisons pour TensorRT :
Pour vérifier l'installation, nous pouvons exécuter Python dans la console et exécuter le script suivant :
Après une installation réussie, la sortie sera :
(tensorflow) user@49069:~/gpu$ python Python 3.10.12 (main, Nov 20 2023, 15:14:05) [GCC 11.4.0] on linux Type "help", "copyright", "credits" or "license" for more information. >>> import tensorrt >>> print(tensorrt.__version__) 10.0.0b6 >>> assert tensorrt.Builder(tensorrt.Logger()) >>> import tensorrt_lean as trt >>> print(trt.__version__) 10.0.0b6 >>> assert trt.Runtime(trt.Logger()) >>> import tensorrt_dispatch as trt >>> print(trt.__version__) 10.0.0b6 >>> assert trt.Runtime(trt.Logger()) >>>
-
Installer la version TensorRT 8.6.1.
-
Installer la bibliothèque TensorFlow avec le support GPU :
-
Quitter l'environnement virtuel :
-
Créer un script pour exécuter TensorFlow :
echo '#!/bin/bash' > tensorflow.sh echo 'source venv/bin/activate' >> tensorflow.sh echo 'export CUDNN_PATH=$(dirname $(python -c "import nvidia.cudnn;print(nvidia.cudnn.__file__)"))' >> tensorflow.sh echo 'export LD_LIBRARY_PATH=$CUDNN_PATH/lib:/usr/local/cuda/lib64' >> tensorflow.sh echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HOME/TensorRT-8.6.1.6/lib' >> tensorflow.sh chmod +x tensorflow.sh
Exécution de TensorFlow¶
Pour exécuter TensorFlow dans un environnement virtuel avec des variables d'environnement spécifiées depuis le répertoire racine de votre dossier personnel, utilisez la commande :
Vérification de l'installation de TensorFlow¶
Pour vérifier la fonctionnalité et le support GPU de la bibliothèque, lancez le programme Python suivant dans la console :
import tensorflow as tf
print(tf.reduce_sum(tf.random.normal([1000, 1000])))
print(tf.config.list_physical_devices('GPU'))
Après une installation réussie, vous recevrez une sortie similaire à celle-ci, affichant l'utilisation de votre GPU.
(venv) user1@49069:~$ python
Python 3.10.12 (main, Nov 20 2023, 15:14:05) [GCC 11.4.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow as tf
nt(tf.config.list_physical_devices('GPU'))
2024-04-22 23:39:54.472502: I tensorflow/core/platform/cpu_feature_guard.cc:210] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
>>> print(tf.reduce_sum(tf.random.normal([1000, 1000])))
2024-04-22 23:39:55.810888: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1928] Created device /job:localhost/replica:0/task:0/device:GPU:0 with 22282 MB memory: -> device: 0, name: NVIDIA GeForce RTX 4090, pci bus id: 0000:07:00.0, compute capability: 8.9
tf.Tensor(332.5041, shape=(), dtype=float32)
>>> print(tf.config.list_physical_devices('GPU'))
[PhysicalDevice(name='/physical_device:GPU:0', device_type='GPU')]
>>>
De plus, vous pouvez télécharger et exécuter le script Python de test pour l'entraînement d'un réseau neuronal 2c_nn_mnist_customtrain.py
depuis ce dépôt GitHub.
Après l'exécution, vous devriez recevoir une sortie similaire à celle-ci :
(venv) user1@49069:~$ python ./2c_nn_mnist_customtrain.py
2024-04-23 10:35:25.832754: I tensorflow/core/platform/cpu_feature_guard.cc:210] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2024-04-23 10:35:28.404381: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1928] Created device /job:localhost/replica:0/task:0/device:GPU:0 with 22282 MB memory: -> device: 0, name: NVIDIA GeForce RTX 4090, pci bus id: 0000:07:00.0, compute capability: 8.9
WARNING: All log messages before absl::InitializeLog() is called are written to STDERR
I0000 00:00:1713861338.172126 21279 service.cc:145] XLA service 0x7f36a3bd2ec0 initialized for platform CUDA (this does not guarantee that XLA will be used). Devices:
I0000 00:00:1713861338.172187 21279 service.cc:153] StreamExecutor device (0): NVIDIA GeForce RTX 4090, Compute Capability 8.9
2024-04-23 10:35:38.180648: I tensorflow/compiler/mlir/tensorflow/utils/dump_mlir_util.cc:268] disabling MLIR crash reproducer, set env var `MLIR_CRASH_REPRODUCER_DIRECTORY` to enable.
2024-04-23 10:35:38.207205: I external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:465] Loaded cuDNN version 8902
I0000 00:00:1713861338.355523 21279 device_compiler.h:188] Compiled cluster using XLA! This line is logged at most once for the lifetime of the process.
1874/1875 |||||||||||||||||||||||||||||||| acc: 0.9022 time: 14.9 test-acc: 0.932 (error: 6.75%)
1874/1875 |||||||||||||||||||||||||||||||| acc: 0.9474 time: 4.74 test-acc: 0.953 (error: 4.71%)
1874/1875 |||||||||||||||||||||||||||||||| acc: 0.9628 time: 4.83 test-acc: 0.963 (error: 3.67%)
1874/1875 |||||||||||||||||||||||||||||||| acc: 0.9734 time: 4.86 test-acc: 0.968 (error: 3.25%)
1874/1875 |||||||||||||||||||||||||||||||| acc: 0.9798 time: 4.9 test-acc: 0.97 (error: 3.04%)
Une partie du contenu de cette page a été créée ou traduite à l'aide d'IA.