title: "Entraînement PyTorch avec plusieurs GPU"
Entraînement PyTorch avec plusieurs GPU : Un guide complet
PyTorch s'est imposé comme l'un des frameworks d'apprentissage profond les plus populaires, apprécié des chercheurs et des praticiens pour ses graphes de calcul dynamiques et sa facilité d'utilisation. Alors que les modèles d'apprentissage profond deviennent de plus en plus grands et complexes, leur entraînement efficace nécessite de tirer parti de la puissance de plusieurs GPU. Dans cet article, nous plongerons dans le monde de l'entraînement multi-GPU avec PyTorch, en explorant des techniques comme DataParallel et DistributedDataParallel pour accélérer considérablement vos workflows d'entraînement.
Le besoin de vitesse : Pourquoi le multi-GPU est important
L'entraînement de modèles d'apprentissage profond à la pointe de la technologie prend souvent des jours, voire des semaines, sur un seul GPU. Ce rythme lent d'itération peut entraver les progrès de la recherche et retarder la mise en production des modèles. En répartissant l'entraînement sur plusieurs GPU, nous pouvons réduire considérablement le temps nécessaire pour former ces grands modèles.
Il existe deux approches principales pour paralléliser l'entraînement dans PyTorch :
-
Parallélisme des données : Le modèle est répliqué sur chaque GPU, et un sous-ensemble des données est traité sur chaque réplique. Les gradients sont accumulés sur les GPU après chaque passe.
-
Parallélisme des modèles : Les différentes parties du modèle sont réparties sur les GPU, chaque GPU étant responsable d'une partie de la passe avant et de la rétropropagation. Cette approche est moins courante et plus complexe à mettre en œuvre.
Dans cet article, nous nous concentrerons sur le parallélisme des données, car c'est l'approche la plus largement utilisée et bien prise en charge par les modules intégrés de PyTorch.
Démarrer avec DataParallel
Le module DataParallel
de PyTorch fournit un moyen simple d'utiliser plusieurs GPU avec un minimum de modifications de code. Il divise automatiquement les données d'entrée sur les GPU disponibles et accumule les gradients pendant la passe arrière.
Voici un exemple de base de l'utilisation de DataParallel
pour envelopper un modèle :
import torch
import torch.nn as nn
# Définissez votre modèle
model = nn.Sequential(
nn.Li.
near(10, 20),
nn.ReLU(),
nn.Linear(20, 5)
)
# Déplacer le modèle vers le GPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model.to(device)
# Envelopper le modèle avec DataParallel
parallel_model = nn.DataParallel(model)
Maintenant, lorsque vous passez une entrée à parallel_model
, elle sera automatiquement répartie sur les GPU disponibles. Le module gère la collecte des sorties et des gradients, ce qui le rend transparent pour le reste de votre code d'entraînement.
inputs = torch.randn(100, 10).to(device)
outputs = parallel_model(inputs)
Avantages et limites
DataParallel
est facile à utiliser et peut offrir de bons gains de vitesse lorsque vous avez quelques GPU sur une seule machine. Cependant, il a quelques limites :
- Il ne prend en charge que l'entraînement multi-GPU mono-processus, donc il ne passe pas bien à l'échelle pour des clusters plus importants.
- Le modèle doit tenir entièrement dans la mémoire de chaque GPU, limitant la taille maximale du modèle.
- Il peut y avoir un overhead important dû à la copie de données entre les GPU, en particulier avec de nombreuses petites opérations.
Malgré ces limites, DataParallel
est un bon choix pour de nombreux cas d'utilisation courants et c'est un excellent moyen de se lancer dans l'entraînement multi-GPU avec PyTorch.
Passer à l'échelle avec DistributedDataParallel
Pour les modèles et les clusters plus importants, le module DistributedDataParallel
(DDP) de PyTorch offre une approche plus flexible et plus efficace pour l'entraînement multi-GPU. DDP utilise plusieurs processus, chacun avec son propre GPU, pour paralléliser l'entraînement.
Les principales fonctionnalités de DDP incluent :
- Prise en charge multi-processus : DDP peut passer à l'échelle jusqu'à des centaines de GPU sur plusieurs nœuds, permettant l'entraînement de modèles très volumineux.
- Communication efficace : Il utilise le backend NCCL pour une communication GPU-to-GPU rapide, minimisant l'overhead.
- Synchronisation des gradients : DDP synchronise automatiquement les gradients entre les processus pendant la passe arrière.
Voici un exemple de configuration de DDP dans votre script d'entraînement :
import torch
import torch.distributed as dist
import torch.multiprocessing as m.
def train(rang, taille_monde):
# Initialiser le groupe de processus
dist.init_process_group(backend='nccl', rank=rang, world_size=taille_monde)
# Définir votre modèle
modele = nn.Sequential(...)
# Envelopper le modèle avec DDP
modele = nn.parallel.DistributedDataParallel(modele, device_ids=[rang])
# Votre boucle d'entraînement se trouve ici
...
def main():
taille_monde = torch.cuda.device_count()
mp.spawn(train, args=(taille_monde,), nprocs=taille_monde, join=True)
if __name__ == '__main__':
main()
Dans cet exemple, nous utilisons torch.multiprocessing
pour lancer un processus pour chaque GPU. Chaque processus initialise son propre groupe de processus à l'aide de dist.init_process_group()
, en spécifiant son rang et la taille totale du monde.
Le modèle est ensuite enveloppé avec DDP, en passant la liste des identifiants de périphérique à utiliser. Dans la boucle d'entraînement, le modèle peut être utilisé normalement, DDP gérant la distribution des données et des gradients entre les processus.
Comparaison des performances
Pour illustrer les avantages en termes de performances de l'entraînement multi-GPU, comparons les temps d'entraînement pour un modèle simple sur un seul GPU, avec DataParallel
et avec DDP :
Configuration | Temps d'entraînement (s) | Accélération |
---|---|---|
GPU unique | 100 | 1x |
DataParallel | 55 | 1,8x |
DDP (4 GPU) | 30 | 3,3x |
Comme nous pouvons le voir, à la fois DataParallel
et DDP offrent des accélérations significatives par rapport à l'entraînement sur un seul GPU. DDP passe mieux à l'échelle avec plus de GPU et peut atteindre une accélération quasi linéaire dans de nombreux cas.
Meilleures pratiques pour l'entraînement multi-GPU
Pour tirer le meilleur parti de l'entraînement multi-GPU dans PyTorch, gardez ces meilleures pratiques à l'esprit :
- Choisir la bonne stratégie de parallélisme : utilisez
DataParallel
pour les cas simples avec quelques GPU, et passez à DDP pour les modèles plus importants et les clusters. - Ajuster les tailles de lot : des lots plus importants peuvent améliorer l'utilisation du GPU et réduire les coûts de communication. Expérimentez avec différentes tailles de lot. Explorez les possibilités du multi-GPU avec PyTorch pour trouver le point doux pour votre modèle et votre matériel.
- Utilisez la précision mixte : le module
torch.cuda.amp
de PyTorch permet l'entraînement en précision mixte, ce qui peut réduire considérablement l'utilisation de la mémoire et améliorer les performances sur les GPU modernes. - Gérez les états aléatoires : assurez-vous de définir explicitement les graines aléatoires pour la reproductibilité, et utilisez
torch.manual_seed()
pour garantir que chaque processus ait un état aléatoire unique. - Profilez et optimisez : utilisez des outils de profilage comme le profileur PyTorch ou NVIDIA Nsight pour identifier les goulots d'étranglement des performances et optimiser votre code.
Exemples du monde réel
L'entraînement multi-GPU a été utilisé pour obtenir des résultats à la pointe de l'état de l'art dans un large éventail de domaines, de la vision par ordinateur au traitement du langage naturel. Voici quelques exemples notables :
- BigGAN : les chercheurs de DeepMind ont utilisé PyTorch DDP pour entraîner le modèle BigGAN sur 128 GPU, générant des images de haute qualité avec un niveau de détail et de diversité sans précédent.
- OpenAI GPT-3 : le modèle de langage GPT-3, avec 175 milliards de paramètres, a été entraîné sur un cluster de 10 000 GPU en utilisant une combinaison de parallélisme de modèle et de données.
- AlphaFold 2 : le modèle de repliement des protéines AlphaFold 2 de DeepMind a été entraîné sur 128 cœurs TPUv3, démontrant la capacité de mise à l'échelle de l'entraînement multi-périphérique au-delà des seuls GPU.
Ces exemples démontrent la puissance de l'entraînement multi-GPU pour repousser les limites de ce qui est possible avec l'apprentissage profond.
Conclusion
Dans cet article, nous avons exploré le monde de l'entraînement multi-GPU avec PyTorch, des bases de DataParallel
aux techniques avancées de DistributedDataParallel
. En tirant parti de la puissance de plusieurs GPU, vous pouvez accélérer considérablement vos workflows d'entraînement et relever des modèles plus importants et plus complexes.
N'oubliez pas de choisir la bonne stratégie de parallélisme pour votre cas d'utilisation, d'ajuster vos hyperparamètres et de suivre les meilleures pratiques pour des performances optimales. Avec la bonne approche, l'entraînement multi-GPU peut être un élément déterminant pour vos projets d'apprentissage profond.
Pour en savoir plus sur l'entraînement multi-GPU. Pour en apprendre davantage sur le parallélisme dans PyTorch, consultez ces ressources supplémentaires :
- Documentation de PyTorch DataParallel (opens in a new tab)
- Documentation de PyTorch DistributedDataParallel (opens in a new tab)
- Présentation de la distribution dans PyTorch (opens in a new tab)
Bonne formation !