Accueil Blog Carte graphique externe (eGPU) pour l'IA
Materiel & eGPU

Carte graphique externe (eGPU) pour l'IA : le meilleur des deux mondes ?

Par L equipe OutilsIA avril 2026 12 min de lecture

Vous avez un laptop fin et leger, mais vous voulez la puissance d'un GPU de bureau pour faire tourner de l'IA locale ? La solution existe : le eGPU (carte graphique externe). Un boitier Thunderbolt dans lequel vous glissez une RTX 4070 ou 4090, et votre ultrabook se transforme en station de calcul IA. Mais est-ce vraiment une bonne idee ? Spoiler : ca depend de votre systeme d'exploitation.

💡 Qu'est-ce qu'un eGPU ?

Un eGPU (external GPU) est un boitier externe equipe d'une alimentation et d'un slot PCIe. Vous y installez une carte graphique de bureau standard (NVIDIA ou AMD), puis vous connectez le boitier a votre laptop via un cable Thunderbolt 3 ou 4. Le laptop utilise alors le GPU externe comme s'il etait integre (avec quelques limitations de bande passante).

Le cas d'usage : laptop + puissance GPU

L'idee est seduisante : garder votre MacBook Pro, ThinkPad ou Dell XPS pour la mobilite, et brancher un GPU externe a la maison ou au bureau pour les taches lourdes d'IA. Fini le dilemme entre portabilite et puissance. Vous utilisez Ollama ou LM Studio en deplacement avec le CPU, puis vous branchez l'eGPU pour de l'inference rapide le soir.

Le probleme : le goulot Thunderbolt

Le point faible des eGPU est la bande passante. Voici la comparaison :

PCIe x16 (interne)

  • Bande passante : ~256 Gbps (PCIe 4.0)
  • Latence : ultra-faible
  • Performance GPU : 100%

Thunderbolt 4 (externe)

  • Bande passante : ~40 Gbps
  • Latence : plus elevee
  • Performance GPU : 60-80%

En pratique, un eGPU via Thunderbolt 4 offre environ 60 a 80% des performances d'un GPU installe en interne. Pour l'IA locale, cette perte est acceptable car l'inference LLM est surtout limitee par la VRAM et la bande passante memoire du GPU, pas par le lien CPU-GPU. Vous perdrez plus de performances sur le rendu graphique (jeux, 3D) que sur l'inference IA.

GPU compatibles pour l'IA

Pour l'IA locale, CUDA (NVIDIA) reste incontournable. Voici les meilleurs choix pour un eGPU :

  • RTX 3060 12 Go (~250 euros) : le meilleur rapport qualite-prix. 12 Go de VRAM pour les modeles 7B-13B. Ideal pour debuter.
  • RTX 4060 8 Go (~300 euros) : plus rapide que la 3060, mais seulement 8 Go de VRAM. Limite aux modeles 7B.
  • RTX 4070 12 Go (~550 euros) : excellent compromis vitesse/VRAM. Modeles 7B-13B confortablement.
  • RTX 4090 24 Go (~1600 euros) : le monstre. 24 Go de VRAM, modeles jusqu'a 30B. Mais attention, la 4090 est enorme et necessite un gros boitier.
  • GPU AMD (RX 7900 XTX, etc.) : fonctionnent via ROCm, mais le support IA est moins fiable que CUDA. A eviter pour un usage IA dedie.

Boitiers eGPU : comparatif

Boitier Prix ~ Alimentation Connexion Compatible RTX 4090
Razer Core X ~300 euros 650W TB3 Oui
Sonnet Breakaway Box 750 ~350 euros 750W TB3/TB4 Oui
Akitio Node ~250 euros 400W TB3 Non (PSU trop faible)
Razer Core X Chroma ~400 euros 700W TB3 Oui

Combos eGPU : prix total et performances IA

Combo Prix total ~ VRAM Modeles IA Perf eGPU vs interne
Akitio Node + RTX 3060 ~500 euros 12 Go 7B, 13B (Q4) ~70%
Razer Core X + RTX 4070 ~850 euros 12 Go 7B, 13B ~75%
Sonnet 750 + RTX 4090 ~1950 euros 24 Go 7B, 13B, 30B ~65%
Razer Core X + RTX 4060 ~600 euros 8 Go 7B ~75%

macOS : mauvaise nouvelle pour les Mac Apple Silicon

⚠ Apple a abandonne le support eGPU

Depuis le passage a Apple Silicon (M1 et suivants), macOS ne supporte plus les eGPU. Les boitiers externes ne sont reconnus que sur les anciens Mac Intel. Si vous avez un MacBook Pro M3 ou M4, un eGPU ne fonctionnera pas.

Pour les Mac Apple Silicon, la bonne approche est d'exploiter la memoire unifiee integree. Un Mac Mini M4 Pro avec 48 Go de RAM unifiee est bien plus efficace pour l'IA qu'un Mac Intel + eGPU.

Windows et Linux : ca marche bien

Sur un laptop Windows ou Linux equipe d'un port Thunderbolt 3 ou 4, les eGPU fonctionnent tres bien. Le GPU externe est detecte automatiquement, les drivers NVIDIA s'installent normalement, et tous les outils d'IA locale (Ollama, llama.cpp, PyTorch) utilisent le GPU externe via CUDA comme s'il etait interne. La seule difference : environ 20-35% de perte de performances par rapport a un montage interne.

eGPU vs PC fixe : l'analyse budget

Setup eGPU

  • Boitier Razer Core X : ~300 euros
  • RTX 4070 12 Go : ~550 euros
  • Total : ~850 euros
  • Performance effective : ~75% d'un GPU interne
  • Avantage : reutilise votre laptop existant

PC fixe budget

  • PC complet (CPU + carte mere + RAM + SSD) : ~350 euros
  • RTX 4070 12 Go : ~550 euros
  • Total : ~900 euros
  • Performance effective : 100% du GPU
  • Avantage : machine dediee, performances maximales

Le constat est clair : pour un budget equivalent (~850-900 euros), un PC fixe offre de meilleures performances (100% du GPU vs 75% en eGPU). L'eGPU n'a de sens que si vous voulez absolument reutiliser un laptop existant et eviter d'avoir deux machines. Pour un guide complet sur les configs PC, consultez notre article meilleur GPU pour l'IA locale 2026.

L'alternative : le cloud GPU

Si vous n'avez besoin de puissance GPU que ponctuellement (quelques heures par semaine), le cloud GPU est souvent plus rentable qu'un eGPU. Des plateformes comme RunPod (~0.40 euros/h pour un RTX 4090) et Vast.ai (~0.30 euros/h) permettent de louer un GPU puissant a la demande. A 10h d'utilisation par mois, ca revient a ~4 euros/mois, soit 48 euros/an. Il faudrait plus de 15 ans pour amortir un eGPU a 800 euros. En revanche, si vous utilisez l'IA tous les jours, l'investissement materiel est vite rentabilise.

Quand l'eGPU a du sens

Bonne idee si...
  • Vous avez un laptop Windows/Linux avec Thunderbolt
  • Vous ne voulez pas un deuxieme ordinateur
  • Vous utilisez l'IA quotidiennement
  • Vous avez deja le GPU (recupere d'un ancien PC)
Mauvaise idee si...
  • Vous avez un Mac Apple Silicon (pas supporte)
  • Vous pouvez acheter un PC fixe dedie
  • Vous n'utilisez l'IA que quelques heures/mois (cloud GPU)
  • Votre laptop n'a pas de Thunderbolt 3/4

🏆 Notre verdict

L'eGPU pour l'IA est une solution de niche mais viable sur Windows/Linux. Si vous avez un bon laptop Thunderbolt et que vous voulez eviter un PC fixe, un combo Razer Core X + RTX 3060 (environ 550 euros) est un excellent point d'entree. Mais pour la plupart des utilisateurs, un PC fixe dedie offre de meilleures performances pour le meme prix. Et sur Mac, oubliez l'eGPU : la memoire unifiee Apple Silicon est la vraie solution. Retrouvez toutes nos recommandations sur notre page materiel IA.

Questions frequentes

Non. Apple a supprime le support des eGPU avec le passage a Apple Silicon (M1, M2, M3, M4). Seuls les anciens Mac Intel sont compatibles. Pour l'IA sur Mac moderne, utilisez la memoire unifiee integree. Un Mac Mini M4 Pro avec 48 Go de RAM est bien plus efficace pour l'IA qu'un ancien Mac Intel + eGPU.
En moyenne, comptez 20 a 35% de perte de performances via Thunderbolt 4 (40 Gbps) par rapport a un slot PCIe x16 interne (256 Gbps). Pour l'inference IA (LLM), la perte est plutot autour de 20-25% car le goulot d'etranglement est la bande passante memoire du GPU, pas le lien Thunderbolt. Pour la generation d'images ou l'entrainement, la perte peut atteindre 30-35%.
Si vous utilisez l'IA moins de 20 heures par mois, le cloud GPU est probablement plus rentable. A ~0.40 euros/heure pour une RTX 4090 sur RunPod, 20h/mois = 8 euros/mois = 96 euros/an. Un eGPU a 800 euros ne serait amorti qu'apres 8 ans. En revanche, si vous utilisez l'IA quotidiennement (2h+ par jour), l'eGPU est rentabilise en moins d'un an et vous gardez vos donnees en local pour la confidentialite.