LM Studio : guide complet (installation, modeles, utilisation)
LM Studio est une application gratuite qui permet de faire tourner des modeles d'IA (LLM) directement sur votre ordinateur, sans connexion internet, sans compte et sans abonnement. C'est l'interface graphique la plus simple pour decouvrir l'IA locale. Ce guide vous accompagne de l'installation a la premiere conversation.
🎯 Ce que vous allez apprendre
- ✓ Ce qu'est LM Studio et pourquoi l'utiliser
- ✓ Comment le telecharger et l'installer (Windows, Mac, Linux)
- ✓ Comment parcourir et telecharger des modeles (Llama 3, Mistral, Phi-3)
- ✓ Comment utiliser l'interface de chat
- ✓ Comment lancer un serveur API local compatible OpenAI
- ✓ Comparaison avec Ollama
Qu'est-ce que LM Studio ?
LM Studio est une application de bureau (GUI) qui permet de telecharger, gerer et executer des modeles de langage (LLM) en local. Concretement, c'est comme avoir ChatGPT sur votre PC, mais sans envoyer vos donnees a un serveur externe. L'application est gratuite pour un usage personnel et fonctionne sur Windows, macOS et Linux.
Les avantages principaux de LM Studio sont : la vie privee totale (vos conversations restent sur votre machine), l'absence de limites (pas de quota de messages), le fonctionnement hors ligne (une fois le modele telecharge), et la gratuite (pas d'abonnement). Pour en savoir plus sur l'IA locale, consultez notre page IA Locale.
Etape 1 : Telecharger et installer LM Studio
Configuration minimale requise
- Windows 10/11 64-bit
- 8 Go de RAM minimum
- GPU NVIDIA recommande
- macOS 13+ (Ventura)
- Apple Silicon (M1+) ideal
- 16 Go RAM recommande
- Ubuntu 22.04+ ou equivalent
- 8 Go de RAM minimum
- GPU NVIDIA recommande
Installation pas a pas
- 1. Rendez-vous sur le site officiel lmstudio.ai
- 2. Cliquez sur le bouton de telechargement correspondant a votre systeme (Windows, Mac, Linux)
- 3. Lancez l'installateur telecharge. Sur Windows : double-cliquez le .exe. Sur Mac : ouvrez le .dmg et glissez dans Applications. Sur Linux : rendez l'AppImage executable et lancez-le
- 4. Au premier lancement, LM Studio detecte automatiquement votre materiel (GPU, RAM) et optimise les parametres
- 5. Aucun compte n'est necessaire. L'application est prete a l'emploi
Etape 2 : Telecharger un modele
LM Studio integre un explorateur de modeles qui permet de parcourir et telecharger des modeles directement depuis Hugging Face. Voici les modeles que nous recommandons pour debuter :
| Modele | Taille | RAM requise | Ideal pour |
|---|---|---|---|
| Llama 3.1 8B | ~5 Go | 8 Go | Polyvalent, bon en francais |
| Mistral 7B | ~4 Go | 8 Go | Excellent en francais |
| Phi-3 Mini | ~2 Go | 4 Go | PC modeste, rapide |
| Llama 3.1 70B (Q4) | ~40 Go | 48 Go | Qualite pro (PC puissant) |
Comment telecharger un modele
- 1. Dans LM Studio, cliquez sur l'icone de recherche (loupe) dans la barre laterale gauche
- 2. Tapez le nom du modele (ex: "llama 3.1 8b" ou "mistral 7b")
- 3. LM Studio affiche les variantes disponibles. Choisissez une version "Q4_K_M" pour un bon equilibre qualite/taille
- 4. Cliquez sur "Download". Le telechargement prend quelques minutes selon votre connexion
- 5. Une fois telecharge, le modele est disponible hors ligne pour toujours
Etape 3 : Discuter avec l'IA
L'interface de chat de LM Studio ressemble a ChatGPT. Cliquez sur l'icone de chat dans la barre laterale, selectionnez votre modele telecharge dans le menu deroulant, et commencez a taper votre message. Les reponses sont generees localement, sans aucune connexion internet.
Vous pouvez personnaliser le "system prompt" (instructions donnees au modele), ajuster la temperature (creativite), la longueur maximale des reponses, et d'autres parametres avances. Pour debuter, les parametres par defaut fonctionnent tres bien.
Etape 4 : Lancer un serveur API local
LM Studio peut aussi fonctionner comme un serveur API local compatible OpenAI. Cela signifie que vous pouvez utiliser n'importe quelle application qui supporte l'API OpenAI (comme Continue, Open Interpreter, ou vos propres scripts Python) et la faire pointer vers votre modele local, gratuitement.
Lancer le serveur
- 1. Cliquez sur l'icone serveur (deux fleches) dans la barre laterale
- 2. Selectionnez le modele a servir
- 3. Cliquez sur "Start Server". Le serveur demarre sur localhost:1234
- 4. Utilisez l'URL http://localhost:1234/v1 comme endpoint API (compatible OpenAI)
LM Studio vs Ollama : quelle difference ?
LM Studio et Ollama sont les deux outils principaux pour l'IA locale, mais avec des approches differentes. LM Studio est une application graphique (GUI) avec une interface visuelle, ideale pour les debutants. Ollama est un outil en ligne de commande (CLI), plus adapte aux developpeurs et aux usages automatises.
- ✓ Interface graphique intuitive
- ✓ Explorateur de modeles integre
- ✓ Chat visuel integre
- ✓ Parametres visuels en temps reel
- ✗ Plus lourd en ressources
- ✗ Moins automatisable
- ✓ Leger et rapide
- ✓ Scriptable et automatisable
- ✓ API serveur integree
- ✓ Ideal pour Docker/serveurs
- ✗ Pas d'interface graphique
- ✗ Ligne de commande requise
Pour un comparatif plus detaille, lisez notre article Ollama vs LM Studio 2026. Si vous voulez utiliser l'IA sans internet, consultez aussi notre guide IA locale sans internet.
Pour des performances optimales, le choix du materiel est important. Consultez notre page materiel recommande pour savoir quel GPU et quelle configuration choisir. Et pour comparer LM Studio avec les IA en ligne, visitez notre comparateur.