{"id":5723,"date":"2026-04-15T00:45:46","date_gmt":"2026-04-14T22:45:46","guid":{"rendered":"https:\/\/ai-explorer.io\/blog\/?p=5723"},"modified":"2026-05-11T10:43:25","modified_gmt":"2026-05-11T08:43:25","slug":"lm-studio-tutoriel-installation-utilisation","status":"publish","type":"post","link":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/","title":{"rendered":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)"},"content":{"rendered":"\n<p><strong>Et si vous pouviez faire tourner une intelligence artificielle aussi performante que <a href=\"https:\/\/comparatif.ai-explorer.io\/outils\/chatgpt\" target=\"_blank\" rel=\"noreferrer noopener\">ChatGPT<\/a> directement sur votre ordinateur, sans abonnement, sans connexion et sans envoyer la moindre donn\u00e9e \u00e0 un serveur tiers ?<\/strong> C&rsquo;est exactement la promesse de <strong>LM Studio<\/strong>, l&rsquo;application de bureau qui s&rsquo;est impos\u00e9e en 2026 comme la r\u00e9f\u00e9rence pour ex\u00e9cuter des LLM en local \u2014 et ce, sans aucune ligne de commande. Que vous soyez d\u00e9veloppeur, chercheur, r\u00e9dacteur ou simplement curieux, ce tutoriel LM Studio vous guide pas \u00e0 pas : installation sur Windows, macOS et Linux, choix du bon mod\u00e8le selon votre configuration mat\u00e9rielle, r\u00e9glage des param\u00e8tres, activation du serveur local compatible OpenAI, et conseils avanc\u00e9s pour tirer le meilleur de votre IA priv\u00e9e.<br><a href=\"https:\/\/ai-explorer.io\/blog\/ia-non-censuree-2026\/\" target=\"_blank\" rel=\"noreferrer noopener\">Pour d\u00e9couvrir les meilleurs mod\u00e8les non censur\u00e9s \u00e0 utiliser avec LM Studio, consultez notre guide IA non censur\u00e9e<\/a><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Qu&rsquo;est-ce que LM Studio ?<\/h2>\n\n\n\n<p><strong>LM Studio est une application de bureau gratuite<\/strong> qui permet de t\u00e9l\u00e9charger, g\u00e9rer et utiliser des mod\u00e8les de langage open source (LLM) directement sur votre machine. Contrairement aux solutions cloud comme ChatGPT, Claude ou Gemini, <strong>tout se passe en local<\/strong> : les mod\u00e8les sont stock\u00e9s sur votre disque dur, charg\u00e9s dans votre RAM ou votre VRAM, et les \u00e9changes ne quittent jamais votre ordinateur.<\/p>\n\n\n\n<p>Concr\u00e8tement, LM Studio joue le r\u00f4le d&rsquo;un gestionnaire universel pour les mod\u00e8les au format <strong>GGUF<\/strong> (le format de quantisation le plus r\u00e9pandu pour les LLM locaux) et <strong>MLX<\/strong> (optimis\u00e9 pour les puces Apple Silicon). Il se connecte directement au catalogue de <a href=\"https:\/\/ai-explorer.io\/blog\/hugging-face-modele-ia-robotique-macbook\/\" title=\"Hugging Face lance un mod\u00e8le d\u2019IA pour la robotique si efficace qu\u2019il peut fonctionner sur un MacBook\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"997\">Hugging Face<\/a> pour permettre de rechercher et t\u00e9l\u00e9charger des mod\u00e8les en quelques clics, sans jamais toucher un terminal.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Les avantages concrets de LM Studio<\/h3>\n\n\n\n<p><strong>Confidentialit\u00e9 totale.<\/strong> Vos donn\u00e9es ne quittent pas votre machine. Aucun prompt n&rsquo;est envoy\u00e9 \u00e0 un serveur externe, aucun historique n&rsquo;est stock\u00e9 dans le cloud. C&rsquo;est la solution id\u00e9ale pour les professionnels manipulant des donn\u00e9es sensibles (RH, juridique, m\u00e9dical, code propri\u00e9taire).<\/p>\n\n\n\n<p><strong>Z\u00e9ro abonnement.<\/strong> Une fois les mod\u00e8les t\u00e9l\u00e9charg\u00e9s, LM Studio fonctionne enti\u00e8rement hors ligne. Pas de limite de messages, pas de quota, pas de coupure \u00e0 20 messages par heure.<\/p>\n\n\n\n<p><strong>Flexibilit\u00e9 maximale.<\/strong> Des dizaines de mod\u00e8les open source sont disponibles : Llama (Meta), Qwen (Alibaba), Mistral, DeepSeek, Gemma (Google), Phi (Microsoft), et bien d&rsquo;autres. Vous choisissez librement le mod\u00e8le le mieux adapt\u00e9 \u00e0 votre t\u00e2che et \u00e0 votre mat\u00e9riel.<\/p>\n\n\n\n<p><strong>API locale compatible OpenAI.<\/strong> LM Studio expose un serveur local \u00e0 l&rsquo;adresse <code>http:\/\/localhost:1234\/v1<\/code>, compatible avec l&rsquo;API OpenAI \u2014 ce qui permet d&rsquo;int\u00e9grer votre <a href=\"https:\/\/ai-explorer.io\/blog\/google-ai-edge-gallery-app-ia-local-mobile\/\" title=\"Google lance discr\u00e8tement une appli pour utiliser l\u2019IA en local sur mobile\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"995\">IA locale dans n&rsquo;importe quelle application<\/a> existante.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Configuration mat\u00e9rielle requise<\/h2>\n\n\n\n<p>Avant d&rsquo;installer LM Studio, il faut s&rsquo;assurer que votre machine est compatible. <strong>Bonne nouvelle : les exigences sont bien moins \u00e9lev\u00e9es qu&rsquo;on ne le croit.<\/strong><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Configuration minimale<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Composant<\/th><th>Minimum<\/th><th>Recommand\u00e9<\/th><\/tr><\/thead><tbody><tr><td><strong>RAM<\/strong><\/td><td>8 Go<\/td><td>16 Go ou plus<\/td><\/tr><tr><td><strong>Stockage<\/strong><\/td><td>10 Go libres<\/td><td>50 Go libres (plusieurs mod\u00e8les)<\/td><\/tr><tr><td><strong>CPU<\/strong><\/td><td>x64 ou ARM64 avec AVX2<\/td><td>R\u00e9cent (4+ c\u0153urs)<\/td><\/tr><tr><td><strong>GPU<\/strong><\/td><td>Non obligatoire<\/td><td>6 Go VRAM minimum pour les gains de vitesse<\/td><\/tr><tr><td><strong>OS<\/strong><\/td><td>Windows 10\/11, macOS 12+, Ubuntu 20.04+<\/td><td>\u2014<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Quel mod\u00e8le pour quelle configuration ?<\/h3>\n\n\n\n<p>Le choix du mod\u00e8le d\u00e9pend directement de votre RAM et de votre VRAM disponible. Voici un guide pratique :<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Configuration<\/th><th>Mod\u00e8les recommand\u00e9s<\/th><th>Performance<\/th><\/tr><\/thead><tbody><tr><td><strong>CPU seul, 8 Go RAM<\/strong><\/td><td>Qwen3 4B Q4, Phi-3 mini (3.8B)<\/td><td>Lente mais fonctionnelle<\/td><\/tr><tr><td><strong>CPU seul, 16 Go RAM<\/strong><\/td><td>Llama 3.2 8B Q4_K_M, Mistral 7B Q4<\/td><td>Acceptable pour usage r\u00e9gulier<\/td><\/tr><tr><td><strong>GPU 6-8 Go VRAM<\/strong><\/td><td>Llama 3.1 8B Q4_K_M, Qwen3 8B Q4<\/td><td>Rapide, ~ChatGPT 3.5<\/td><\/tr><tr><td><strong>GPU 12-16 Go VRAM<\/strong><\/td><td>Qwen3 14B, Gemma 3 12B, DeepSeek-R1 14B<\/td><td>Tr\u00e8s performant<\/td><\/tr><tr><td><strong>GPU 24 Go VRAM<\/strong><\/td><td>Qwen3 30B, Llama 3.3 70B Q4<\/td><td>Niveau GPT-4<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><strong>Astuce :<\/strong> LM Studio affiche automatiquement la quantit\u00e9 de RAM\/VRAM n\u00e9cessaire pour chaque variante d&rsquo;un mod\u00e8le avant que vous ne le t\u00e9l\u00e9chargiez. Pas besoin de deviner.<\/p>\n<\/blockquote>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">\u00c9tape 1 : t\u00e9l\u00e9charger et installer LM Studio<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Sur Windows<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Rendez-vous sur <strong><a href=\"https:\/\/lmstudio.ai\/download\" target=\"_blank\">lmstudio.ai\/download<\/a><\/strong>.<\/li>\n\n\n\n<li>T\u00e9l\u00e9chargez le fichier <code>.exe<\/code> correspondant \u00e0 Windows.<\/li>\n\n\n\n<li>Lancez l&rsquo;installeur et suivez les \u00e9tapes (installation standard \u00ab Suivant \/ Suivant \/ Terminer \u00bb).<\/li>\n\n\n\n<li>Ouvrez LM Studio depuis le menu D\u00e9marrer ou le raccourci bureau cr\u00e9\u00e9 automatiquement.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Sur macOS<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>T\u00e9l\u00e9chargez le fichier <code>.dmg<\/code> depuis <strong><a href=\"https:\/\/lmstudio.ai\/download\" target=\"_blank\">lmstudio.ai\/download<\/a><\/strong>.<\/li>\n\n\n\n<li>Ouvrez le <code>.dmg<\/code> et faites glisser l&rsquo;ic\u00f4ne LM Studio vers le dossier <strong>Applications<\/strong>.<\/li>\n\n\n\n<li>Lancez LM Studio depuis le Launchpad ou Spotlight (\u2318 + Espace, tapez \u00ab LM Studio \u00bb).<\/li>\n<\/ol>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Sur <strong>Apple Silicon<\/strong> (M1, M2, M3, M4), LM Studio utilise automatiquement le moteur <strong>MLX<\/strong> pour une acc\u00e9l\u00e9ration GPU native. Les performances sont excellentes, m\u00eame sur les MacBook Air d&rsquo;entr\u00e9e de gamme.<\/p>\n<\/blockquote>\n\n\n\n<h3 class=\"wp-block-heading\">Sur Linux (Ubuntu \/ Debian)<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>T\u00e9l\u00e9chargez le fichier <code>.AppImage<\/code> depuis le site officiel.<\/li>\n\n\n\n<li>Rendez-le ex\u00e9cutable : <code>chmod +x LMStudio-*.AppImage<\/code><\/li>\n\n\n\n<li>Lancez-le : <code>.\/LMStudio-*.AppImage<\/code><\/li>\n<\/ol>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>LM Studio supporte Ubuntu 20.04+ et les distributions compatibles. Il d\u00e9tecte automatiquement CUDA (NVIDIA) et ROCm (AMD) pour l&rsquo;acc\u00e9l\u00e9ration GPU.<\/p>\n<\/blockquote>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">\u00c9tape 2 : comprendre l&rsquo;interface de LM Studio<\/h2>\n\n\n\n<p>Au premier lancement, LM Studio pr\u00e9sente une interface organis\u00e9e autour de plusieurs onglets principaux :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Discover<\/strong> : le navigateur de mod\u00e8les connect\u00e9 \u00e0 Hugging Face. C&rsquo;est ici que vous cherchez et t\u00e9l\u00e9chargez des mod\u00e8les.<\/li>\n\n\n\n<li><strong>Chat<\/strong> : l&rsquo;interface de conversation, similaire \u00e0 ChatGPT.<\/li>\n\n\n\n<li><strong>Developer<\/strong> (ou Local Server) : le serveur <a href=\"https:\/\/ai-explorer.io\/blog\/apple-ia-local-developpeurs\/\" title=\"Apple ouvre l\u2019IA en local aux d\u00e9veloppeurs en 2025\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"999\">local OpenAI-compatible pour les d\u00e9veloppeurs<\/a>.<\/li>\n\n\n\n<li><strong>My Models<\/strong> : la liste de vos mod\u00e8les d\u00e9j\u00e0 t\u00e9l\u00e9charg\u00e9s.<\/li>\n<\/ul>\n\n\n\n<p>Le <strong>panneau lat\u00e9ral droit<\/strong> dans la vue Chat donne acc\u00e8s aux param\u00e8tres de g\u00e9n\u00e9ration : temp\u00e9rature, longueur du contexte, top-p, repeat penalty, <a href=\"https:\/\/ai-explorer.io\/blog\/comment-ecrire-bon-prompt-guide-debutant\/\" title=\"Comment \u00e9crire un bon prompt : guide d\u00e9butant 2026\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"1000\">prompt<\/a> syst\u00e8me \u2014 tout est ajustable sans avoir \u00e0 relancer le mod\u00e8le.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">\u00c9tape 3 : choisir et t\u00e9l\u00e9charger un <a href=\"https:\/\/comparatif.ai-explorer.io\/llms\" target=\"_blank\" rel=\"noreferrer noopener\">mod\u00e8le<\/a><\/h2>\n\n\n\n<p>C&rsquo;est l&rsquo;\u00e9tape qui d\u00e9concerte souvent les d\u00e9butants : la multitude de mod\u00e8les et de variantes sur Hugging Face peut sembler intimidante. Voici comment s&rsquo;y retrouver.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Ouvrir le navigateur de mod\u00e8les<\/h3>\n\n\n\n<p>Appuyez sur <strong>Ctrl + Shift + M<\/strong> (Windows\/Linux) ou <strong>\u2318 + Shift + M<\/strong> (Mac) pour ouvrir la recherche de mod\u00e8les. LM Studio affiche une s\u00e9lection de mod\u00e8les recommand\u00e9s par son \u00e9quipe (\u00ab Staff Picks \u00bb) ainsi que les sorties r\u00e9centes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Comprendre la quantisation (GGUF)<\/h3>\n\n\n\n<p>Les mod\u00e8les disponibles dans LM Studio sont au format <strong>GGUF<\/strong>, un format de compression qui permet de r\u00e9duire la taille d&rsquo;un mod\u00e8le pour qu&rsquo;il tienne en m\u00e9moire sur du mat\u00e9riel grand public. Les niveaux de quantisation les plus courants :<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Format<\/th><th>Qualit\u00e9<\/th><th>Taille typique (7B)<\/th><th>Usage<\/th><\/tr><\/thead><tbody><tr><td><strong>Q8_0<\/strong><\/td><td>Excellente (quasi-original)<\/td><td>~7 Go<\/td><td>GPU 8+ Go VRAM<\/td><\/tr><tr><td><strong>Q6_K<\/strong><\/td><td>Tr\u00e8s bonne<\/td><td>~5.5 Go<\/td><td>GPU 6-8 Go VRAM<\/td><\/tr><tr><td><strong>Q4_K_M<\/strong><\/td><td>Bonne (recommand\u00e9e)<\/td><td>~4.5 Go<\/td><td>GPU 4-6 Go VRAM<\/td><\/tr><tr><td><strong>Q3_K_M<\/strong><\/td><td>Correcte<\/td><td>~3.5 Go<\/td><td>CPU ou GPU &lt; 4 Go<\/td><\/tr><tr><td><strong>Q2_K<\/strong><\/td><td>D\u00e9grad\u00e9e<\/td><td>~2.5 Go<\/td><td>Machines tr\u00e8s limit\u00e9es<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>La r\u00e8gle d&rsquo;or : choisissez Q4_K_M comme point de d\u00e9part.<\/strong> C&rsquo;est le meilleur compromis qualit\u00e9\/taille pour la quasi-totalit\u00e9 des usages. La diff\u00e9rence de qualit\u00e9 entre Q4_K_M et Q8_0 est quasiment imperceptible pour la r\u00e9daction ou le code.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Mod\u00e8les recommand\u00e9s pour commencer<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>D\u00e9butant \/ usage g\u00e9n\u00e9ral<\/strong> : <code>Llama 3.2 3B Q4_K_M<\/code> (tr\u00e8s rapide, ~2 Go)<\/li>\n\n\n\n<li><strong>Chat quotidien<\/strong> : <code>Mistral 7B Instruct Q4_K_M<\/code> (~4.5 Go)<\/li>\n\n\n\n<li><strong>Raisonnement \/ analyse<\/strong> : <code>DeepSeek-R1 8B Q4_K_M<\/code> (~5 Go)<\/li>\n\n\n\n<li><strong>Coding<\/strong> : <code>Qwen3 Coder 8B Q4_K_M<\/code> (~5 Go)<\/li>\n\n\n\n<li><strong>Performances maximales (16+ Go VRAM)<\/strong> : <code>Qwen3 30B Q4_K_M<\/code><\/li>\n<\/ul>\n\n\n\n<p>Pour lancer le t\u00e9l\u00e9chargement, cliquez simplement sur le bouton <strong>Download<\/strong> \u00e0 c\u00f4t\u00e9 de la variante souhait\u00e9e. LM Studio affiche la progression et l&rsquo;espace disque requis. Les mod\u00e8les sont stock\u00e9s dans <code>~\/.lmstudio\/models\/<\/code> (macOS\/Linux) ou <code>C:\\Users\\[votre nom]\\.lmstudio\\models\\<\/code> (Windows).<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">\u00c9tape 4 : charger un mod\u00e8le et d\u00e9marrer une conversation<\/h2>\n\n\n\n<p>Une fois le t\u00e9l\u00e9chargement termin\u00e9 :<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Allez dans l&rsquo;onglet <strong>Chat<\/strong>.<\/li>\n\n\n\n<li>Cliquez sur le <strong>menu d\u00e9roulant<\/strong> en haut de l&rsquo;\u00e9cran (il affiche \u00ab Select a model \u00bb).<\/li>\n\n\n\n<li>Choisissez votre mod\u00e8le dans la liste <strong>My Models<\/strong>.<\/li>\n\n\n\n<li>Cliquez sur <strong>Load<\/strong> \u2014 une barre de progression s&rsquo;affiche pendant le chargement en m\u00e9moire (5 \u00e0 15 secondes pour un mod\u00e8le 7B Q4_K_M).<\/li>\n\n\n\n<li>Commencez \u00e0 \u00e9crire dans la zone de saisie.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">R\u00e9gler le prompt syst\u00e8me<\/h3>\n\n\n\n<p>Le <strong>prompt syst\u00e8me<\/strong> (ou \u00ab system prompt \u00bb) d\u00e9finit le comportement g\u00e9n\u00e9ral de l&rsquo;IA : son r\u00f4le, son ton, ses contraintes. Vous le trouvez dans le panneau droit sous \u00ab System Prompt \u00bb. Par exemple :<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><em>Tu es un <a href=\"https:\/\/ai-explorer.io\/blog\/ia-pour-le-marketing-meilleurs-outils-2026\/\" title=\"IA pour le marketing : les meilleurs outils en 2026\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"998\">assistant expert en r\u00e9daction SEO<\/a> francophone. Tu <a href=\"https:\/\/ai-explorer.io\/blog\/meilleurs-outils-ia-redaction-ecriture-2026\/\" title=\"Meilleurs outils IA pour \u00e9crire et r\u00e9diger en 2026\" target=\"_blank\" rel=\"noopener\" data-wpil-monitor-id=\"996\">r\u00e9diges des textes<\/a> clairs, structur\u00e9s et optimis\u00e9s pour les moteurs de recherche.<\/em><\/p>\n<\/blockquote>\n\n\n\n<h3 class=\"wp-block-heading\">Param\u00e8tres cl\u00e9s \u00e0 conna\u00eetre<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Temperature<\/strong> : contr\u00f4le la cr\u00e9ativit\u00e9 des r\u00e9ponses. Valeur recommand\u00e9e : 0.7 pour la r\u00e9daction, 0.2 pour le code ou les t\u00e2ches pr\u00e9cises.<\/li>\n\n\n\n<li><strong>Context Length<\/strong> : la \u00ab m\u00e9moire \u00bb du mod\u00e8le exprim\u00e9e en tokens. Une valeur plus \u00e9lev\u00e9e consomme plus de VRAM. 4096 tokens est un bon d\u00e9part ; augmentez selon les besoins.<\/li>\n\n\n\n<li><strong>GPU Layers<\/strong> : le nombre de couches du mod\u00e8le charg\u00e9es sur le GPU. Mettez ce curseur au maximum \u2014 si le mod\u00e8le ne rentre pas enti\u00e8rement dans la VRAM, LM Studio basculera automatiquement les couches exc\u00e9dentaires sur le CPU.<\/li>\n<\/ul>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">\u00c9tape 5 : activer le serveur local (pour les d\u00e9veloppeurs)<\/h2>\n\n\n\n<p>C&rsquo;est la fonctionnalit\u00e9 la plus puissante de LM Studio pour les profils techniques. <strong>Le serveur local expose une API compatible OpenAI \u00e0 <code>http:\/\/localhost:1234\/v1<\/code><\/strong>, ce qui signifie que n&rsquo;importe quel outil ou script con\u00e7u pour GPT-4 peut \u00eatre redirig\u00e9 vers votre mod\u00e8le local sans modifier le code \u2014 en changeant uniquement l&rsquo;URL de base.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">D\u00e9marrer le serveur<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Allez dans l&rsquo;onglet <strong>Developer<\/strong> (ou <strong>Local Server<\/strong> selon votre version).<\/li>\n\n\n\n<li>S\u00e9lectionnez le mod\u00e8le \u00e0 utiliser.<\/li>\n\n\n\n<li>Cliquez sur <strong>Start Server<\/strong>.<\/li>\n\n\n\n<li>Le serveur est actif sur le port 1234.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Exemple Python<\/h3>\n\n\n\n<pre class=\"wp-block-code\"><code>from openai import OpenAI\n\nclient = OpenAI(\n    base_url=\"http:\/\/localhost:1234\/v1\",\n    api_key=\"lm-studio\"  # Valeur fictive, LM Studio n'en requiert pas\n)\n\nresponse = client.chat.completions.create(\n    model=\"lmstudio-community\/Mistral-7B-Instruct-v0.3-GGUF\",\n    messages=&#91;\n        {\"role\": \"system\", \"content\": \"Tu es un assistant expert en SEO.\"},\n        {\"role\": \"user\", \"content\": \"Donne-moi 5 id\u00e9es d'articles sur l'IA g\u00e9n\u00e9rative.\"}\n    ],\n    temperature=0.7,\n)\n\nprint(response.choices&#91;0].message.content)<\/code><\/pre>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><strong>Important :<\/strong> le nom du mod\u00e8le dans l&rsquo;appel API doit correspondre exactement \u00e0 l&rsquo;identifiant affich\u00e9 dans l&rsquo;onglet Developer de LM Studio. Copiez-le directement depuis l&rsquo;interface pour \u00e9viter les erreurs.<\/p>\n<\/blockquote>\n\n\n\n<h3 class=\"wp-block-heading\">Connexion avec d&rsquo;autres outils<\/h3>\n\n\n\n<p>Le serveur local de LM Studio est compatible avec de nombreux outils qui s&rsquo;appuient sur l&rsquo;API OpenAI :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Continue<\/strong> (extension VS Code\/JetBrains pour le coding assist\u00e9)<\/li>\n\n\n\n<li><strong>Open WebUI<\/strong> (interface de chat avanc\u00e9e)<\/li>\n\n\n\n<li><strong>n8n \/ Make<\/strong> (automatisation de workflows)<\/li>\n\n\n\n<li><strong>Cursor<\/strong> (\u00e9diteur de code IA)<\/li>\n\n\n\n<li>Tout script Python ou Node.js utilisant le SDK OpenAI<\/li>\n<\/ul>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Analyser des documents avec LM Studio<\/h2>\n\n\n\n<p>LM Studio supporte le <strong>chargement de fichiers PDF, TXT et Word<\/strong> pour les analyser directement dans la conversation. Pour les documents courts, le mod\u00e8le lit l&rsquo;int\u00e9gralit\u00e9 du contenu. Pour les documents longs, LM Studio active automatiquement un syst\u00e8me <strong>RAG (Retrieval-Augmented Generation)<\/strong> : il extrait uniquement les passages pertinents par rapport \u00e0 votre question, ce qui \u00e9vite de saturer la fen\u00eatre de contexte.<\/p>\n\n\n\n<p>Pour charger un document, utilisez l&rsquo;ic\u00f4ne de pi\u00e8ce jointe dans la barre de saisie du chat, ou glissez-d\u00e9posez directement le fichier dans l&rsquo;interface.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">LM Studio vs Ollama : lequel choisir ?<\/h2>\n\n\n\n<p>LM Studio et Ollama sont les deux outils les plus populaires pour les LLM locaux. Ils ne s&rsquo;adressent pas tout \u00e0 fait au m\u00eame profil.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Crit\u00e8re<\/th><th>LM Studio<\/th><th>Ollama<\/th><\/tr><\/thead><tbody><tr><td><strong>Interface graphique<\/strong><\/td><td>\u2705 Interface compl\u00e8te<\/td><td>\u274c Terminal uniquement<\/td><\/tr><tr><td><strong>Facilit\u00e9 d&rsquo;installation<\/strong><\/td><td>\u2705 Installeur standard<\/td><td>\u2705 Une seule commande<\/td><\/tr><tr><td><strong>Navigateur de mod\u00e8les<\/strong><\/td><td>\u2705 Int\u00e9gr\u00e9 (Hugging Face)<\/td><td>\u274c Commande <code>ollama pull<\/code><\/td><\/tr><tr><td><strong>Serveur local API<\/strong><\/td><td>\u2705 Port 1234<\/td><td>\u2705 Port 11434<\/td><\/tr><tr><td><strong>Compatibilit\u00e9 OpenAI<\/strong><\/td><td>\u2705 Oui<\/td><td>\u2705 Oui<\/td><\/tr><tr><td><strong>Usage sans terminal<\/strong><\/td><td>\u2705 Id\u00e9al<\/td><td>\u274c Difficile<\/td><\/tr><tr><td><strong>Automatisation \/ scripting<\/strong><\/td><td>\u26a0\ufe0f Possible via CLI <code>lms<\/code><\/td><td>\u2705 Natif<\/td><\/tr><tr><td><strong>L\u00e9g\u00e8ret\u00e9 \/ services<\/strong><\/td><td>\u26a0\ufe0f Application lourde<\/td><td>\u2705 Service l\u00e9ger en arri\u00e8re-plan<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>En r\u00e9sum\u00e9 :<\/strong> LM Studio est le choix naturel pour les d\u00e9butants et les profils non-d\u00e9veloppeurs qui veulent une exp\u00e9rience fluide et visuelle. Ollama est pr\u00e9f\u00e9r\u00e9 par les d\u00e9veloppeurs qui veulent scripter, automatiser et int\u00e9grer les LLM dans leurs pipelines. Beaucoup d&rsquo;utilisateurs avanc\u00e9s utilisent les deux : LM Studio pour explorer et tester des mod\u00e8les, Ollama pour les int\u00e9grations en production.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">R\u00e9soudre les probl\u00e8mes courants<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Le mod\u00e8le g\u00e9n\u00e8re tr\u00e8s lentement<\/h3>\n\n\n\n<p>C&rsquo;est le probl\u00e8me le plus fr\u00e9quent chez les nouveaux utilisateurs. La cause est presque toujours la m\u00eame : <strong>le mod\u00e8le ne tient pas enti\u00e8rement dans la VRAM<\/strong> et des couches sont ex\u00e9cut\u00e9es sur le CPU, qui est beaucoup plus lent pour ce type de calcul. Solutions : r\u00e9duire la taille du mod\u00e8le (passer de 7B \u00e0 3B), choisir une quantisation plus l\u00e9g\u00e8re (Q4_K_M au lieu de Q8_0), ou diminuer le Context Length dans les param\u00e8tres.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Le mod\u00e8le plante au chargement<\/h3>\n\n\n\n<p>V\u00e9rifiez que le fichier GGUF t\u00e9l\u00e9charg\u00e9 n&rsquo;est pas corrompu (LM Studio peut parfois afficher une erreur de checksum). Supprimez le mod\u00e8le depuis l&rsquo;interface et ret\u00e9l\u00e9chargez-le. Si le probl\u00e8me persiste, v\u00e9rifiez que votre pilote GPU est \u00e0 jour (CUDA pour NVIDIA, ROCm pour AMD).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Erreur AVX2 au d\u00e9marrage<\/h3>\n\n\n\n<p>Votre processeur ne supporte pas les instructions AVX2, requises par LM Studio. C&rsquo;est principalement le cas sur des machines tr\u00e8s anciennes (avant 2013). LM Studio ne peut pas fonctionner sur ces configurations.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&rsquo;API locale ne r\u00e9pond pas<\/h3>\n\n\n\n<p>Assurez-vous qu&rsquo;un mod\u00e8le est bien <strong>charg\u00e9 et actif<\/strong> avant de d\u00e9marrer le serveur. Le serveur ne peut pas fonctionner sans mod\u00e8le en m\u00e9moire. V\u00e9rifiez \u00e9galement que le port 1234 n&rsquo;est pas utilis\u00e9 par une autre application.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Aller plus loin avec LM Studio<\/h2>\n\n\n\n<p>LM Studio propose depuis 2025-2026 plusieurs fonctionnalit\u00e9s avanc\u00e9es qui en font un v\u00e9ritable environnement de travail IA :<\/p>\n\n\n\n<p><strong>LM Studio CLI (<code>lms<\/code>).<\/strong> Une interface en ligne de commande pour les utilisateurs qui souhaitent scripter : <code>lms get &lt;model&gt;<\/code> pour t\u00e9l\u00e9charger un mod\u00e8le, <code>lms infer<\/code> pour lancer une inf\u00e9rence directement depuis le terminal, <code>lms ls<\/code> pour lister les mod\u00e8les install\u00e9s.<\/p>\n\n\n\n<p><strong>Support MCP (Model Context Protocol).<\/strong> LM Studio peut d\u00e9sormais fonctionner comme <strong>client MCP<\/strong>, ce qui lui permet d&rsquo;utiliser des outils externes (acc\u00e8s web, fichiers syst\u00e8me, bases de donn\u00e9es) pendant la conversation \u2014 \u00e0 l&rsquo;image des \u00ab\u00a0tools\u00a0\u00bb dans l&rsquo;API OpenAI.<\/p>\n\n\n\n<p><strong>Llmster.<\/strong> Un mode sans interface graphique qui permet de d\u00e9ployer LM Studio sur des serveurs Linux ou dans des environnements CI\/CD, sans avoir besoin d&rsquo;un \u00e9cran.<\/p>\n\n\n\n<p><strong>LM Studio Hub.<\/strong> Un espace de partage de configurations et de presets entre utilisateurs.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Foire aux questions : tout savoir sur LM Studio<\/h2>\n\n\n\n<div class=\"schema-faq wp-block-yoast-faq-block\"><div class=\"schema-faq-section\" id=\"faq-question-1777716454351\"><strong class=\"schema-faq-question\">LM Studio est-il vraiment gratuit ?<\/strong> <p class=\"schema-faq-answer\">Oui, <strong>LM Studio est totalement gratuit<\/strong> pour un usage personnel, sans limite de messages ni de dur\u00e9e. Toutefois, l&rsquo;\u00e9diteur propose depuis fin 2024 une <strong>licence entreprise payante<\/strong> pour les usages commerciaux \u00e0 grande \u00e9chelle. Pour les freelances, \u00e9tudiants et particuliers, l&rsquo;usage reste 100 % gratuit. Par ailleurs, les mod\u00e8les open source t\u00e9l\u00e9charg\u00e9s (Llama, Mistral, Qwen) sont \u00e9galement gratuits, contrairement aux abonnements <a href=\"https:\/\/comparatif.ai-explorer.io\/outils\/chatgpt\" target=\"_blank\">ChatGPT<\/a> Plus ou Claude Pro.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716470020\"><strong class=\"schema-faq-question\">Quelle est la diff\u00e9rence entre LM Studio et ChatGPT ?<\/strong> <p class=\"schema-faq-answer\"><strong>LM Studio ex\u00e9cute tout en local sur votre machine, contrairement \u00e0 ChatGPT qui fonctionne sur les serveurs d&rsquo;OpenAI.<\/strong> Aucune donn\u00e9e ne quitte donc votre ordinateur avec LM Studio, garantissant une confidentialit\u00e9 absolue et un fonctionnement hors ligne. En revanche, ChatGPT propose des mod\u00e8les propri\u00e9taires plus aboutis (GPT-4o), un acc\u00e8s web temps r\u00e9el et des fonctionnalit\u00e9s multimodales avanc\u00e9es. Cependant, les meilleurs mod\u00e8les open source disponibles dans LM Studio (Qwen 3 30B, Llama 3.3 70B) rivalisent d\u00e9sormais avec GPT-4 sur de nombreuses t\u00e2ches.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716475126\"><strong class=\"schema-faq-question\">Faut-il \u00eatre d\u00e9veloppeur pour utiliser LM Studio ?<\/strong> <p class=\"schema-faq-answer\">Non, <strong>LM Studio a pr\u00e9cis\u00e9ment \u00e9t\u00e9 con\u00e7u pour d\u00e9mocratiser l&rsquo;IA locale aupr\u00e8s des non-techniques<\/strong>. Contrairement \u00e0 Ollama qui fonctionne en ligne de commande, LM Studio propose une interface graphique compl\u00e8te : navigateur de mod\u00e8les int\u00e9gr\u00e9, chat visuel, param\u00e8tres ajustables via curseurs. Vous n&rsquo;avez jamais besoin de toucher un terminal. N\u00e9anmoins, les d\u00e9veloppeurs y trouvent aussi leur compte gr\u00e2ce au serveur local compatible OpenAI sur le port 1234, qui permet d&rsquo;int\u00e9grer leurs mod\u00e8les dans n&rsquo;importe quelle application existante.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716727343\"><strong class=\"schema-faq-question\">Quelle est la configuration minimale pour LM Studio ?<\/strong> <p class=\"schema-faq-answer\"><strong>LM Studio n\u00e9cessite au minimum 8 Go de RAM, 10 Go d&rsquo;espace disque et un processeur supportant AVX2<\/strong> (CPU post\u00e9rieur \u00e0 2013). C\u00f4t\u00e9 OS, l&rsquo;application fonctionne sur Windows 10\/11, macOS 12+ et Ubuntu 20.04+. Toutefois, pour une exp\u00e9rience confortable, comptez 16 Go de RAM, 50 Go de stockage et un GPU avec 6 Go de VRAM minimum. Par ailleurs, les Mac Apple Silicon (M1 \u00e0 M5) offrent d&rsquo;excellentes performances gr\u00e2ce au backend MLX optimis\u00e9.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716736653\"><strong class=\"schema-faq-question\">Quel est le meilleur mod\u00e8le \u00e0 installer dans LM Studio en 2026 ?<\/strong> <p class=\"schema-faq-answer\"><strong>Pour d\u00e9marrer, Mistral 7B Instruct Q4_K_M (4,5 Go) reste le meilleur choix polyvalent en fran\u00e7ais.<\/strong> Pour les petites configurations, <strong>Llama 3.2 3B Q4_K_M<\/strong> (2 Go) tourne sur n&rsquo;importe quelle machine. De plus, <strong>DeepSeek-R1 8B<\/strong> propose des capacit\u00e9s de raisonnement proches d&rsquo;o1-mini, et <strong>Qwen3 Coder 8B<\/strong> rivalise avec GPT-4 sur le code. Si vous disposez d&rsquo;un GPU 16 Go+, <strong>Qwen3 30B<\/strong> atteint un niveau quasi GPT-4. LM Studio affiche automatiquement la RAM\/VRAM n\u00e9cessaire avant chaque t\u00e9l\u00e9chargement.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716749955\"><strong class=\"schema-faq-question\">LM Studio fonctionne-t-il vraiment hors ligne ?<\/strong> <p class=\"schema-faq-answer\">Oui, <strong>LM Studio fonctionne enti\u00e8rement hors ligne<\/strong> une fois l&rsquo;application install\u00e9e et au moins un mod\u00e8le t\u00e9l\u00e9charg\u00e9. Vous pouvez l&rsquo;utiliser dans un avion, un train ou en environnement professionnel cloisonn\u00e9. Toutefois, <strong>LM Studio envoie par d\u00e9faut des donn\u00e9es de t\u00e9l\u00e9m\u00e9trie anonymes<\/strong> lorsqu&rsquo;une connexion est disponible. Pour une confidentialit\u00e9 totale, d\u00e9sactivez cette option dans <strong>Param\u00e8tres \u2192 Confidentialit\u00e9<\/strong>. La connexion reste \u00e9videmment n\u00e9cessaire pour t\u00e9l\u00e9charger de nouveaux mod\u00e8les.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716756128\"><strong class=\"schema-faq-question\">Qu&rsquo;est-ce que la quantification GGUF ?<\/strong> <p class=\"schema-faq-answer\"><strong>La quantification est une technique de compression qui r\u00e9duit la pr\u00e9cision des poids d&rsquo;un mod\u00e8le pour le rendre plus l\u00e9ger en m\u00e9moire.<\/strong> Les mod\u00e8les utilis\u00e9s par LM Studio sont au format <strong>GGUF<\/strong>, le standard pour les LLM locaux. Concr\u00e8tement, un mod\u00e8le Q4_K_M consomme environ deux fois moins de RAM qu&rsquo;un Q8_0, pour une perte de qualit\u00e9 quasi imperceptible. La r\u00e8gle d&rsquo;or : <strong>choisissez Q4_K_M comme point de d\u00e9part<\/strong> \u2014 c&rsquo;est le meilleur compromis qualit\u00e9\/taille dans 90 % des cas.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716765499\"><strong class=\"schema-faq-question\">Comment connecter LM Studio \u00e0 mes outils de d\u00e9veloppement ?<\/strong> <p class=\"schema-faq-answer\"><strong>LM Studio expose une API compatible OpenAI sur <code>http:\/\/localhost:1234\/v1<\/code><\/strong>, ce qui permet d&rsquo;y connecter tout outil con\u00e7u pour GPT-4 en changeant uniquement l&rsquo;URL de base. Ainsi, vous pouvez l&rsquo;utiliser avec <strong>Continue<\/strong> (VS Code\/JetBrains), <strong>Cursor<\/strong>, <strong>Open WebUI<\/strong>, <strong>n8n<\/strong>, <strong>Make<\/strong> ou tout script Python\/Node.js utilisant le SDK OpenAI. Par ailleurs, LM Studio supporte \u00e9galement le <strong>MCP<\/strong> (Model Context Protocol) en tant que client depuis 2025.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716775013\"><strong class=\"schema-faq-question\">Pourquoi mon mod\u00e8le est-il tr\u00e8s lent dans LM Studio ?<\/strong> <p class=\"schema-faq-answer\"><strong>La cause principale est que le mod\u00e8le ne tient pas enti\u00e8rement dans la VRAM<\/strong> et certaines couches sont ex\u00e9cut\u00e9es sur le CPU, beaucoup plus lent. Pour r\u00e9soudre le probl\u00e8me : r\u00e9duisez la taille du mod\u00e8le (7B \u2192 3B), choisissez une quantification plus l\u00e9g\u00e8re (Q4_K_M au lieu de Q8_0), diminuez le <strong>Context Length<\/strong>, et poussez le curseur <strong>GPU Layers<\/strong> au maximum. \u00c0 titre indicatif, comptez 5 \u00e0 15 tokens\/seconde en CPU seul contre 40 \u00e0 100+ avec un bon GPU.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716785577\"><strong class=\"schema-faq-question\">LM Studio ou Ollama : lequel choisir ?<\/strong> <p class=\"schema-faq-answer\"><strong>LM Studio convient mieux aux d\u00e9butants gr\u00e2ce \u00e0 son interface graphique, tandis qu&rsquo;<a href=\"https:\/\/ai-explorer.io\/blog\/ollama-tutoriel-guide-complet-installation-utilisation-2026\/\">Ollama<\/a> s\u00e9duit les d\u00e9veloppeurs avec sa ligne de commande.<\/strong> Beaucoup d&rsquo;utilisateurs avanc\u00e9s combinent les deux : LM Studio pour explorer les mod\u00e8les depuis Hugging Face, Ollama pour les int\u00e9grations en production. Les deux utilisent le m\u00eame format GGUF, ce qui facilite le partage. Pour un comparatif plus large, consultez notre <a href=\"https:\/\/ai-explorer.io\/blog\/installer-ia-en-local-guide-complet-2026\/\">guide complet sur l&rsquo;installation d&rsquo;IA en local<\/a>.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716795804\"><strong class=\"schema-faq-question\">Peut-on analyser des PDF avec LM Studio ?<\/strong> <p class=\"schema-faq-answer\">Oui, <strong>LM Studio supporte nativement le chargement de PDF, TXT et Word<\/strong> directement dans la conversation. Pour les documents courts, le mod\u00e8le lit l&rsquo;int\u00e9gralit\u00e9 du contenu. En revanche, pour les documents longs, LM Studio active automatiquement un syst\u00e8me <strong>RAG<\/strong> (Retrieval-Augmented Generation) qui extrait uniquement les passages pertinents. Concr\u00e8tement, utilisez l&rsquo;ic\u00f4ne de pi\u00e8ce jointe ou glissez-d\u00e9posez le fichier dans l&rsquo;interface \u2014 particuli\u00e8rement utile pour analyser des contrats sans rien envoyer dans le cloud.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716807920\"><strong class=\"schema-faq-question\">LM Studio est-il open source ?<\/strong> <p class=\"schema-faq-answer\">Non, <strong>LM Studio est un logiciel propri\u00e9taire<\/strong> (freeware), gratuit mais non auditable, contrairement \u00e0 des alternatives comme <strong>Jan<\/strong> ou <strong>Ollama<\/strong> sous licence MIT. Cette nuance compte pour les environnements professionnels sensibles (juridique, m\u00e9dical, d\u00e9fense). Toutefois, les <strong>mod\u00e8les<\/strong> utilis\u00e9s (Llama, Mistral, Qwen, DeepSeek) sont eux open source. Si l&rsquo;open source int\u00e9gral est critique pour vous, tournez-vous vers <strong>Jan<\/strong> ou <strong>Ollama<\/strong> combin\u00e9 \u00e0 <strong>Open WebUI<\/strong> pour une stack 100 % auditable. D\u00e9couvrez d&rsquo;autres outils dans notre <a href=\"https:\/\/comparatif.ai-explorer.io\" target=\"_blank\">annuaire IA<\/a>.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1777716817983\"><strong class=\"schema-faq-question\">Comment mettre \u00e0 jour LM Studio ?<\/strong> <p class=\"schema-faq-answer\"><strong>LM Studio se met \u00e0 jour automatiquement<\/strong> : l&rsquo;application v\u00e9rifie les nouvelles versions au d\u00e9marrage et propose le t\u00e9l\u00e9chargement via une notification. Acceptez la mise \u00e0 jour et l&rsquo;application red\u00e9marre avec la nouvelle version. En revanche, les <strong>mod\u00e8les ne se mettent pas \u00e0 jour automatiquement<\/strong> : chaque mod\u00e8le est une version fig\u00e9e. Lorsqu&rsquo;une nouvelle version sort (Llama 3.2 \u2192 Llama 3.3), elle appara\u00eet dans le navigateur <strong>Discover<\/strong>. Pensez \u00e0 supprimer les anciennes versions depuis <strong>My Models<\/strong> pour lib\u00e9rer de l&rsquo;espace disque.<\/p> <\/div> <\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusion<\/h2>\n\n\n\n<p><strong>LM Studio est aujourd&rsquo;hui l&rsquo;outil le plus accessible pour quiconque souhaite faire tourner une IA en local<\/strong>, sans installation complexe, sans abonnement et sans sacrifier sa vie priv\u00e9e. En quelques clics, vous avez acc\u00e8s \u00e0 des mod\u00e8les open source capables de r\u00e9diger, coder, analyser des documents et r\u00e9pondre \u00e0 des questions complexes \u2014 le tout depuis votre propre machine.<\/p>\n\n\n\n<p>Pour d\u00e9buter, le chemin le plus simple reste : t\u00e9l\u00e9charger LM Studio, choisir un mod\u00e8le <strong>Llama 3.2 3B ou Mistral 7B en Q4_K_M<\/strong> selon votre RAM disponible, et lancer votre premi\u00e8re conversation. Une fois \u00e0 l&rsquo;aise, le serveur local compatible OpenAI ouvre la porte \u00e0 des int\u00e9grations bien plus puissantes.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-dots\"\/>\n\n\n\n<h3 class=\"wp-block-heading\">Pour aller plus loin sur ce sujet<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/ai-explorer.io\/blog\/ia-non-censuree-2026\/\">IA non censur\u00e9e en 2026 : le guide complet des meilleurs mod\u00e8les web et locaux<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/ai-explorer.io\/blog\/venice-ai-ia-non-censuree-avis\/\">Venice.ai : l&rsquo;IA non censur\u00e9e qui prot\u00e8ge votre vie priv\u00e9e \u2014 avis complet 2026<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/ai-explorer.io\/blog\/ia-generative-definition-exemples-usages-2026\/\">LLMs expliqu\u00e9s : les mod\u00e8les d&rsquo;IA incontournables en 2026<\/a><\/li>\n\n\n\n<li>Notre annuaire d&rsquo;<a href=\"https:\/\/comparatif.ai-explorer.io\/\" target=\"_blank\" rel=\"noreferrer noopener\">outils IA<\/a> !<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Et si vous pouviez faire tourner une intelligence artificielle aussi performante que ChatGPT directement sur votre ordinateur, sans abonnement, sans connexion et sans envoyer la moindre donn\u00e9e \u00e0 un serveur tiers ? C&rsquo;est exactement la promesse de LM Studio, l&rsquo;application de bureau qui s&rsquo;est impos\u00e9e en 2026 comme la r\u00e9f\u00e9rence pour ex\u00e9cuter des LLM en [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":6502,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[431],"tags":[],"tmauthors":[335],"class_list":{"0":"post-5723","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-avis"},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.5 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)<\/title>\n<meta name=\"description\" content=\"LM Studio permet d&#039;installer et d&#039;utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)\" \/>\n<meta property=\"og:description\" content=\"LM Studio permet d&#039;installer et d&#039;utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\" \/>\n<meta property=\"og:site_name\" content=\"AI Explorer\" \/>\n<meta property=\"article:published_time\" content=\"2026-04-14T22:45:46+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-05-11T08:43:25+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif\" \/>\n\t<meta property=\"og:image:width\" content=\"1168\" \/>\n\t<meta property=\"og:image:height\" content=\"784\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"La voix du futur\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@aiexplorernews\" \/>\n<meta name=\"twitter:site\" content=\"@aiexplorernews\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"La voix du futur\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"17 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\"},\"author\":{\"name\":\"La voix du futur\",\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a\"},\"headline\":\"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)\",\"datePublished\":\"2026-04-14T22:45:46+00:00\",\"dateModified\":\"2026-05-11T08:43:25+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\"},\"wordCount\":3697,\"commentCount\":5,\"publisher\":{\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a\"},\"image\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif\",\"articleSection\":[\"Avis\"],\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#respond\"]}]},{\"@type\":[\"WebPage\",\"FAQPage\"],\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\",\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\",\"name\":\"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)\",\"isPartOf\":{\"@id\":\"http:\/\/localhost:8081\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif\",\"datePublished\":\"2026-04-14T22:45:46+00:00\",\"dateModified\":\"2026-05-11T08:43:25+00:00\",\"description\":\"LM Studio permet d'installer et d'utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.\",\"breadcrumb\":{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#breadcrumb\"},\"mainEntity\":[{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920\"},{\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983\"}],\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage\",\"url\":\"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif\",\"contentUrl\":\"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif\",\"width\":1168,\"height\":784,\"caption\":\"LM Studio\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/ai-explorer.io\/blog\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)\"}]},{\"@type\":\"WebSite\",\"@id\":\"http:\/\/localhost:8081\/#website\",\"url\":\"http:\/\/localhost:8081\/\",\"name\":\"AI Explorer - Actualit\u00e9s IA et tech en g\u00e9n\u00e9ral\",\"description\":\"Blog IA : actualit\u00e9s, guides et comparatifs\",\"publisher\":{\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a\"},\"alternateName\":\"AI Explorer\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"http:\/\/localhost:8081\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":[\"Person\",\"Organization\"],\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a\",\"name\":\"La voix du futur\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/i0.wp.com\/ai-explorer.io\/wp-content\/uploads\/2025\/06\/image-2.jpg?fit=1024%2C1024&ssl=1\",\"contentUrl\":\"https:\/\/i0.wp.com\/ai-explorer.io\/wp-content\/uploads\/2025\/06\/image-2.jpg?fit=1024%2C1024&ssl=1\",\"width\":1024,\"height\":1024,\"caption\":\"La voix du futur\"},\"logo\":{\"@id\":\"http:\/\/localhost:8081\/#\/schema\/person\/image\/\"},\"sameAs\":[\"https:\/\/ai-explorer.io\/blog\/\",\"https:\/\/x.com\/aiexplorernews\"],\"url\":\"https:\/\/ai-explorer.io\/blog\/author\/lavoixdufutur\/\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351\",\"position\":1,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351\",\"name\":\"LM Studio est-il vraiment gratuit ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"Oui, <strong>LM Studio est totalement gratuit<\/strong> pour un usage personnel, sans limite de messages ni de dur\u00e9e. Toutefois, l'\u00e9diteur propose depuis fin 2024 une <strong>licence entreprise payante<\/strong> pour les usages commerciaux \u00e0 grande \u00e9chelle. Pour les freelances, \u00e9tudiants et particuliers, l'usage reste 100 % gratuit. Par ailleurs, les mod\u00e8les open source t\u00e9l\u00e9charg\u00e9s (Llama, Mistral, Qwen) sont \u00e9galement gratuits, contrairement aux abonnements <a href=\\\"https:\/\/comparatif.ai-explorer.io\/outils\/chatgpt\\\">ChatGPT<\/a> Plus ou Claude Pro.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020\",\"position\":2,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020\",\"name\":\"Quelle est la diff\u00e9rence entre LM Studio et ChatGPT ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>LM Studio ex\u00e9cute tout en local sur votre machine, contrairement \u00e0 ChatGPT qui fonctionne sur les serveurs d'OpenAI.<\/strong> Aucune donn\u00e9e ne quitte donc votre ordinateur avec LM Studio, garantissant une confidentialit\u00e9 absolue et un fonctionnement hors ligne. En revanche, ChatGPT propose des mod\u00e8les propri\u00e9taires plus aboutis (GPT-4o), un acc\u00e8s web temps r\u00e9el et des fonctionnalit\u00e9s multimodales avanc\u00e9es. Cependant, les meilleurs mod\u00e8les open source disponibles dans LM Studio (Qwen 3 30B, Llama 3.3 70B) rivalisent d\u00e9sormais avec GPT-4 sur de nombreuses t\u00e2ches.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126\",\"position\":3,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126\",\"name\":\"Faut-il \u00eatre d\u00e9veloppeur pour utiliser LM Studio ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"Non, <strong>LM Studio a pr\u00e9cis\u00e9ment \u00e9t\u00e9 con\u00e7u pour d\u00e9mocratiser l'IA locale aupr\u00e8s des non-techniques<\/strong>. Contrairement \u00e0 Ollama qui fonctionne en ligne de commande, LM Studio propose une interface graphique compl\u00e8te : navigateur de mod\u00e8les int\u00e9gr\u00e9, chat visuel, param\u00e8tres ajustables via curseurs. Vous n'avez jamais besoin de toucher un terminal. N\u00e9anmoins, les d\u00e9veloppeurs y trouvent aussi leur compte gr\u00e2ce au serveur local compatible OpenAI sur le port 1234, qui permet d'int\u00e9grer leurs mod\u00e8les dans n'importe quelle application existante.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343\",\"position\":4,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343\",\"name\":\"Quelle est la configuration minimale pour LM Studio ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>LM Studio n\u00e9cessite au minimum 8 Go de RAM, 10 Go d'espace disque et un processeur supportant AVX2<\/strong> (CPU post\u00e9rieur \u00e0 2013). C\u00f4t\u00e9 OS, l'application fonctionne sur Windows 10\/11, macOS 12+ et Ubuntu 20.04+. Toutefois, pour une exp\u00e9rience confortable, comptez 16 Go de RAM, 50 Go de stockage et un GPU avec 6 Go de VRAM minimum. Par ailleurs, les Mac Apple Silicon (M1 \u00e0 M5) offrent d'excellentes performances gr\u00e2ce au backend MLX optimis\u00e9.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653\",\"position\":5,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653\",\"name\":\"Quel est le meilleur mod\u00e8le \u00e0 installer dans LM Studio en 2026 ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>Pour d\u00e9marrer, Mistral 7B Instruct Q4_K_M (4,5 Go) reste le meilleur choix polyvalent en fran\u00e7ais.<\/strong> Pour les petites configurations, <strong>Llama 3.2 3B Q4_K_M<\/strong> (2 Go) tourne sur n'importe quelle machine. De plus, <strong>DeepSeek-R1 8B<\/strong> propose des capacit\u00e9s de raisonnement proches d'o1-mini, et <strong>Qwen3 Coder 8B<\/strong> rivalise avec GPT-4 sur le code. Si vous disposez d'un GPU 16 Go+, <strong>Qwen3 30B<\/strong> atteint un niveau quasi GPT-4. LM Studio affiche automatiquement la RAM\/VRAM n\u00e9cessaire avant chaque t\u00e9l\u00e9chargement.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955\",\"position\":6,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955\",\"name\":\"LM Studio fonctionne-t-il vraiment hors ligne ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"Oui, <strong>LM Studio fonctionne enti\u00e8rement hors ligne<\/strong> une fois l'application install\u00e9e et au moins un mod\u00e8le t\u00e9l\u00e9charg\u00e9. Vous pouvez l'utiliser dans un avion, un train ou en environnement professionnel cloisonn\u00e9. Toutefois, <strong>LM Studio envoie par d\u00e9faut des donn\u00e9es de t\u00e9l\u00e9m\u00e9trie anonymes<\/strong> lorsqu'une connexion est disponible. Pour une confidentialit\u00e9 totale, d\u00e9sactivez cette option dans <strong>Param\u00e8tres \u2192 Confidentialit\u00e9<\/strong>. La connexion reste \u00e9videmment n\u00e9cessaire pour t\u00e9l\u00e9charger de nouveaux mod\u00e8les.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128\",\"position\":7,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128\",\"name\":\"Qu'est-ce que la quantification GGUF ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>La quantification est une technique de compression qui r\u00e9duit la pr\u00e9cision des poids d'un mod\u00e8le pour le rendre plus l\u00e9ger en m\u00e9moire.<\/strong> Les mod\u00e8les utilis\u00e9s par LM Studio sont au format <strong>GGUF<\/strong>, le standard pour les LLM locaux. Concr\u00e8tement, un mod\u00e8le Q4_K_M consomme environ deux fois moins de RAM qu'un Q8_0, pour une perte de qualit\u00e9 quasi imperceptible. La r\u00e8gle d'or : <strong>choisissez Q4_K_M comme point de d\u00e9part<\/strong> \u2014 c'est le meilleur compromis qualit\u00e9\/taille dans 90 % des cas.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499\",\"position\":8,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499\",\"name\":\"Comment connecter LM Studio \u00e0 mes outils de d\u00e9veloppement ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>LM Studio expose une API compatible OpenAI sur http:\/\/localhost:1234\/v1<\/strong>, ce qui permet d'y connecter tout outil con\u00e7u pour GPT-4 en changeant uniquement l'URL de base. Ainsi, vous pouvez l'utiliser avec <strong>Continue<\/strong> (VS Code\/JetBrains), <strong>Cursor<\/strong>, <strong>Open WebUI<\/strong>, <strong>n8n<\/strong>, <strong>Make<\/strong> ou tout script Python\/Node.js utilisant le SDK OpenAI. Par ailleurs, LM Studio supporte \u00e9galement le <strong>MCP<\/strong> (Model Context Protocol) en tant que client depuis 2025.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013\",\"position\":9,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013\",\"name\":\"Pourquoi mon mod\u00e8le est-il tr\u00e8s lent dans LM Studio ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>La cause principale est que le mod\u00e8le ne tient pas enti\u00e8rement dans la VRAM<\/strong> et certaines couches sont ex\u00e9cut\u00e9es sur le CPU, beaucoup plus lent. Pour r\u00e9soudre le probl\u00e8me : r\u00e9duisez la taille du mod\u00e8le (7B \u2192 3B), choisissez une quantification plus l\u00e9g\u00e8re (Q4_K_M au lieu de Q8_0), diminuez le <strong>Context Length<\/strong>, et poussez le curseur <strong>GPU Layers<\/strong> au maximum. \u00c0 titre indicatif, comptez 5 \u00e0 15 tokens\/seconde en CPU seul contre 40 \u00e0 100+ avec un bon GPU.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577\",\"position\":10,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577\",\"name\":\"LM Studio ou Ollama : lequel choisir ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>LM Studio convient mieux aux d\u00e9butants gr\u00e2ce \u00e0 son interface graphique, tandis qu'<a href=\\\"https:\/\/ai-explorer.io\/blog\/ollama-tutoriel-guide-complet-installation-utilisation-2026\/\\\">Ollama<\/a> s\u00e9duit les d\u00e9veloppeurs avec sa ligne de commande.<\/strong> Beaucoup d'utilisateurs avanc\u00e9s combinent les deux : LM Studio pour explorer les mod\u00e8les depuis Hugging Face, Ollama pour les int\u00e9grations en production. Les deux utilisent le m\u00eame format GGUF, ce qui facilite le partage. Pour un comparatif plus large, consultez notre <a href=\\\"https:\/\/ai-explorer.io\/blog\/installer-ia-en-local-guide-complet-2026\/\\\">guide complet sur l'installation d'IA en local<\/a>.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804\",\"position\":11,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804\",\"name\":\"Peut-on analyser des PDF avec LM Studio ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"Oui, <strong>LM Studio supporte nativement le chargement de PDF, TXT et Word<\/strong> directement dans la conversation. Pour les documents courts, le mod\u00e8le lit l'int\u00e9gralit\u00e9 du contenu. En revanche, pour les documents longs, LM Studio active automatiquement un syst\u00e8me <strong>RAG<\/strong> (Retrieval-Augmented Generation) qui extrait uniquement les passages pertinents. Concr\u00e8tement, utilisez l'ic\u00f4ne de pi\u00e8ce jointe ou glissez-d\u00e9posez le fichier dans l'interface \u2014 particuli\u00e8rement utile pour analyser des contrats sans rien envoyer dans le cloud.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920\",\"position\":12,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920\",\"name\":\"LM Studio est-il open source ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"Non, <strong>LM Studio est un logiciel propri\u00e9taire<\/strong> (freeware), gratuit mais non auditable, contrairement \u00e0 des alternatives comme <strong>Jan<\/strong> ou <strong>Ollama<\/strong> sous licence MIT. Cette nuance compte pour les environnements professionnels sensibles (juridique, m\u00e9dical, d\u00e9fense). Toutefois, les <strong>mod\u00e8les<\/strong> utilis\u00e9s (Llama, Mistral, Qwen, DeepSeek) sont eux open source. Si l'open source int\u00e9gral est critique pour vous, tournez-vous vers <strong>Jan<\/strong> ou <strong>Ollama<\/strong> combin\u00e9 \u00e0 <strong>Open WebUI<\/strong> pour une stack 100 % auditable. D\u00e9couvrez d'autres outils dans notre <a href=\\\"https:\/\/comparatif.ai-explorer.io\\\">annuaire IA<\/a>.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"Question\",\"@id\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983\",\"position\":13,\"url\":\"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983\",\"name\":\"Comment mettre \u00e0 jour LM Studio ?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"<strong>LM Studio se met \u00e0 jour automatiquement<\/strong> : l'application v\u00e9rifie les nouvelles versions au d\u00e9marrage et propose le t\u00e9l\u00e9chargement via une notification. Acceptez la mise \u00e0 jour et l'application red\u00e9marre avec la nouvelle version. En revanche, les <strong>mod\u00e8les ne se mettent pas \u00e0 jour automatiquement<\/strong> : chaque mod\u00e8le est une version fig\u00e9e. Lorsqu'une nouvelle version sort (Llama 3.2 \u2192 Llama 3.3), elle appara\u00eet dans le navigateur <strong>Discover<\/strong>. Pensez \u00e0 supprimer les anciennes versions depuis <strong>My Models<\/strong> pour lib\u00e9rer de l'espace disque.\",\"inLanguage\":\"fr-FR\"},\"inLanguage\":\"fr-FR\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)","description":"LM Studio permet d'installer et d'utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/","og_locale":"fr_FR","og_type":"article","og_title":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)","og_description":"LM Studio permet d'installer et d'utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.","og_url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/","og_site_name":"AI Explorer","article_published_time":"2026-04-14T22:45:46+00:00","article_modified_time":"2026-05-11T08:43:25+00:00","og_image":[{"width":1168,"height":784,"url":"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif","type":"image\/jpeg"}],"author":"La voix du futur","twitter_card":"summary_large_image","twitter_creator":"@aiexplorernews","twitter_site":"@aiexplorernews","twitter_misc":{"\u00c9crit par":"La voix du futur","Dur\u00e9e de lecture estim\u00e9e":"17 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#article","isPartOf":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/"},"author":{"name":"La voix du futur","@id":"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a"},"headline":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)","datePublished":"2026-04-14T22:45:46+00:00","dateModified":"2026-05-11T08:43:25+00:00","mainEntityOfPage":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/"},"wordCount":3697,"commentCount":5,"publisher":{"@id":"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a"},"image":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage"},"thumbnailUrl":"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif","articleSection":["Avis"],"inLanguage":"fr-FR","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#respond"]}]},{"@type":["WebPage","FAQPage"],"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/","url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/","name":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)","isPartOf":{"@id":"http:\/\/localhost:8081\/#website"},"primaryImageOfPage":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage"},"image":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage"},"thumbnailUrl":"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif","datePublished":"2026-04-14T22:45:46+00:00","dateModified":"2026-05-11T08:43:25+00:00","description":"LM Studio permet d'installer et d'utiliser une IA en local, sans cloud ni abonnement. Tutoriel complet 2026 : installation, choix du mod\u00e8le, configuration, serveur local et astuces.","breadcrumb":{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#breadcrumb"},"mainEntity":[{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920"},{"@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983"}],"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#primaryimage","url":"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif","contentUrl":"https:\/\/ai-explorer.io\/blog\/wp-content\/uploads\/2026\/04\/Hallucinations-IA-1.avif","width":1168,"height":784,"caption":"LM Studio"},{"@type":"BreadcrumbList","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/ai-explorer.io\/blog\/"},{"@type":"ListItem","position":2,"name":"LM Studio : tutoriel complet pour installer et utiliser une IA en local (2026)"}]},{"@type":"WebSite","@id":"http:\/\/localhost:8081\/#website","url":"http:\/\/localhost:8081\/","name":"AI Explorer - Actualit\u00e9s IA et tech en g\u00e9n\u00e9ral","description":"Blog IA : actualit\u00e9s, guides et comparatifs","publisher":{"@id":"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a"},"alternateName":"AI Explorer","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"http:\/\/localhost:8081\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":["Person","Organization"],"@id":"http:\/\/localhost:8081\/#\/schema\/person\/7af3a2824aaac8e3856fdeeaea3b0e1a","name":"La voix du futur","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"http:\/\/localhost:8081\/#\/schema\/person\/image\/","url":"https:\/\/i0.wp.com\/ai-explorer.io\/wp-content\/uploads\/2025\/06\/image-2.jpg?fit=1024%2C1024&ssl=1","contentUrl":"https:\/\/i0.wp.com\/ai-explorer.io\/wp-content\/uploads\/2025\/06\/image-2.jpg?fit=1024%2C1024&ssl=1","width":1024,"height":1024,"caption":"La voix du futur"},"logo":{"@id":"http:\/\/localhost:8081\/#\/schema\/person\/image\/"},"sameAs":["https:\/\/ai-explorer.io\/blog\/","https:\/\/x.com\/aiexplorernews"],"url":"https:\/\/ai-explorer.io\/blog\/author\/lavoixdufutur\/"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351","position":1,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716454351","name":"LM Studio est-il vraiment gratuit ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"Oui, <strong>LM Studio est totalement gratuit<\/strong> pour un usage personnel, sans limite de messages ni de dur\u00e9e. Toutefois, l'\u00e9diteur propose depuis fin 2024 une <strong>licence entreprise payante<\/strong> pour les usages commerciaux \u00e0 grande \u00e9chelle. Pour les freelances, \u00e9tudiants et particuliers, l'usage reste 100 % gratuit. Par ailleurs, les mod\u00e8les open source t\u00e9l\u00e9charg\u00e9s (Llama, Mistral, Qwen) sont \u00e9galement gratuits, contrairement aux abonnements <a href=\"https:\/\/comparatif.ai-explorer.io\/outils\/chatgpt\">ChatGPT<\/a> Plus ou Claude Pro.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020","position":2,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716470020","name":"Quelle est la diff\u00e9rence entre LM Studio et ChatGPT ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>LM Studio ex\u00e9cute tout en local sur votre machine, contrairement \u00e0 ChatGPT qui fonctionne sur les serveurs d'OpenAI.<\/strong> Aucune donn\u00e9e ne quitte donc votre ordinateur avec LM Studio, garantissant une confidentialit\u00e9 absolue et un fonctionnement hors ligne. En revanche, ChatGPT propose des mod\u00e8les propri\u00e9taires plus aboutis (GPT-4o), un acc\u00e8s web temps r\u00e9el et des fonctionnalit\u00e9s multimodales avanc\u00e9es. Cependant, les meilleurs mod\u00e8les open source disponibles dans LM Studio (Qwen 3 30B, Llama 3.3 70B) rivalisent d\u00e9sormais avec GPT-4 sur de nombreuses t\u00e2ches.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126","position":3,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716475126","name":"Faut-il \u00eatre d\u00e9veloppeur pour utiliser LM Studio ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"Non, <strong>LM Studio a pr\u00e9cis\u00e9ment \u00e9t\u00e9 con\u00e7u pour d\u00e9mocratiser l'IA locale aupr\u00e8s des non-techniques<\/strong>. Contrairement \u00e0 Ollama qui fonctionne en ligne de commande, LM Studio propose une interface graphique compl\u00e8te : navigateur de mod\u00e8les int\u00e9gr\u00e9, chat visuel, param\u00e8tres ajustables via curseurs. Vous n'avez jamais besoin de toucher un terminal. N\u00e9anmoins, les d\u00e9veloppeurs y trouvent aussi leur compte gr\u00e2ce au serveur local compatible OpenAI sur le port 1234, qui permet d'int\u00e9grer leurs mod\u00e8les dans n'importe quelle application existante.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343","position":4,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716727343","name":"Quelle est la configuration minimale pour LM Studio ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>LM Studio n\u00e9cessite au minimum 8 Go de RAM, 10 Go d'espace disque et un processeur supportant AVX2<\/strong> (CPU post\u00e9rieur \u00e0 2013). C\u00f4t\u00e9 OS, l'application fonctionne sur Windows 10\/11, macOS 12+ et Ubuntu 20.04+. Toutefois, pour une exp\u00e9rience confortable, comptez 16 Go de RAM, 50 Go de stockage et un GPU avec 6 Go de VRAM minimum. Par ailleurs, les Mac Apple Silicon (M1 \u00e0 M5) offrent d'excellentes performances gr\u00e2ce au backend MLX optimis\u00e9.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653","position":5,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716736653","name":"Quel est le meilleur mod\u00e8le \u00e0 installer dans LM Studio en 2026 ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>Pour d\u00e9marrer, Mistral 7B Instruct Q4_K_M (4,5 Go) reste le meilleur choix polyvalent en fran\u00e7ais.<\/strong> Pour les petites configurations, <strong>Llama 3.2 3B Q4_K_M<\/strong> (2 Go) tourne sur n'importe quelle machine. De plus, <strong>DeepSeek-R1 8B<\/strong> propose des capacit\u00e9s de raisonnement proches d'o1-mini, et <strong>Qwen3 Coder 8B<\/strong> rivalise avec GPT-4 sur le code. Si vous disposez d'un GPU 16 Go+, <strong>Qwen3 30B<\/strong> atteint un niveau quasi GPT-4. LM Studio affiche automatiquement la RAM\/VRAM n\u00e9cessaire avant chaque t\u00e9l\u00e9chargement.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955","position":6,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716749955","name":"LM Studio fonctionne-t-il vraiment hors ligne ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"Oui, <strong>LM Studio fonctionne enti\u00e8rement hors ligne<\/strong> une fois l'application install\u00e9e et au moins un mod\u00e8le t\u00e9l\u00e9charg\u00e9. Vous pouvez l'utiliser dans un avion, un train ou en environnement professionnel cloisonn\u00e9. Toutefois, <strong>LM Studio envoie par d\u00e9faut des donn\u00e9es de t\u00e9l\u00e9m\u00e9trie anonymes<\/strong> lorsqu'une connexion est disponible. Pour une confidentialit\u00e9 totale, d\u00e9sactivez cette option dans <strong>Param\u00e8tres \u2192 Confidentialit\u00e9<\/strong>. La connexion reste \u00e9videmment n\u00e9cessaire pour t\u00e9l\u00e9charger de nouveaux mod\u00e8les.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128","position":7,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716756128","name":"Qu'est-ce que la quantification GGUF ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>La quantification est une technique de compression qui r\u00e9duit la pr\u00e9cision des poids d'un mod\u00e8le pour le rendre plus l\u00e9ger en m\u00e9moire.<\/strong> Les mod\u00e8les utilis\u00e9s par LM Studio sont au format <strong>GGUF<\/strong>, le standard pour les LLM locaux. Concr\u00e8tement, un mod\u00e8le Q4_K_M consomme environ deux fois moins de RAM qu'un Q8_0, pour une perte de qualit\u00e9 quasi imperceptible. La r\u00e8gle d'or : <strong>choisissez Q4_K_M comme point de d\u00e9part<\/strong> \u2014 c'est le meilleur compromis qualit\u00e9\/taille dans 90 % des cas.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499","position":8,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716765499","name":"Comment connecter LM Studio \u00e0 mes outils de d\u00e9veloppement ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>LM Studio expose une API compatible OpenAI sur http:\/\/localhost:1234\/v1<\/strong>, ce qui permet d'y connecter tout outil con\u00e7u pour GPT-4 en changeant uniquement l'URL de base. Ainsi, vous pouvez l'utiliser avec <strong>Continue<\/strong> (VS Code\/JetBrains), <strong>Cursor<\/strong>, <strong>Open WebUI<\/strong>, <strong>n8n<\/strong>, <strong>Make<\/strong> ou tout script Python\/Node.js utilisant le SDK OpenAI. Par ailleurs, LM Studio supporte \u00e9galement le <strong>MCP<\/strong> (Model Context Protocol) en tant que client depuis 2025.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013","position":9,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716775013","name":"Pourquoi mon mod\u00e8le est-il tr\u00e8s lent dans LM Studio ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>La cause principale est que le mod\u00e8le ne tient pas enti\u00e8rement dans la VRAM<\/strong> et certaines couches sont ex\u00e9cut\u00e9es sur le CPU, beaucoup plus lent. Pour r\u00e9soudre le probl\u00e8me : r\u00e9duisez la taille du mod\u00e8le (7B \u2192 3B), choisissez une quantification plus l\u00e9g\u00e8re (Q4_K_M au lieu de Q8_0), diminuez le <strong>Context Length<\/strong>, et poussez le curseur <strong>GPU Layers<\/strong> au maximum. \u00c0 titre indicatif, comptez 5 \u00e0 15 tokens\/seconde en CPU seul contre 40 \u00e0 100+ avec un bon GPU.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577","position":10,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716785577","name":"LM Studio ou Ollama : lequel choisir ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>LM Studio convient mieux aux d\u00e9butants gr\u00e2ce \u00e0 son interface graphique, tandis qu'<a href=\"https:\/\/ai-explorer.io\/blog\/ollama-tutoriel-guide-complet-installation-utilisation-2026\/\">Ollama<\/a> s\u00e9duit les d\u00e9veloppeurs avec sa ligne de commande.<\/strong> Beaucoup d'utilisateurs avanc\u00e9s combinent les deux : LM Studio pour explorer les mod\u00e8les depuis Hugging Face, Ollama pour les int\u00e9grations en production. Les deux utilisent le m\u00eame format GGUF, ce qui facilite le partage. Pour un comparatif plus large, consultez notre <a href=\"https:\/\/ai-explorer.io\/blog\/installer-ia-en-local-guide-complet-2026\/\">guide complet sur l'installation d'IA en local<\/a>.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804","position":11,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716795804","name":"Peut-on analyser des PDF avec LM Studio ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"Oui, <strong>LM Studio supporte nativement le chargement de PDF, TXT et Word<\/strong> directement dans la conversation. Pour les documents courts, le mod\u00e8le lit l'int\u00e9gralit\u00e9 du contenu. En revanche, pour les documents longs, LM Studio active automatiquement un syst\u00e8me <strong>RAG<\/strong> (Retrieval-Augmented Generation) qui extrait uniquement les passages pertinents. Concr\u00e8tement, utilisez l'ic\u00f4ne de pi\u00e8ce jointe ou glissez-d\u00e9posez le fichier dans l'interface \u2014 particuli\u00e8rement utile pour analyser des contrats sans rien envoyer dans le cloud.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920","position":12,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716807920","name":"LM Studio est-il open source ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"Non, <strong>LM Studio est un logiciel propri\u00e9taire<\/strong> (freeware), gratuit mais non auditable, contrairement \u00e0 des alternatives comme <strong>Jan<\/strong> ou <strong>Ollama<\/strong> sous licence MIT. Cette nuance compte pour les environnements professionnels sensibles (juridique, m\u00e9dical, d\u00e9fense). Toutefois, les <strong>mod\u00e8les<\/strong> utilis\u00e9s (Llama, Mistral, Qwen, DeepSeek) sont eux open source. Si l'open source int\u00e9gral est critique pour vous, tournez-vous vers <strong>Jan<\/strong> ou <strong>Ollama<\/strong> combin\u00e9 \u00e0 <strong>Open WebUI<\/strong> pour une stack 100 % auditable. D\u00e9couvrez d'autres outils dans notre <a href=\"https:\/\/comparatif.ai-explorer.io\">annuaire IA<\/a>.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"},{"@type":"Question","@id":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983","position":13,"url":"https:\/\/ai-explorer.io\/blog\/lm-studio-tutoriel-installation-utilisation\/#faq-question-1777716817983","name":"Comment mettre \u00e0 jour LM Studio ?","answerCount":1,"acceptedAnswer":{"@type":"Answer","text":"<strong>LM Studio se met \u00e0 jour automatiquement<\/strong> : l'application v\u00e9rifie les nouvelles versions au d\u00e9marrage et propose le t\u00e9l\u00e9chargement via une notification. Acceptez la mise \u00e0 jour et l'application red\u00e9marre avec la nouvelle version. En revanche, les <strong>mod\u00e8les ne se mettent pas \u00e0 jour automatiquement<\/strong> : chaque mod\u00e8le est une version fig\u00e9e. Lorsqu'une nouvelle version sort (Llama 3.2 \u2192 Llama 3.3), elle appara\u00eet dans le navigateur <strong>Discover<\/strong>. Pensez \u00e0 supprimer les anciennes versions depuis <strong>My Models<\/strong> pour lib\u00e9rer de l'espace disque.","inLanguage":"fr-FR"},"inLanguage":"fr-FR"}]}},"_links":{"self":[{"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/posts\/5723","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/comments?post=5723"}],"version-history":[{"count":10,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/posts\/5723\/revisions"}],"predecessor-version":[{"id":6431,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/posts\/5723\/revisions\/6431"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/media\/6502"}],"wp:attachment":[{"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/media?parent=5723"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/categories?post=5723"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/tags?post=5723"},{"taxonomy":"tmauthors","embeddable":true,"href":"https:\/\/ai-explorer.io\/blog\/wp-json\/wp\/v2\/tmauthors?post=5723"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}