Créez votre assistant IA local pour coder : plongée dans le MacBook Pro
Créez votre assistant IA pour coder en local : focus MacBook Pro
Vous rêvez de faire tourner une IA puissante sur votre machine ? L'idée séduit : inférence rapide, confidentialité totale, pas de factures API. La théorie est simple. La pratique ? C'est là que ça coince souvent.
On va voir ce qu'il faut pour un vrai assistant coding local. Les pièges courants. Et les solutions qui marchent.
Pourquoi passer en local ?
Les outils cloud comme assistants coding sont pratiques. Mais ils ont un prix : votre code file sur Internet, limites de taux, frais au token, latence à chaque appel.
Pour les projets sensibles, les équipes parano sur la sécu, ou ceux qui en ont marre des abonnements gonflés, le local tout change. Votre MacBook Pro devient une infra IA perso. Zéro dépendance externe. Zéro fuite de données. Zéro surprise en fin de mois.
Le hic ? Il faut du matos costaud. Et choisir les bons modèles et outils.
Le matos requis
Pas tous les MacBook suivent le rythme. Visez :
- Puce Apple Silicon (série M)
- Minimum 32 Go de mémoire unifiée (48 Go, c'est mieux)
- Un peu de patience pour tester
La mémoire unifiée d'Apple Silicon fait la différence. CPU et GPU partagent le même espace. Pas de transfert de données. Pour l'inférence LLM, c'est un game changer.
Quel modèle sélectionner ?
C'est le point où beaucoup patinent. Tous les modèles ne se valent pas. Surtout pas pour du local.
Sur un MacBook 48 Go, prenez un modèle :
- Compétent pour du coding réel
- Optimisé Apple Silicon (pas les GGUF standards)
- Validé sur de longs échanges (l'infra compte autant que le modèle)
En 2024/2025, visez les variantes récentes de Qwen ou équivalents, 27B-35B paramètres. Regardez les benchmarks comme SWE-bench Verified : ils testent la correction de bugs concrets, pas les quizzes basiques.
Les MoE (Mixture of Experts) valent le coup. 35B params totaux, mais fraction activée par token. Moins de pression mémoire, qualité préservée.
Les pièges des outils : votre premier essai va planter
Leçon apprise à la dure.
Le flop du serveur mlx-lm
MLX d'Apple bat les concurrents sur Silicon : 20-30% plus rapide que llama.cpp. Du coup, vous lancez mlx-lm.server. Logique.
Résultat : ça charge. Quelques réponses. Puis crash Metal memory en pleine conversation. Le KV cache (mémoire d'attention qui gonfle avec le contexte) n'a pas de limite dans le serveur. Il bouffe la GPU jusqu'à l'OOM.
Les flags salvateurs ? --max-kv-size, --prompt-cache-size ? Introuvables dans le serveur. Seulement dans l'outil one-shot.
Verdict : mlx-lm excelle pour des inférences isolées. Pas pour un serveur stable.
Le virage Ollama
Ollama fixe une fenêtre de contexte bornée. KV cache maîtrisé. Zéro crash. Stabilité au top.
Piège n°1 : il tire par défaut des GGUF génériques, pas optimisés Silicon. Serveur qui tourne, mais outputs décevants : raisonnement faible, code bâclé, répétitions absurdes. La quantisation aggressive priorise la compatibilité, pas l'efficacité Apple.
Piège n°2 : params par défaut vicieux. Genre presence_penalty 1.5 qui bloque les répétitions... y compris noms de variables et keywords en code.
La config qui cartonne
Besoin de :
- Ollama comme runtime (stable, suivi, fiable)
- Modèles optimisés Apple Silicon (cherchez
mxfp8) - Modelfiles custom pour corriger les defaults
La recette :
# Installez Ollama
brew install ollama
# Lancez le serveur, gardez le modèle chargé, ouvrez au réseau
OLLAMA_HOST=0.0.0.0 OLLAMA_KEEP_ALIVE=24h ollama serve
Tirez le bon modèle :
ollama pull qwen3.6:35b-a3b-mxfp8
Ce mxfp8 change tout : de "c'est nul" à "ça aide vraiment".
Créez un Modelfile pour affiner :
FROM qwen3.6:35b-a3b-mxfp8
PARAMETER num_ctx 16384
PARAMETER presence_penalty 0
PARAMETER temperature 0.7
Build et lancez :
ollama create my-coder -f Modelfile
ollama run my-coder
Branchez à votre IDE
Serveur local up ? Intégrez à l'IDE. Les endpoints OpenAI-compatibles marchent sur http://localhost:11434. N'importe quel client standard s'y connecte, comme pour ChatGPT.
Extensions VS Code, Vim, Neovim, JetBrains : toutes OpenAI-ready. Votre LLM local devient un service cloud vu de l'IDE.
Les vrais coûts
Avant de plonger :
- Temps de setup : pas plug-and-play. Debug, mauvais modèles à tester.
- Bruit : ventilos qui tournent. GPU à fond.
- Choix limité : pas de switch GPT-4/Claude/Gemini instantané. Engagement sur un modèle.
En échange :
- Privacy : code reste sur machine
- Coût fixe : 0€/mois inférence
- Latence stable : fin des aléas réseau
- Liberté totale : prompts modifiés, params tweakés, sans barrières
Et après ?
C'est le départ d'une infra IA locale. Prochaines étapes :
- Testez Llama 3, Mistral, open-source variés
- Fine-tunez sur votre codebase
- Modèles spécialisés langages/frameworks
- Intégrez à votre pipeline build
L'ère IA locale est lancée. Votre MacBook Pro suit. Modèles au niveau. Outils matures.
Arrêtez d'attendre. Lancez-vous.