Claude Desktop
L’application officielle d’Anthropic pour utiliser Claude en dehors du navigateur.
Claude Desktop s’installe sur votre ordinateur en 5 minutes. Il donne accès aux MCP servers (qui connectent Claude à vos outils), aux extensions et à Claude Code — des fonctions absentes du site web.
Qu’est-ce que Claude Desktop ?
Claude Desktop, c’est Claude installé sur votre Mac ou votre PC, comme une application normale.
La différence avec le navigateur : une fois installé, Claude peut accéder à vos fichiers locaux, se connecter à vos outils (Slack, GitHub, Gmail…) et tourner en arrière-plan. Tout ça grâce aux MCP servers — de petits programmes que vous branchez sur Claude comme des prises électriques.
Anthropic fournit des installeurs officiels pour Mac et Windows. Pour Linux, le projet open source claude-desktop-debian offre une solution native très bien faite.
Contrairement à une interface de chat, l’API est stateless : elle ne garde aucun historique entre les appels. C’est à vous d’inclure l’historique de conversation dans chaque requête. Cette conception rend les workflows déterministes, faciles à déboguer et scalables à n’importe quelle volumétrie.
En 2026, l’API Claude supporte des fenêtres de contexte jusqu’à 1 million de tokens avec Opus 4.6 et Sonnet 4.6, un tool use avancé (web search, exécution de code, computer use), Le prompt caching (le système qui mémorise vos instructions répétitives pour diviser la facture par 10) automatique, le batch processing asynchrone à −50 %, et des sorties structurées en JSON. Elle est disponible directement chez Anthropic ou via AWS Bedrock, Google Vertex AI et Microsoft Azure.
Ce que vous pouvez faire avec Claude Desktop
Avec Claude Desktop : conversations persistantes qui se souviennent de vos projets, accès à vos fichiers locaux, connexion à GitHub / Slack / votre agenda, et Claude Code en interface graphique.
La version web ne fait rien de tout ça. Elle est pratique pour une question rapide. Dès que vous voulez que Claude travaille vraiment avec votre environnement, il faut l’application.
Ce n’est pas une amélioration marginale. C’est le passage du niveau basique au niveau de l’ancien flagship de la gamme (Claude Sonnet 4 était à 72,7 %). En plus du code, Haiku 4.5 reçoit pour la première fois dans cette famille l’extended thinking — le mode où l’IA réfléchit à voix haute avant de répondre, comme un expert qui prend le temps de peser une décision complexe, le computer use et la vision multimodale.
Le tarif, lui, n’a pas bougé par rapport à son prédécesseur. C’est la définition d’un bon rapport qualité/prix.
import Anthropic from "@anthropic-ai/sdk";
const client = new Anthropic();
const message = await client.messages.create({
model: "claude-sonnet-4-6",
max_tokens: 1024,
messages: [{ role: "user", content: "Explique le prompt caching" }],
});
console.log(message.content[0].text);
Les SDK Python et TypeScript sont les officiels maintenus par Anthropic. Des SDK communautaires existent aussi pour PHP, Go, Ruby et Rust. L’API est aussi accessible directement via cURL avec les headers x-api-key et anthropic-version: 2023-06-01.
La vraie différence avec le site claude.ai
En mars 2026, les modèles actifs sont :
- claude-opus-4-6 — le plus puissant. 1M tokens de contexte, adaptive thinking, 14h30 d’autonomie autonome (capable d’agir seul sur plusieurs étapes). 5 € / 25 € par million de mots traités. Réservé aux tâches les plus complexes.
- claude-sonnet-4-6 — le meilleur rapport performance/coût. 1M tokens. 3 € / 15 € par million de mots par million de tokens. Recommandé pour la grande majorité des cas d’usage en production.
- claude-haiku-4-5-20251001 — le plus rapide et économique. 200K tokens. 1 € / 5 € par million de mots par million de tokens. Idéal pour les applications à fort volume et faible latence.
Les anciens modèles Claude Sonnet 3.7 et Haiku 3.5 ont été retirés. Migrez vers Sonnet 4.6 et Haiku 4.5. Claude Haiku 3 sera retiré le 19 avril 2026.
Télécharger Claude Desktop : le guide pas à pas
Un MCP server, c’est comme une prise entre Claude et l’un de vos outils. Vous branchez la prise, et Claude peut interagir avec cet outil.
Exemples : MCP GitHub → Claude lit vos dépôts de code. MCP fichiers → Claude lit et modifie vos documents. MCP agenda → Claude voit vos rendez-vous.
La version web ne supporte pas les MCP servers. C’est la raison principale d’installer l’application desktop.
Installer Claude Desktop sur Mac
Répondre aux FAQ, vérifier le statut d’une commande, guider un utilisateur dans un parcours simple. La plupart des requêtes de support sont répétitives et prévisibles — exactement le terrain de jeu de Haiku. Sa faible latence garantit une expérience fluide même à fort volume. Avec le prompt caching activé, les coûts sur les systèmes de prompt répétés tombent à 0,1 € par million de mots traités.
Durées de cache : 5 minutes (1,25x le prix standard pour l’écriture) ou 1 heure (2x le prix standard). Les tokens read ne comptent pas dans vos limites ITPM.
Installer Claude Desktop sur Windows
1. Installez le MCP server voulu (souvent via une commande).
2. Dans Claude Desktop, allez dans Paramètres → Développeur. Ajoutez le server dans le fichier de configuration JSON.
3. Redémarrez Claude Desktop. Un indicateur confirme que tout est connecté.
Installer Claude Desktop sur Linux
Si le fichier JSON vous fait peur, utilisez les Extensions Desktop : des MCP servers pré-configurés qui s’installent en un double-clic, sans toucher à aucun fichier.
Pour y accéder : cliquez sur le « + » en bas d’une conversation, puis « Extensions ». Un catalogue d’outils vérifiés par Anthropic s’ouvre.
Streaming SSE : ajoutez "stream": true pour recevoir les tokens au fur et à mesure via Server-Sent Events. Réduit la latence perçue pour les interfaces conversationnelles. Compatible avec le prompt caching — les métriques de cache apparaissent dans l’événement message_start.
Structured Outputs : depuis fin 2025, GA sur Sonnet 4.5, Opus 4.5 et Haiku 4.5. Forcez Claude à répondre en JSON valide selon un schéma que vous définissez — zéro parsing d’erreurs, zéro hallucination de format.
Les MCP servers : connecter Claude à vos outils
Haiku 4.5 est le premier modèle de la famille Haiku à disposer de l’extended thinking. Anthropic recommande de l’activer pour le code complexe, le raisonnement multi-étapes et la résolution de problèmes. Sans extended thinking, Haiku 4.5 obtient 73,3 % sur SWE-bench (résolution de vrais bugs GitHub). Avec, les performances progressent significativement sur les tâches nécessitant du raisonnement profond.
Qu’est-ce qu’un MCP server ?
Ajoutez un paramètre thinking à votre appel API avec un budget en tokens. Budget minimum : 1 024 tokens. Budget recommandé pour commencer : 4 000 tokens, puis ajuster selon la complexité de la tâche. Haiku 4.5 supporte aussi l’interleaved thinking (réflexion entre deux appels d’outils) pour les workflows multi-étapes avancés.
15 € / 75 €
par million de tokens (input / output). Prompt caching : 0,15 € par million en lecture.
Ajouter un MCP server en 3 étapes
Activez l’extended thinking sur Haiku quand : la tâche nécessite du raisonnement en plusieurs étapes, vous avez besoin de code fonctionnel (pas juste du boilerplate), ou vous orchestrez des workflows d’agents complexes. Gardez-le désactivé pour : la classification simple, les réponses FAQ courtes, la génération de texte basique. L’extended thinking consomme des tokens supplémentaires — calculez l’équilibre coût/qualité selon votre cas.
3 € / 15 €
par million de tokens (input / output). Prompt caching : 0,03 € par million en lecture.
Les extensions Desktop : encore plus simple
Deux limites importantes à connaître. 1 ) Zéro protection contre les prompt injections : ne jamais utiliser Haiku dans des setups autonomes (capables d’agir sur plusieurs étapes sans intervention humaine) qui traitent des inputs non contrôlés (emails d’utilisateurs, pages web scrapées) sans couche de sécurité supplémentaire. 2 ) Pas adapté aux tâches complexes sans extended thinking : réfactorisation multi-fichiers, raisonnement long, création littéraire. Pour ces cas, Sonnet 4.6 est le minimum requis.
1 € / 5 €
par million de tokens (input / output). Prompt caching : 0,01 € par million en lecture.
Rate limits, tiers et disponibilités cloud
Haiku 4.5 : 1 € en entrée / 5 € en sortie par million de mots traités de mots traités output. Sonnet 4.6 : 3 € / 15 €. Opus 4.7 : 5 € / 25 €. Haiku est 3x moins cher que Sonnet et 5x moins cher qu’Opus. Avec prompt caching (−90 %) et Batch API (−50 %), une stratégie polymodel Haiku+Sonnet+Opus réduit les coûts globaux de 60 à 70 % par rapport à Opus seul.
Tier 1 (dépôt de 5 €) : accès de base pour commencer. Tier 2 (dépenses à partir de 40 €) : limites étendues. Tier 3 (dépenses 200 €+) : production standard. Tier 4 (dépenses à partir de 400 €) : accès à la fenêtre de 1M tokens pour Sonnet, limites maximales. Les tokens lus depuis le cache ne comptent pas dans votre ITPM.
Utilisez le navigateur pour une question rapide, sur un ordinateur qui n’est pas le vôtre, ou pour partager une conversation.
Installez Desktop pour connecter Claude à vos outils, utiliser Claude Code en graphique, avoir des projets persistants, ou si votre entreprise a besoin d’un déploiement centralisé.
Les deux utilisent les mêmes modèles et le même compte. Vous pouvez passer de l’un à l’autre selon les situations.
C’est un avantage concret pour les équipes enterprise : vous pouvez utiliser Claude dans votre environnement cloud existant sans créer un nouveau compte Anthropic, avec la facturation et les contrôles d’accès de votre infrastructure habituelle. En mars 2026, Anthropic a également lancé le Claude Partner Network pour accompagner les déploiements à grande échelle.
Disponible sur AWS, Google Cloud et Azure
Problèmes courants et solutions
L’app ne se lance pas : vérifiez la version de votre système (macOS 12+, Windows 10 1809+). Sur Mac, assurez-vous d’avoir glissé l’app dans Applications.
MCP server non reconnu : le problème vient presque toujours du JSON (virgule en trop, accolade manquante). Collez votre JSON sur jsonlint.com pour trouver l’erreur.
Mettre à jour : Mac → menu Claude → « Rechercher les mises à jour ». Windows → « Aide » → « Rechercher les mises à jour ».
Questions fréquentes sur Claude Desktop
Comment obtenir une clé API Claude ?
Rendez-vous sur console.anthropic.com (ou platform.claude.com). Créez un compte, ajoutez un moyen de paiement, puis allez dans « API Keys » pour générer votre première clé. Copiez-la immédiatement — vous ne pourrez plus la voir ensuite. Stockez-la dans la variable d’environnement ANTHROPIC_API_KEY. Un plafond de dépenses de 10 à 25 € est recommandé pour commencer.
Quel est le prix de l'API Claude en 2026 ?
La tarification est à la consommation, en dollars par million de tokens. Opus 4.6 : 15 € input / 75 € output. Sonnet 4.6 : 3 € / 15 € par million de mots. Haiku 4.5 : 1 € / 5 € par million de mots. Le prompt caching réduit le coût des tokens cachés à 10 % du prix standard (−90 %). Le Batch API (traitement différé qui divise le coût par 2 pour les tâches non urgentes) réduit l’ensemble de 50 % pour les traitements asynchrones. Ces deux réductions sont cumulables — jusqu’à 75 %+ d’économies dans les meilleurs scénarios.
Qu'est-ce que le prompt caching et comment l'activer ?
Le prompt caching stocke les parties statiques de vos prompts (system prompt, définitions d’outils, documents) pour les réutiliser sans les retraiter à chaque appel. Les tokens lus depuis le cache coûtent 0,1x le prix standard. En 2026, le caching automatique est disponible : ajoutez un champ "cache_control": {"type": "ephemeral"} au niveau top-level de votre requête, le système gère les breakpoints. La durée par défaut est 5 minutes. Une option 1 heure existe pour les prompts très répétitifs. Les tokens en cache read ne comptent pas dans vos ITPM.
Quelle est la différence entre l'API directe, AWS Bedrock et Google Vertex AI ?
L’API directe Anthropic est la solution la plus simple : une clé, une facture Anthropic, accès immédiat à tous les modèles et features. AWS Bedrock : facturation AWS consolidée, isolation des données par région AWS, intégration native avec les services AWS (Lambda, SageMaker…). Google Vertex AI : facturation GCP, isolation par projet, intégration Workspace et TPU. Microsoft Azure (AI Foundry) : conformité enterprise, VNET privé, Active Directory, certifications gouvernementales. Le choix dépend de votre cloud principal et de vos contraintes de conformité.
Comment fonctionne le Batch API Claude ?
Le Batch API traite vos requêtes en asynchrone avec une garantie de livraison sous 24 heures, en échange d’une remise de 50 % sur tous les tokens. Workflow : (1) soumettez un batch avec vos requêtes, chacune avec un custom_id unique, (2) polling du statut du batch ou webhook, (3) téléchargement des résultats filtrés par custom_id. Idéal pour : rapports automatiques, création de contenu en masse, analyse de datasets non urgents. La remise se cumule avec le prompt caching.
Qu'est-ce que le Tool Use (Function Calling) dans l'API Claude ?
Le Tool Use permet à Claude d’appeler vos fonctions quand c’est pertinent dans une conversation. Vous définissez vos outils en JSON Schema (nom, description, paramètres), vous les passez dans le paramètre tools, et Claude décide lui-même quand les appeler. Outils natifs disponibles : web_search (recherche web temps réel), code execution (Python en sandbox), computer use (contrôle d’interface graphique), bash, text editor. Le fine-grained tool streaming est GA depuis 2026 — les paramètres des outils streament token par token.
Quelles sont les limites de tokens de l'API Claude ?
Fenêtres de contexte : Opus 4.6 et Sonnet 4.6 supportent jusqu’à 1 million de tokens (activé par défaut pour les plans Max, Team, Enterprise depuis mars 2026 ; en beta pour les organisations Tier 4 sur Sonnet 4.5). Haiku 4.5 : 200 000 tokens. Outputs : jusqu’à 64 000 tokens par réponse pour Sonnet 4.5. Les rate limits (RPM, ITPM, OTPM) progressent avec vos tiers de dépenses. Les tokens lus depuis le cache ne comptent pas dans votre ITPM — permettant de multiplier par 5-10 votre débit effectif.
Comment activer l'extended thinking (raisonnement étendu) ?
L’extended thinking est disponible sur Opus 4.5, Sonnet 4.5 et Haiku 4.5. Il permet à Claude de « réfléchir à voix haute » avant de répondre — une chaîne de pensée interne qui améliore la qualité sur les tâches complexes. Activez-le avec le paramètre "thinking": {"type": "enabled", "budget_tokens": 1024}. Budget minimum : 1 024 tokens. Les tokens de thinking sont facturés au prix standard des tokens output. Recommandé : commencez à 1 024 tokens et augmentez progressivement selon la complexité de vos tâches.
L'API Claude respecte-t-elle le RGPD ?
Oui. Anthropic propose des options de conformité RGPD : Zero Data Retention (ZDR) pour les clients enterprise (les prompts et réponses ne sont pas stockés), data residency avec le paramètre inference_geo pour forcer l’inférence en US uniquement (1,1x le prix standard pour les modèles post-février 2026), et des DPA (Data Processing Agreements) disponibles. Pour les déploiements européens avec contraintes strictes, AWS Bedrock avec régions EU et Google Vertex AI avec régions EU offrent aussi des garanties supplémentaires.
Comment optimiser les coûts de l'API Claude en production ?
Les trois leviers principaux : (1) Prompt caching automatique — activez-le dès que votre system prompt dépasse 1 024 tokens, économie immédiate de 90 % sur les tokens répétés. (2) Batch API — pour tout ce qui n’est pas temps réel, prenez le −50 %. (3) Choix du modèle adapté — n’utilisez Opus que pour les 20 % de tâches qui le justifient vraiment, Haiku pour tout ce qui est simple et haute fréquence. Combiné, ces trois leviers peuvent réduire votre facture de 75 %+ par rapport à un usage naïf d’Opus sans caching.












