Partagé le 23/09/2025

Découvrez Qwen3-Coder-30B-A3B-Instruct : Un LLM Puissant et Accessible sur le Cl

Installation décrite par : Anonyme

Résumé de cette installation par l'IA

Cette installation repose sur une infrastructure cloud hébergée par RunPod, sans gestion directe du matériel. Elle utilise le modèle Qwen3-Coder-30B-A3B-Instruct comme principal modèle de langage, déployé via le framework vLLM. L'installation ne comporte pas de GPU dédié, le traitement étant entièrement externalisé. Aucun modèle n'est entraîné localement, l'utilisateur se limitant à l'exploitation de modèles préexistants. L'ensemble est configuré pour un usage personnel, avec une performance évaluée à plus de 40 tokens par seconde, permettant des interactions en temps réel. Les coûts d'exploitation sont estimés entre 0 et 100 euros par mois, selon l'utilisation.

Le résultat obtenu est une plateforme personnalisée, offrant une alternative aux solutions commerciales existantes. L'utilisateur bénéficie d'une flexibilité accrue, notamment pour expérimenter avec des modèles débridés et adapter l'outil à ses besoins spécifiques. L'absence de frais supplémentaires pour l'installation, combinée à des coûts opérationnels maîtrisés, en fait une solution économique pour un usage individuel ou éducatif. La rapidité des réponses et l'absence de restrictions imposées par des plateformes tierces constituent les principaux avantages de cette configuration.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
Qwen3-Coder-30B-A3B-Instruct
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Hébergeur cloud
runpod
Logiciels et SaaS utilisés
vLLM
Cartes graphiques
Aucune car je passe par un hébergement cloud

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Raison de cette installation
Pour bidouiller et me former • Car je ne suis pas satisfait des plateformes existantes et préfère mon installation locale • Pour utiliser des modèles débridés

Coûts

Coût d'installation
0 - juste l'installation d'outils open source, pas d'achat supplémentaire
Coût d'opération quotidien
0-100€ / mois

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

llama2-uncensored

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: ollama open webui

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Charles Bonnissent

gpt-oss-120b

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: Openwebui, sst/opencode

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Christian Lemoussel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: LM Studio

Performance: Super rapide - peut traiter des entrées de grande taille très rapidement, potentiellement plus vite qu'avec une API