Normaliser les spécifications véhicule avec un LLM agentique, un SLM 2b et un pipeline MLOps.

Face à des tableaux interminables, illisibles et chronophages, les équipes étaient piégées dans des tâches répétitives à faible valeur ajoutée.
Cette solution IA automatise l’harmonisation des lexiques véhicule (SIV, catalogue interne, fournisseurs) grâce à un LLM agentique, un SLM 2b ultra-rapide et une chaîne MLOps industrialisée.
Résultat : des données fiables à +95 %, un gain de temps considérable, et des équipes qui peuvent enfin se concentrer sur leur expertise et leurs missions à forte valeur ajoutée
Dans l’automobile, les spécifications véhicule (marque, modèle, année, motorisation, version, pièces, etc.) proviennent de sources disparates :
SIV : lexique de référence officiel, consultable unitairement via API.
Catalogue interne : lexique propriétaire de l’équipe de revente.
Fournisseurs : fichiers souvent incomplets et bruités (erreurs, doublons, incohérences).
Cette hétérogénéité empêche de relier directement les lexiques, ralentit l’affectation véhicule-produit par l’équipe catalogue (qui doit traiter plusieurs millions de lignes) et contraint l’équipe support à effectuer des traductions manuelles particulièrement chronophages.
Domaine : Automobile | Rôle : Data/ML Engineer | Portée : RAG + SLM (micro-inférence) + MLOps
Objectifs
- Utiliser le catalogue interne comme lexique de référence.
- Recouper les autres sources vers ce référentiel à partir de :
immatriculation (SIV), recherche full-texte et fichiers fournisseurs. - Atteindre une fiabilité ≥ 95 % sur les cas d’usage métiers clés.
- Optimiser l’inférence via un SLM 2b très véloce (micro-inférence).
- Industrialiser avec un pipeline MLOps traçable et reproductible.
Approche
1) Conception & Architecture
- Sélection d’un LLM agentique pour orchestrer le raisonnement et le RAG connecté au SGBD.
- Définition d’une architecture cible orientée service : ingestion → indexation → annotation → entraînement → évaluation → déploiement.
2) Données & Annotation (Distillation augmentée)
- Génération d’un dataset annoté en recoupant lexiques fournisseurs & référentiel interne.
- RAG pour contextualiser le LLM à partir des tables métier et du SIV via API.
- Contrôle qualité : déduplication, normalisation, règles métier, puis GRPO/SimPO pour affiner la cohérence des annotations.
3) Modélisation SML 2b & Optimisation
- Choix d’un Small Language Model ~2b (de base sans SFT d’instruction).
- Fine-tuning par préférence (GRPO) sur le dataset véhicule pour aligner le modèle sur le référentiel interne.
- Optimisation micro-inférence : quantization, ollama/vLLM, réglages batch/latence, profils GPU.
4) Évaluation & Amélioration continue
- Tests end-to-end sur : immatriculations (SIV), recherche full-texte, specs fournisseurs.
- Itérations via pipeline MLOps jusqu’à obtenir ≥ 95 % de fiabilité.
Architecture (vue d’ensemble)
Ingestion fournisseurs → Nettoyage/normalisation → Indexation vectorielle (RAG) → LLM agentique (génération/annotation) →
Dataset validé → Fine-tuning SLM 2b (GRPO) → Service d’inférence micro-latence → Monitoring & boucles d’amélioration (MLOps).
Stack technique
- LLM & NLP :
transformers,datasets,tokenizers,peft,accelerate,optimum,bitsandbytes - RAG & Data :
langchain,llama-index,faiss,chromadb/weaviate,sqlalchemy - Optimisation & Inference : ollama,
vllm,torch,deepspeed - MLOps :
mlflow,wandb,dvc,prefect/ray,fastapi - Qualité & Tests :
great_expectations,scikit-learn,evaluate,pytest
Résultats
- Dataset de qualité validé par les métiers (annotations cohérentes et traçables).
- Fiabilité ≥ 95 % sur les cas d’usage (immat SIV, full-texte, specs fournisseurs).
- SLM 2b déployé en production, micro-inférence à faible latence.
- Pipeline MLOps pérenne : versionnage données/modèles, suivi des expériences, CI/CD, monitoring et alerting.
Conformité & Gouvernance
- Traçabilité complète (données, features, modèles, artefacts) et reproductibilité des runs.
- Bonnes pratiques d’IA responsable (explicabilité opérationnelle, revue humaine des cas limites).
Ce que j’ai appris
- L’intérêt d’un LLM agentique pour orchestrer RAG + règles métier sur des données bruitées.
- La valeur d’un SLM 2b bien optimisé : coûts réduits et latence minimale sans sacrifier la qualité.
- L’importance d’un MLOps rigoureux pour passer du POC à la production avec confiance.
Une normalisation sémantique de ce type (RAG + SLM) peut s’intégrer à beaucoup de SI!