Aller au contenu

Normaliser les spécifications véhicule avec un LLM agentique, un SLM 2b et un pipeline MLOps.

Face à des tableaux interminables, illisibles et chronophages, les équipes étaient piégées dans des tâches répétitives à faible valeur ajoutée.
Cette solution IA automatise l’harmonisation des lexiques véhicule (SIV, catalogue interne, fournisseurs) grâce à un LLM agentique, un SLM 2b ultra-rapide et une chaîne MLOps industrialisée.
Résultat : des données fiables à +95 %, un gain de temps considérable, et des équipes qui peuvent enfin se concentrer sur leur expertise et leurs missions à forte valeur ajoutée

Dans l’automobile, les spécifications véhicule (marque, modèle, année, motorisation, version, pièces, etc.) proviennent de sources disparates :
SIV : lexique de référence officiel, consultable unitairement via API.
Catalogue interne : lexique propriétaire de l’équipe de revente.
Fournisseurs : fichiers souvent incomplets et bruités (erreurs, doublons, incohérences).

Cette hétérogénéité empêche de relier directement les lexiques, ralentit l’affectation véhicule-produit par l’équipe catalogue (qui doit traiter plusieurs millions de lignes) et contraint l’équipe support à effectuer des traductions manuelles particulièrement chronophages.

Domaine : Automobile  | Rôle : Data/ML Engineer  | Portée : RAG + SLM (micro-inférence) + MLOps

Objectifs

  • Utiliser le catalogue interne comme lexique de référence.
  • Recouper les autres sources vers ce référentiel à partir de :
    immatriculation (SIV), recherche full-texte et fichiers fournisseurs.
  • Atteindre une fiabilité ≥ 95 % sur les cas d’usage métiers clés.
  • Optimiser l’inférence via un SLM 2b très véloce (micro-inférence).
  • Industrialiser avec un pipeline MLOps traçable et reproductible.

Approche

1) Conception & Architecture

  • Sélection d’un LLM agentique pour orchestrer le raisonnement et le RAG connecté au SGBD.
  • Définition d’une architecture cible orientée service : ingestion → indexation → annotation → entraînement → évaluation → déploiement.

2) Données & Annotation (Distillation augmentée)

  • Génération d’un dataset annoté en recoupant lexiques fournisseurs & référentiel interne.
  • RAG pour contextualiser le LLM à partir des tables métier et du SIV via API.
  • Contrôle qualité : déduplication, normalisation, règles métier, puis GRPO/SimPO pour affiner la cohérence des annotations.

3) Modélisation SML 2b & Optimisation

  • Choix d’un Small Language Model ~2b (de base sans SFT d’instruction).
  • Fine-tuning par préférence (GRPO) sur le dataset véhicule pour aligner le modèle sur le référentiel interne.
  • Optimisation micro-inférence : quantization, ollama/vLLM, réglages batch/latence, profils GPU.

4) Évaluation & Amélioration continue

  • Tests end-to-end sur : immatriculations (SIV), recherche full-texte, specs fournisseurs.
  • Itérations via pipeline MLOps jusqu’à obtenir ≥ 95 % de fiabilité.

Architecture (vue d’ensemble)

Ingestion fournisseurs → Nettoyage/normalisation → Indexation vectorielle (RAG) → LLM agentique (génération/annotation) →
Dataset validé → Fine-tuning SLM 2b (GRPO) → Service d’inférence micro-latence → Monitoring & boucles d’amélioration (MLOps).

Stack technique

  • LLM & NLP : transformers, datasets, tokenizers, peft, accelerate, optimum, bitsandbytes
  • RAG & Data : langchain, llama-index, faiss, chromadb/ weaviate, sqlalchemy
  • Optimisation & Inference : ollama, vllm, torch, deepspeed
  • MLOps : mlflow, wandb, dvc, prefect/ ray, fastapi
  • Qualité & Tests : great_expectations, scikit-learn, evaluate, pytest

Résultats

  • Dataset de qualité validé par les métiers (annotations cohérentes et traçables).
  • Fiabilité ≥ 95 % sur les cas d’usage (immat SIV, full-texte, specs fournisseurs).
  • SLM 2b déployé en production, micro-inférence à faible latence.
  • Pipeline MLOps pérenne : versionnage données/modèles, suivi des expériences, CI/CD, monitoring et alerting.

Conformité & Gouvernance

  • Traçabilité complète (données, features, modèles, artefacts) et reproductibilité des runs.
  • Bonnes pratiques d’IA responsable (explicabilité opérationnelle, revue humaine des cas limites).

Ce que j’ai appris

  • L’intérêt d’un LLM agentique pour orchestrer RAG + règles métier sur des données bruitées.
  • La valeur d’un SLM 2b bien optimisé : coûts réduits et latence minimale sans sacrifier la qualité.
  • L’importance d’un MLOps rigoureux pour passer du POC à la production avec confiance.

Une normalisation sémantique de ce type (RAG + SLM) peut s’intégrer à beaucoup de SI!

Normaliser les spécifications véhicule avec un LLM agentique, un SLM 2B et un pipeline MLOps

  • par