Un embedding est une représentation numérique d’un texte sous forme de vecteur (une liste de nombres). Deux textes proches sémantiquement produisent des vecteurs proches dans l’espace ; deux textes éloignés, des vecteurs éloignés. C’est la brique qui permet à un ordinateur de “comprendre” qu‘“avocat juriste” et “cabinet d’avocat” sont proches, même sans mot en commun.
En pratique
Un modèle d’embedding (voyage-3, OpenAI text-embedding-3, Mistral Embed, Cohere Embed) prend en entrée une phrase et retourne un vecteur de 768 à 3 072 dimensions selon le modèle. Exemple simplifié :
"Comment résilier mon abonnement ?"
→ [0.12, -0.04, 0.88, ..., 0.31] (1 536 dimensions)
"Annuler ma souscription"
→ [0.11, -0.05, 0.86, ..., 0.30] (vecteur très proche)
La distance cosinus entre les deux vecteurs donne un score de similarité (0 = orthogonal, 1 = identique). On stocke ces vecteurs dans une base vectorielle (pgvector, Qdrant, Pinecone) pour rechercher rapidement les passages les plus proches d’une requête.
Embeddings vs recherche par mots-clés
La recherche full-text classique (Elasticsearch, MeiliSearch sans hybrid) cherche les mots exacts. Si vous tapez “annuler souscription”, elle ne trouve pas “résilier abonnement”. L’embedding capture le sens, pas les mots. C’est ce qui rend la recherche sémantique utile pour un FAQ interne, une base de docs, une recherche client. La meilleure stack 2026 combine les deux : recherche hybride (mots-clés + embeddings).
Dimensions et coût
- 768 dimensions : modèles compacts, recherche rapide (Mistral Embed, MiniLM).
- 1 536 dimensions : standard (OpenAI text-embedding-3-small).
- 3 072 dimensions : haute qualité, plus cher en stockage (text-embedding-3-large, voyage-3-large).
Coût d’embedding 2026 : 0,01 € à 0,15 € par million de tokens. Une base de 100 000 documents internes coûte généralement 10 à 80 € à indexer une fois.
Pour aller plus loin
- RAG — définition — l’usage principal des embeddings.
- Base de données vectorielle — où stocker les embeddings.
- Vector databases 2026 — quelle base choisir.
- Audit IA Kezify — concevoir votre recherche sémantique interne.
Vous voulez utiliser des embeddings dans votre entreprise ? Audit IA Kezify.