Bedrock pour les entreprises AWS qui veulent Claude, Llama, Mistral et tous les top modèles dans un seul gateway IAM. Vertex AI pour les entreprises Google Cloud qui veulent Gemini natif + Claude (oui, Claude est sur Vertex AI aussi). Pour une PME : choisissez selon votre cloud principal.
Verdict court
- AWS Bedrock : marketplace IA d’AWS. Claude, Llama, Mistral, Titan, Cohere. Intégration IAM, KMS, CloudWatch, region EU. Standard de fait pour les enterprises AWS.
- Google Vertex AI : plateforme ML/IA de Google Cloud. Gemini natif + Claude (depuis 2024) + Llama + Mistral. MLOps mature.
- Pour une PME : choisissez selon votre cloud principal. Pas de raison technique forte de mixer si vous n’êtes pas multi-cloud déjà.
Critères comparés
1. Modèles disponibles (2026)
Bedrock :
- Anthropic Claude 4.6 Sonnet, Haiku, Opus.
- Meta Llama 4.
- Mistral Large, Small.
- Cohere Command R+.
- Amazon Titan (texte, image).
- AI21 Jamba.
Vertex AI :
- Google Gemini 2.5 Pro, Flash, Ultra.
- Anthropic Claude 4.6 Sonnet, Haiku.
- Meta Llama 4.
- Mistral Large.
- Modèles open-source (déployables via Vertex Endpoints).
Les deux plateformes ont Claude et Llama. Bedrock a Cohere et plus de variété en marketplace. Vertex a Gemini natif (le seul à l’avoir).
2. Prix
Bedrock : tarifs alignés sur Anthropic direct + ~5 % de marge AWS. Pas de discount notable hors enterprise commits.
Vertex AI : tarifs alignés sur Google direct (Gemini gratuit limite usage faible). Discounts via Google Cloud Committed Use.
À volume similaire, écart négligeable (<10 %) entre les deux.
3. Intégration cloud
Bedrock :
- IAM AWS natif.
- KMS pour encryption.
- VPC Endpoints (PrivateLink).
- CloudWatch logs et métriques.
- CloudTrail audit.
- S3 pour data ingestion (RAG).
- Bedrock Knowledge Bases (RAG managé) avec OpenSearch / Aurora pgvector.
- Bedrock Agents (orchestration multi-tools managée).
Vertex AI :
- IAM GCP natif.
- Cloud KMS.
- VPC-SC.
- Cloud Logging, Monitoring.
- Cloud Storage pour data.
- Vertex AI Search (RAG managé).
- Vertex AI Agent Builder.
- BigQuery integration native.
Les deux sont au top sur l’intégration cloud. Match nul si vous êtes dans le bon cloud.
4. Région EU
Bedrock : Frankfurt, Ireland, Paris (Claude depuis 2024). Conforme RGPD.
Vertex AI : Frankfurt, Belgium, Netherlands, Paris (Gemini disponible Paris). Conforme RGPD.
Égalité.
5. RAG managé
Bedrock Knowledge Bases : crée un RAG end-to-end en quelques clics. S3 ingestion → OpenSearch ou Aurora pgvector → API de recherche. Très bon pour démarrer.
Vertex AI Search : RAG managé avec ingestion + indexation + recherche. Légèrement plus mature côté data search.
Avantage léger : Vertex AI Search.
6. Agents managés
Bedrock Agents : orchestration multi-tools, action groups, knowledge bases. Améliorations 2025-2026.
Vertex AI Agent Builder : agents conversationnels + tools + grounding via Vertex AI Search.
Égalité fonctionnelle. Bedrock Agents est plus orienté “agent qui agit”, Vertex AI Agent Builder plus orienté “agent conversationnel grounded”.
7. MLOps
Vertex AI : pipeline ML mature (Vertex AI Pipelines, Workbench, Feature Store). Si vous faites de la ML custom au-delà du LLM, Vertex est devant.
Bedrock : focus LLM/IA générative. Pour ML classique, AWS a SageMaker (séparé).
Avantage Vertex AI si vous mixez LLM + ML classique dans le même projet.
8. Pricing transparency
Bedrock : tarifs clairs et alignés sur les éditeurs (Anthropic, Mistral). Faciles à benchmarker.
Vertex AI : tarifs clairs aussi, parfois exprimés en “characters” pour Gemini (à diviser par ~4 pour comparer en tokens).
Égalité.
9. Support entreprise
Bedrock et Vertex AI ont tous deux Enterprise Support. Pour des grands comptes, on a accès à des SAs (solution architects) côté chaque cloud. Pareil.
Quand choisir Bedrock
- Vous êtes déjà sur AWS pour le reste (S3, EC2, Lambda, RDS).
- Vous voulez Claude + plusieurs autres modèles dans le même IAM.
- Vous avez une équipe AWS qui maîtrise CloudFormation / Terraform AWS.
- Vous voulez un RAG managé via S3 + Knowledge Bases.
Quand choisir Vertex AI
- Vous êtes déjà sur GCP (BigQuery, GKE, Cloud Run).
- Vous voulez Gemini natif (le seul à l’avoir, et Gemini 2.5 a des avantages multimodaux).
- Vous faites du ML custom au-delà du LLM (Vertex AI Pipelines).
- Vous avez une équipe GCP en place.
Quand choisir aucun des deux
- Volume modéré : direct via API Anthropic / OpenAI / Mistral est plus simple et souvent moins cher (pas de marge cloud).
- Vous voulez du multi-fournisseur : LiteLLM, OpenRouter ou direct API + couche d’abstraction.
- Souveraineté ultra-stricte FR : Mistral via Scaleway, pas via AWS/GCP US.
Pour PME française
PME multi-LLM avec moins de 10M tokens/mois : direct via API Anthropic + OpenAI + Mistral. Plus simple, plus économique.
PME avec stack AWS importante : Bedrock pour consolider Claude + RAG + IAM dans un seul environnement. Top pour la conformité.
PME avec stack GCP importante : Vertex AI pour Gemini + Claude + BigQuery dans un seul environnement.
PME avec contrainte souverain stricte : ni Bedrock ni Vertex AI (US) — Mistral via Scaleway / OVH.
Pour aller plus loin
- Comparatif Bedrock vs Azure OpenAI vs Scaleway — vue à 3 plateformes.
- Comparatif OpenAI direct vs Azure vs Anthropic — vue fournisseur direct.
- Souveraineté IA — définition — enjeu.
- Audit IA Kezify — choisir la bonne plateforme cloud IA.