Comment Modèles Galerie Vs ChatGPT Offre Console
Assistants déjà déployés en interne — extraits de la galerie
card-pm-support
Support produit B2B
picasso-charte
Génération JSON
l3dlp-coder
Pair programmer
rafael-juridique
Modèles documents FR
jess-router
Tickets entrants
sql-schema
Génération de schémas
Comment ça marche

Trois étapes. Pas de prompt à recoller chaque matin.

Tu décris l'expert dont tu as besoin. Il vit dans la console, prêt à servir, sous ta marque, branché à l'auth pm.studio. Tu choisis quel modèle l'alimente, tu vois où partent ses données.

01

Décris ton expert

"Un porte-parole de mon produit", "un juriste qui sort des modèles français", "un coder Go strict KISS". Tu écris sa persona en quelques lignes, tu ajoutes ton contexte métier. Le système crée l'assistant.

02

Choisis le modèle

Tier 1 souverain France par défaut (Llama, Mistral, Qwen sur OVHcloud AI Endpoints). Tier 2/3 OpenAI, Claude, Gemini disponibles en opt-in transparent quand tu as besoin de la performance maximale.

03

Diffuse

Tes équipes ouvrent la console et discutent avec l'expert. Tu peux partager un assistant en lecture seule à un client externe via un sous-domaine de marque blanche. Réponses copiables en un clic.

Trois tiers de modèles · Tu choisis

Souverain par défaut.
Cloud Act seulement si tu le décides.

La plupart des plateformes envoient tes prompts vers les USA sans le dire vraiment. ASSISTANT.PM affiche le pays d'hébergement à chaque requête, et propose toujours une alternative française.

Tier 1 · Par défaut
Souverain France
Llama 3.3 70B
Mixtral 8x7B
Mistral Small 3.2 24B
Qwen 2.5 Coder 32B
BGE-M3 (embeddings)
Whisper Large v3 Turbo

Hébergés sur OVHcloud AI Endpoints à Gravelines. Aucune donnée hors UE. Hors Cloud Act. Tes prompts ne servent jamais à entraîner un modèle.

RGPD natif Hors Cloud Act SLA 99,8%
Tier 2 · Européen tempéré
Mistral La Plateforme
Mistral Large
Mistral Medium
Codestral

Entreprise française, hébergement Microsoft Azure UE. Performance supérieure sur certaines tâches. Dépendance résiduelle Cloud Act assumée et documentée. Opt-in léger.

DPF certifié Opt-in
Tier 3 · Performance max
Anthropic · OpenAI · Gemini
Claude Opus & Sonnet
GPT-4 / GPT-5
Gemini 2.5 Pro

Données envoyées aux USA, Cloud Act applicable. Activé uniquement si tu actives explicitement la session. Le classifier de sensibilité bloque automatiquement les contenus marqués personnels.

Cloud Act Opt-in fort Audit log

Chaque requête affiche son tier dans l'interface. Tu peux verrouiller un assistant sur le Tier 1 par politique d'entreprise.

Galerie

Des assistants prêts.
Personnalisables. Réutilisables.

Du porte-parole produit au coder strict, du juriste FR au générateur de schémas SQL — chaque assistant a sa persona, son modèle préféré, et son périmètre.

Positionnement

ChatGPT pro est un wrapper.
Nous sommes une couche de gouvernance.

Pas de querelle de qualité de modèle — tu y as accès aussi. La différence est autour du modèle : ce qui sort, où ça part, comment c'est gouverné dans une boîte.

ChatGPT Team / Claude Pro assistant.pm
Accès aux modèles top US Oui Oui (opt-in)
Modèles souverains UE par défaut Non OVHcloud France inclus
Affichage tier & pays par requête Non Oui
Classifier de sensibilité Non Bloque les sensibles vers Tier 3
Hébergement principal USA France (OVH)
Marque blanche pour clients Non Sous-domaine + charte
Auth partagée écosystème Non pm.studio inclus
Audit trail des requêtes Limité Append-only, exportable
Conformité RGPD documentée DPA générique Tableau article 28 public

Eux te vendent l'accès au meilleur modèle. Nous te vendons l'accès au meilleur modèle plus la couche de gouvernance qui le rend défendable en interne.

· Pour ton équipe ou tes clients

Une seule plateforme pour tes experts IA, sous ta marque, hébergée en France.

Pour les équipes qui veulent l'efficacité de ChatGPT, la souveraineté d'une infra UE, et le branchement natif à leurs outils existants.

Demander une démo Devis flotte entreprise
  • Assistants illimités, persona personnalisée, mémoire par conversation
  • Tier 1 souverain France inclus dès le tier de base (OVHcloud)
  • BYOK pour OpenAI, Anthropic, Gemini si tu as déjà des clés
  • Marque blanche sur sous-domaine ia.ta-marque.fr
  • Auth pm.studio partagée avec tes autres outils
  • Audit trail RGPD exportable pour ton DPO
  • Hébergement OVHcloud France, conformité documentée

Le bon assistant n'est pas celui qui répond le plus vite.
C'est celui qui répond depuis le bon endroit.

Un expert = une persona claire.
Un modèle = un pays connu.
Une réponse = une trace auditable.

Demander une démo Voir la galerie

Questions fréquentes

Pour clarifier ce qui change vraiment.

Pourquoi un Tier 1 OVHcloud par défaut ?

Parce que la majorité des cas d'usage pro courants (rédaction, support, classification, code, sortie structurée) sont bien traités par Llama 3.3 70B ou Mistral Small 3.2 — pour une fraction du prix d'OpenAI, hébergé en France, hors Cloud Act. La performance maximale n'a d'intérêt que là où elle change vraiment le résultat.

Quand activer Tier 3 (OpenAI / Claude / Gemini) ?

Pour les tâches où la performance brute change la donne : raisonnement long, vision avancée, contexte de plusieurs centaines de milliers de tokens, génération créative très haut de gamme. ASSISTANT.PM te montre le coût et l'origine à chaque activation.

C'est quoi le classifier de sensibilité ?

Un module qui détecte automatiquement les prompts contenant des données personnelles ou sensibles (santé, finance, juridique, données nominatives) et qui bloque ou alerte fortement avant le routage vers un fournisseur Cloud Act. Tu peux désactiver l'alerte session par session si tu sais ce que tu fais.

Mes données servent-elles à entraîner les modèles ?

Non. OVHcloud AI Endpoints garantit que les prompts ne sont jamais utilisés pour le training. Côté Tier 3 (OpenAI / Anthropic), les données API ne servent pas non plus au training par défaut. Nous signons les DPA correspondants et publions le tableau article 28 dans nos mentions.

BYOK ?

Oui. Si tu as déjà des clés OpenAI, Anthropic ou Gemini (ou un compte Mistral La Plateforme), tu peux les injecter dans la console. Les requêtes partent alors avec ta clé, ta facturation, ton DPA. Nous restons l'orchestrateur, pas le revendeur.

Est-ce que je peux verrouiller un assistant sur Tier 1 ?

Oui. Politique d'entreprise par défaut, par groupe, ou par assistant. Un assistant verrouillé Tier 1 ne peut pas être routé vers un fournisseur US, même si l'utilisateur le demande. Audit trail à l'appui.

Quel est le rapport avec les autres outils .pm ?

L'auth est partagée avec pm.studio, la facturation avec invoice.pm, et plusieurs assistants pré-faits sont calibrés pour épauler les autres outils de l'écosystème (support CARD.PM, génération de chartes pour cartes, modèles de documents pour DOC.PM…).