Mes Builds
–
IA configurées
Mon Plan
–
Capacités actuelles
Instance
–
Statut serveur
Store Revenue
$0
Gains vendeur
Derniers Builds
| Nom | Modèle | Date |
|---|
Top du Store
| IA | ★ | ↓ |
|---|
Mes Builds IA
Configurations d'intelligence artificielle créées
Mon Instance Cloud
Votre serveur dédié — votre IA, vos données, votre souveraineté
Région de déploiement
🇪🇺
Europe
Frankfurt/Amsterdam
🇺🇸
Amérique
New York/Dallas
🌏
Asie-Pacifique
Singapore/Tokyo
⚖️ Données stockées dans la région choisie — conformité RGPD native pour l'Europe
IX Store
Découvrez et téléchargez des IA créées par la communauté
Chargement du Store...
1
Modèle
2
Hardware
3
Personnalité
4
Déploiement
Choisissez votre modèle de base
Tous les modèles tournent localement sur votre instance — zero data retention.
Llama 3.2 3B
3B paramètres
Rapide, efficace, parfait pour les assistants conversationnels
🔧 Min: 2GB RAM
Llama 3.1 8B
8B paramètres
Excellent équilibre qualité/performance pour la plupart des usages
🔧 Min: 4GB RAM
Mistral 7B
7B paramètres
Excellent pour le code et l'analyse, forte capacité de raisonnement
🔧 Min: 4GB RAM
Phi-3 Mini
3.8B paramètres
Ultra-compact, idéal pour les instances Micro — Microsoft Research
🔧 Min: 2GB RAM
Gemma 2 9B
9B paramètres
Modèle open-source de Google, haute performance multi-lingue
🔧 Min: 6GB RAM
Qwen 2.5 7B
7B paramètres
Excellence multilingue, idéal pour FR/AR/ZH — Alibaba Cloud
🔧 Min: 4GB RAM
Configuration matérielle
Choisissez les paramètres de quantization et de performance selon votre instance.
Personnalisez votre IA
Définissez le nom, le caractère et les instructions de votre assistant.
Prêt à déployer
Vérifiez votre configuration et créez votre IA personnelle.
⬡ Déploiement sur votre instance
Votre IA sera installée sur votre serveur dédié OneCloud. Zero data retention — vos conversations ne quittent jamais votre serveur.
Plans & Tarifs
Votre IA. Votre serveur. Votre souveraineté.
Toutes les instances incluent InferenceX Engine préinstallé · BSL-1.1 → Apache 2.0 en 2030
Paramètres du compte
Informations
API Access
Accédez à votre instance via l'API Inference-X avec votre token JWT
⟳