Documentation
Trois parcours, un seul réseau. Choisissez celui qui vous correspond — utilisateur, développeur, ou hôte.
Utilisateurs
Démarrer en 30 secondes
Ouvrez le chat, posez une question. Aucune inscription nécessaire pour les usages basiques.
Développeurs
Intégrer l'API
API compatible OpenAI, streaming SSE, recherche web intégrée. Clés API depuis votre compte.
Hôtes
Partager un GPU
Installer un worker en 5 minutes — Linux, macOS, Windows (WSL). Détection matérielle automatique.
Guides
API de chat completionsAPI
POST /v1/chat/completions — compatible OpenAI, streaming SSE, recherche web, tools.
Korai Kode — assistant de code dans le navigateurProduit
Chat de développement avec édition de fichiers, exécution de commandes, et mémoire projet.
Korai Kode — CLI ligne de commandeCLI
Binaire multi-plateforme pour macOS, Linux, Windows. Lit/écrit des fichiers, exécute du shell.
Héberger un GPU — parcours d'installationHôte
Détection automatique du matériel, choix du modèle optimal, démarrage du worker.
Gérer son compteCompte
Clés API, machines enregistrées, consommation, préférences.
État du réseauStatut
Nombre de GPUs connectés, version orchestrateur, statut des composants — mis à jour en direct.
Comment ça marche, en 4 étapes
- 1Votre client envoie un promptChat web, CLI Korai Kode, ou API compatible OpenAI — tous pointent vers l'orchestrateur à Paris.
- 2L'orchestrateur choisit un workerMatching selon le modèle demandé, le contexte requis, et la latence des GPUs disponibles en Europe.
- 3Le worker infère en streamingvLLM (NVIDIA) ou MLX (Apple Silicon) génère la réponse, token par token, via WebSocket.
- 4Le flux remonte au clientSSE depuis l'orchestrateur, sans qu'aucun contenu ne soit persisté côté Korai.
Question technique ou bug à signaler ?
support@korai.one