En desarrollo activo · testnet

INFERENCIA · COMPATIBLE CON OPENAI

Drop-in. Descentralizada.

Los mismos SDK que ya usas. SpaceRouter coloca el trabajo en la GPU disponible más barata de la red. Llama, DeepSeek, Mixtral, Qwen — más visión, embeddings y voz.

API de Inferencia

spacerouter.ai

Inferencia compatible con OpenAI, enrutada por nuestra red descentralizada de GPU. Los mismos SDK que ya usas. Precios más bajos. Modelos que no caben en un solo centro de datos.

Inicio rápido

Tres líneas para hacer inferencia

curl https://spacerouter.ai/v1/chat/completions \
  -H "Authorization: Bearer $SPACEROUTER_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "meta-llama/Llama-3.1-70B-Instruct",
    "messages": [
      { "role": "user", "content": "Hello from my agent" }
    ]
  }'

URL base

https://spacerouter.ai/v1

Autenticación

Token Bearer

Formato

Compatible con OpenAI

Modelos

Modelos abiertos, servidos descentralizadamente

Enrutados a la GPU disponible más barata que cumpla el requisito de VRAM. Añade más bajo petición.

Chat8B

Llama 3.1 8B

Fast general-purpose chat

VRAM ≥ 16 GB$0.05 / $0.08
Chat70B

Llama 3.1 70B

High-quality reasoning and chat

VRAM ≥ 40 GB$0.40 / $0.60
Chat405B

Llama 3.1 405B

Largest open model, multi-GPU

VRAM ≥ 200 GB$1.80 / $2.50
Chat7B

Mistral 7B

Efficient instruction-following

VRAM ≥ 14 GB$0.05 / $0.07
Chat8x7B

Mixtral 8x7B

Mixture-of-experts, fast and capable

VRAM ≥ 26 GB$0.24 / $0.48
Chat8x22B

Mixtral 8x22B

Large MoE for complex tasks

VRAM ≥ 90 GB$0.90 / $1.20
Chat671B MoE

DeepSeek V3

State-of-the-art open MoE

VRAM ≥ 80 GB$0.27 / $1.10
Código16B

DeepSeek Coder V2

Code generation and completion

VRAM ≥ 16 GB$0.14 / $0.28
Código34B

CodeLlama 34B

Code-specialised Llama variant

VRAM ≥ 20 GB$0.20 / $0.40
Chat3.8B

Phi-3 Mini

Small but capable, runs on any GPU

VRAM ≥ 8 GB$0.04 / $0.06
Chat72B

Qwen 2.5 72B

Multilingual reasoning model

VRAM ≥ 40 GB$0.42 / $0.62
Chat27B

Gemma 2 27B

Efficient mid-size chat

VRAM ≥ 24 GB$0.18 / $0.30
Embeddings335M

BGE Large

Text embedding model

VRAM ≥ 4 GB$0.02 / $0.00
Visión34B

LLaVA 1.6 34B

Vision-language model

VRAM ≥ 24 GB$0.30 / $0.50

Precios en $/M tokens (entrada / salida). Precio final en la página de precios.

Compatible drop-in

Usa el SDK de OpenAI en Python o TypeScript. Solo cambia la base URL.

Enrutado a la GPU más barata

SpaceRouter descubre los nodos que pueden servir tu modelo y elige el mejor precio/latencia.

Voz y embeddings

TTS medido por minuto. Embeddings tasados por millón de tokens. La misma clave funciona en todo.

[ space-os ]