Construya aplicaciones de IA descentralizada en una red GPU distribuida
Integre a través de SDK y contratos. AIL2 maneja el enrutamiento, programación, recibos, liquidación e incentivos para mineros, para que lance más rápido en Ethereum, BNB Chain, XLayer, Base, Mantle y GIWA.
Enrutador y Programador
Enrutamiento multiobjetivo (latencia / confiabilidad / costo / riesgo)
Recibos y Liquidación
Recibos auditables + liquidación por lotes + división automática
Nativo Multi-cadena
Una integración, servir usuarios a través de cadenas
Un stack central de nivel de protocolo para IA descentralizada.
Tú aportas
- Contenedor de modelo (Docker)
- Estrategia de precios
- Política de división de ingresos
AIL2 proporciona
- Red GPU global
- Enrutamiento inteligente
- Anti-fraude y Liquidación
Tú obtienes
- Escalabilidad infinita
- Contabilidad auditable
- Incentivos instantáneos
Capacidades del Protocolo Central
Un stack modular diseñado para inferencia de IA de alto rendimiento.
Enrutador y Programador
Predice el tiempo de cola, puntúa los nodos y reintentos/fallback automáticos en toda la malla descentralizada.
Contenedores de Modelo
Versionado, despliegue canary, reversión. Los mineros extraen sus imágenes personalizadas y las ejecutan en entornos seguros aislados.
Recibos de Uso
Recibos firmados con conteo de tokens, segundos de GPU y tarifas. Las pruebas de lote Merkle aseguran una auditoría absoluta.
Liquidación AIL2
Finalización por lotes de pruebas de inferencia con una ventana de disputa y distribución automática de ingresos a los tenedores de tokens.
SLA y Reputación
Monitoreo en tiempo real de las tasas de éxito de los nodos y la latencia p95. Las puntuaciones de reputación afectan la prioridad de enrutamiento.
Seguridad y Anti-fraude
Recompensas ponderadas por riesgo y slashing automático por detección de recibos falsificados o trabajo duplicado.
Desde la Solicitud hasta la Liquidación
El ciclo de vida de una solicitud de inferencia descentralizada.
Solicitud iniciada a través de SDK/Gateway con credenciales de proyecto.
El enrutador valida la autorización, limita la velocidad y verifica el saldo de crédito.
El programador selecciona el nodo GPU óptimo basándose en latencia y reputación.
El contenedor ejecuta la inferencia y devuelve el resultado firmado + recibo.
El recibo se agrupa en un árbol Merkle para la liquidación de Capa 2 y pago dividido.
Todo es medible, auditable y programable.
Lance en 5 Minutos
Comience a construir con una sola llamada a la API.
Crear Proyecto
Obtenga su project_id único en la consola.
Generar Clave API
Firme de forma segura sus solicitudes de inferencia.
Registrar Modelo
Defina requisitos, precios y división de ingresos.
curl -X POST "https://api.ail2.network/v1/infer" \
-H "Authorization: Bearer $AIL2_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"project_id": "p_123",
"model_id": "nebula-ai",
"version": "1.2.3",
"input": {"prompt": "Explain zk-proof in 3 bullets"},
"options": {"timeout_ms": 12000}
}'{
"output": {"text": "..."},
"receipt": {
"receipt_id": "rcpt_9f3a...",
"tokens": 1240,
"gpu_sec": 0.84,
"fee": "0.024",
"node": "gpu-kr-0281"
}
}Matriz de Capacidades Centrales
| Capacidad | Lo que obtiene | Notas |
|---|---|---|
| Inference API | Endpoints Síncronos/Asíncronos para todos los modelos | HTTP/WS Support |
| Streaming | Transmisión token por token o basada en eventos | p99 < 50ms TTFT |
| Model Registry | Versiones, canary y retrocesos instantáneos | Integrated CI/CD |
| Receipts | Recibos de uso con prueba Merkle firmada | Audit-ready anytime |
| Settlement | Ejecución de división automatizada de Capa 2 | Settles on Mainnet |
| Policies | Límites de velocidad personalizados y geovallado regional | Configurable per key |
Preguntas Frecuentes
Los mineros deben proporcionar GPU de nivel empresarial (Nvidia A100, H100 o RTX 4090) con interconexiones de alto ancho de banda para cumplir con el SLA de rendimiento de AIL2 Core.
AIL2 admite contenedores basados en TEE (Entornos de Ejecución Confiable) para modelos que requieren que los pesos o las entradas permanezcan cifrados durante todo el ciclo de inferencia.
Sí. Los desarrolladores pueden definir precios personalizados por token, por segundo de GPU o por tarea de inferencia directamente en el contrato de registro del modelo.