Construa aplicativos de IA descentralizados em uma rede GPU distribuída
Integre via SDK e contratos. A AIL2 lida com roteamento, agendamento, recibos, liquidação e incentivos para mineradores—para que você lance mais rápido em Ethereum, BNB Chain, XLayer, Base, Mantle e GIWA.
Roteador e Agendador
Roteamento multiobjetivo (latência / confiabilidade / custo / risco)
Recibos e Liquidação
Recibos auditáveis + liquidação em lote + divisão automática
Nativo Multi-cadeia
Uma integração, servir usuários através de cadeias
Um stack principal de nível de protocolo para IA descentralizada.
Você Traz
- Contêiner de modelo (Docker)
- Estratégia de Preços
- Política de Divisão de Receitas
AIL2 Fornece
- Rede GPU global
- Roteamento Inteligente
- Anti-fraude e Liquidação
Você Obtém
- Escalabilidade Infinita
- Contabilidade Auditável
- Incentivos Instantâneos
Capacidades do Protocolo Principal
Um stack modular projetado para inferência de IA de alto rendimento.
Roteador e Agendador
Preveja o tempo na fila, pontue nós, com tente/fallback automaticamente em toda a malha descentralizada.
Contêineres de Modelo
Versionamento, implantação canary, rollback. Mineradores baixam suas imagens personalizadas e as executam em ambientes isolados seguros.
Recibos de Uso
Recibos assinados com contagens de tokens, segundos de GPU e taxas. Provas em lote Merkle garantem auditoria absoluta.
Liquidação AIL2
Finalização em lote de provas de inferência com uma janela de disputa e distribuição automática de receita para detentores de tokens.
SLA e Reputação
Monitoramento em tempo real das taxas de sucesso dos nós e latência p95. Pontuações de reputação afetam a prioridade de roteamento.
Segurança e Anti-fraude
Recompensas ponderadas por risco e slashing automático para detecção de recibos falsificados ou trabalho duplicado.
Da Solicitação à Liquidação
O ciclo de vida de uma solicitação de inferência descentralizada.
Solicitação iniciada via SDK/Gateway com credenciais do projeto.
Roteador valida autorização, limites de taxa e verifica saldo de crédito.
Agendador seleciona o nó GPU ideal baseado em latência e reputação.
Contêiner executa inferência e retorna resultado assinado + recibo.
Recibo é agrupado em árvore Merkle para liquidação de Camada 2 e pagamento dividido.
Tudo é mensurável, auditável e programável.
Lance em 5 Minutos
Comece a construir com uma única chamada de API.
Criar Projeto
Obtenha seu project_id único no console.
Gerar Chave API
Assine suas solicitações de inferência com segurança.
Registrar Modelo
Defina requisitos, preços e divisão de receitas.
curl -X POST "https://api.ail2.network/v1/infer" \
-H "Authorization: Bearer $AIL2_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"project_id": "p_123",
"model_id": "nebula-ai",
"version": "1.2.3",
"input": {"prompt": "Explain zk-proof in 3 bullets"},
"options": {"timeout_ms": 12000}
}'{
"output": {"text": "..."},
"receipt": {
"receipt_id": "rcpt_9f3a...",
"tokens": 1240,
"gpu_sec": 0.84,
"fee": "0.024",
"node": "gpu-kr-0281"
}
}Matriz de Capacidades Principais
| Capacidade | O que você obtém | Notas |
|---|---|---|
| Inference API | Endpoints Síncronos/Assíncronos para todos os modelos | HTTP/WS Support |
| Streaming | Streaming token por token ou baseado em eventos | p99 < 50ms TTFT |
| Model Registry | Versões, canary e rollbacks instantâneos | Integrated CI/CD |
| Receipts | Recibos de uso com prova Merkle assinada | Audit-ready anytime |
| Settlement | Execução de divisão automatizada de Camada 2 | Settles on Mainnet |
| Policies | Limites de taxa personalizados e geofencing regional | Configurable per key |
Perguntas Frequentes
Os mineradores devem fornecer GPUs de nível empresarial (Nvidia A100, H100 ou RTX 4090) com interconexões de alta largura de banda para atender ao SLA de desempenho do AIL2 Core.
A AIL2 suporta contêineres baseados em TEE (Ambientes de Execução Confiável) para modelos que exigem que pesos ou entradas permaneçam criptografados durante todo o ciclo de inferência.
Sim. Os desenvolvedores podem definir preços personalizados por token, por segundo de GPU ou por tarefa de inferência diretamente no contrato de registro do modelo.