在分布式 GPU 网络上构建去中心化 AI 应用
通过 SDK 和合约集成。AIL2 处理路由、调度、收据、结算和矿工激励——以便您在 Ethereum, BNB Chain, XLayer, Base, Mantle, 和 GIWA 上更快部署。
路由与调度器
多目标路由(延迟 / 可靠性 / 成本 / 风险)
收据与结算
可审计收据 + 批量结算 + 自动分账
原生跨链
一次集成,服务多链用户
用于去中心化 AI 的协议级核心栈。
您提供
- 模型容器
- 定价策略
- 收入分成政策
AIL2 提供
- 全球 GPU 网络
- 智能路由
- 反欺诈与结算
您获得
- 无限可扩展性
- 可审计账目
- 即时激励
核心协议能力
专为高吞吐量 AI 推理设计的模块化栈。
路由与调度器
预测排队时间,对节点评分,在整个去中心化网格中自动重试/故障转移。
模型容器
版本控制、金丝雀发布、回滚。矿工拉取您的自定义镜像并在安全隔离环境中运行它们。
使用收据
包含 token 数、GPU 秒数和费用的签名收据。默克尔批量证明确保绝对可审计性。
AIL2 结算
批量完成推理证明,带有争议窗口和向代币持有者自动分配收入。
SLA 与声誉
实时监控节点成功率和 p95 延迟。声誉分数影响路由优先级。
安全与反欺诈
风险加权奖励,以及对伪造收据或重复工作检测的自动罚没。
从请求到结算
去中心化推理请求的生命周期。
通过 SDK/网关使用项目凭据发起请求。
路由器验证授权、速率限制并检查信用余额。
调度器根据延迟和声誉选择最佳 GPU 节点。
容器执行推理并返回签名结果 + 收据。
收据被打包进默克尔树进行 L2 结算和分账支付。
一切都是可衡量、可审计和可编程的。
5分钟内部署
通过一次 API 调用开始构建。
创建项目
在控制台中获取您唯一的 project_id。
生成 API 密钥
安全签署您的推理请求。
注册模型
定义需求、定价和收入分成。
curl -X POST "https://api.ail2.network/v1/infer" \
-H "Authorization: Bearer $AIL2_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"project_id": "p_123",
"model_id": "nebula-ai",
"version": "1.2.3",
"input": {"prompt": "Explain zk-proof in 3 bullets"},
"options": {"timeout_ms": 12000}
}'{
"output": {"text": "..."},
"receipt": {
"receipt_id": "rcpt_9f3a...",
"tokens": 1240,
"gpu_sec": 0.84,
"fee": "0.024",
"node": "gpu-kr-0281"
}
}核心能力矩阵
| 能力 | 您获得的功能 | 备注 |
|---|---|---|
| Inference API | 所有模型的同步/异步端点 | HTTP/WS Support |
| Streaming | Token-by-token 或基于事件的流式传输 | p99 < 50ms TTFT |
| Model Registry | 版本控制、金丝雀发布和即时回滚 | Integrated CI/CD |
| Receipts | 签名且默克尔可证明的使用收据 | Audit-ready anytime |
| Settlement | L2 自动分账执行 | Settles on Mainnet |
| Policies | 自定义速率限制和区域地理围栏 | Configurable per key |
常见问题
矿工必须配备具有高带宽互连的企业级 GPU(Nvidia A100, H100, 或 RTX 4090),以满足 AIL2 核心性能 SLA。
AIL2 支持基于 TEE(可信执行环境)的容器,用于要求权重或输入在整个推理周期内保持加密的模型。
是的。开发者可以直接在模型注册合约中定义按 Token、按 GPU 秒或按推理任务的自定义定价。