分布式 GPU 网络上构建去中心化 AI 应用

通过 SDK 和合约集成。AIL2 处理路由、调度、收据、结算和矿工激励——以便您在 Ethereum, BNB Chain, XLayer, Base, Mantle, 和 GIWA 上更快部署。

ETHBNBXLayerBaseMantleGIWA
100x Faster
AIL2

路由与调度器

多目标路由(延迟 / 可靠性 / 成本 / 风险)

收据与结算

可审计收据 + 批量结算 + 自动分账

原生跨链

一次集成,服务多链用户

用于去中心化 AI 的协议级核心栈。

您提供

  • 模型容器
  • 定价策略
  • 收入分成政策

AIL2 提供

  • 全球 GPU 网络
  • 智能路由
  • 反欺诈与结算

您获得

  • 无限可扩展性
  • 可审计账目
  • 即时激励

核心协议能力

专为高吞吐量 AI 推理设计的模块化栈。

路由与调度器

预测排队时间,对节点评分,在整个去中心化网格中自动重试/故障转移。

模型容器

版本控制、金丝雀发布、回滚。矿工拉取您的自定义镜像并在安全隔离环境中运行它们。

使用收据

包含 token 数、GPU 秒数和费用的签名收据。默克尔批量证明确保绝对可审计性。

AIL2 结算

批量完成推理证明,带有争议窗口和向代币持有者自动分配收入。

SLA 与声誉

实时监控节点成功率和 p95 延迟。声誉分数影响路由优先级。

安全与反欺诈

风险加权奖励,以及对伪造收据或重复工作检测的自动罚没。

从请求到结算

去中心化推理请求的生命周期。

1

通过 SDK/网关使用项目凭据发起请求。

2

路由器验证授权、速率限制并检查信用余额。

3

调度器根据延迟和声誉选择最佳 GPU 节点。

4

容器执行推理并返回签名结果 + 收据。

5

收据被打包进默克尔树进行 L2 结算和分账支付。

一切都是可衡量、可审计和可编程的。

5分钟内部署

通过一次 API 调用开始构建。

创建项目

在控制台中获取您唯一的 project_id。

生成 API 密钥

安全签署您的推理请求。

注册模型

定义需求、定价和收入分成。

bash (Inference Request)
curl -X POST "https://api.ail2.network/v1/infer" \
  -H "Authorization: Bearer $AIL2_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "project_id": "p_123",
    "model_id": "nebula-ai",
    "version": "1.2.3",
    "input": {"prompt": "Explain zk-proof in 3 bullets"},
    "options": {"timeout_ms": 12000}
  }'
json (Response with Receipt)
{
  "output": {"text": "..."},
  "receipt": {
    "receipt_id": "rcpt_9f3a...",
    "tokens": 1240,
    "gpu_sec": 0.84,
    "fee": "0.024",
    "node": "gpu-kr-0281"
  }
}

核心能力矩阵

能力您获得的功能备注
Inference API所有模型的同步/异步端点HTTP/WS Support
StreamingToken-by-token 或基于事件的流式传输p99 < 50ms TTFT
Model Registry版本控制、金丝雀发布和即时回滚Integrated CI/CD
Receipts签名且默克尔可证明的使用收据Audit-ready anytime
SettlementL2 自动分账执行Settles on Mainnet
Policies自定义速率限制和区域地理围栏Configurable per key

常见问题

矿工必须配备具有高带宽互连的企业级 GPU(Nvidia A100, H100, 或 RTX 4090),以满足 AIL2 核心性能 SLA。

AIL2 支持基于 TEE(可信执行环境)的容器,用于要求权重或输入在整个推理周期内保持加密的模型。

是的。开发者可以直接在模型注册合约中定义按 Token、按 GPU 秒或按推理任务的自定义定价。