分散型GPUネットワークで分散型AIアプリを構築
SDKおよびコントラクトを介して統合します。AIL2はルーティング、スケジューリング、レシート、決済、マイナーのインセンティブを処理するため、Ethereum、BNB Chain、XLayer、Base、Mantle、GIWA全体でより迅速にリリースできます。
ルーターとスケジューラー
マルチオブジェクトルーティング(レイテンシ/信頼性/コスト/リスク)
レシートと決済
監査可能なレシート + バッチ決済 + 自動分配
クロスチェーンネイティブ
一度の統合で、チェーンを超えてユーザーにサービスを提供
分散型AIのためのプロトコルグレードのコアスタック。
あなたが提供するもの
- モデルコンテナ (Docker)
- 価格戦略
- 収益分配ポリシー
AIL2が提供するもの
- グローバルGPUネットワーク
- インテリジェントルーティング
- 不正防止と決済
あなたが得られるもの
- 無限のスケーラビリティ
- 監査可能な会計
- 即座のインセンティブ
コアプロトコル機能
高スループットAI推論のために設計されたモジュラースタック。
ルーターとスケジューラー
待ち時間の予測、ノードのスコアリング、分散型メッシュ全体での自動的な再試行/フェイルオーバー。
モデルコンテナ
バージョニング、カナリアリリース、ロールバック。マイナーはカスタムイメージをプルし、分離された安全な環境で実行します。
使用レシート
トークン数、GPU秒、手数料を含む署名付きレシート。マークルバッチ証明により、絶対的な監査可能性を保証します。
AIL2決済
紛争ウィンドウとトークンホルダーへの自動収益分配を含む推論証明をバッチで確定します。
SLAとレピュテーション
ノードの成功率とp95レイテンシをリアルタイムで監視。レピュテーションスコアはルーティングの優先順位に影響します。
セキュリティと不正防止
リスク加重報酬および偽造レシートまたは重複作業検出のための自動スラッシング。
リクエストから決済まで
分散型推論リクエストのライフサイクル。
プロジェクト認証情報を使用してSDK/ゲートウェイ経由でリクエストを開始します。
ルーターが認証、レート制限を検証し、クレジット残高を確認します。
スケジューラーがレイテンシとレピュテーションに基づいて最適なGPUノードを選択します。
コンテナが推論を実行し、署名された結果とレシートを返します。
レシートはL2決済と分割支払いのためにマークルツリーにバッチ処理されます。
すべてが測定可能、監査可能、プログラマブルです。
5分でリリース
単一のAPI呼び出しで構築を開始します。
プロジェクトを作成
コンソールで一意のproject_idを取得します。
APIキーを生成
推論リクエストに安全に署名します。
モデルを登録
要件、価格、収益分配を定義します。
curl -X POST "https://api.ail2.network/v1/infer" \
-H "Authorization: Bearer $AIL2_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"project_id": "p_123",
"model_id": "nebula-ai",
"version": "1.2.3",
"input": {"prompt": "Explain zk-proof in 3 bullets"},
"options": {"timeout_ms": 12000}
}'{
"output": {"text": "..."},
"receipt": {
"receipt_id": "rcpt_9f3a...",
"tokens": 1240,
"gpu_sec": 0.84,
"fee": "0.024",
"node": "gpu-kr-0281"
}
}コア機能マトリックス
| 機能 | 提供内容 | 備考 |
|---|---|---|
| Inference API | すべてのモデルの同期/非同期エンドポイント | HTTP/WS Support |
| Streaming | トークンごとのストリーミングまたはイベントベースのストリーミング | p99 < 50ms TTFT |
| Model Registry | バージョン管理、カナリア、即時ロールバック | Integrated CI/CD |
| Receipts | 署名されたマークル証明可能な使用レシート | Audit-ready anytime |
| Settlement | L2自動分割実行 | Settles on Mainnet |
| Policies | カスタムレート制限および地域ジオフェンシング | Configurable per key |
よくある質問
マイナーは、AIL2コアのパフォーマンスSLAを満たすために、高帯域幅インターコネクトを備えたエンタープライズグレードのGPU(Nvidia A100、H100、またはRTX 4090)を提供する必要があります。
AIL2は、推論サイクル全体を通じて重みまたは入力が暗号化されたままである必要があるモデルのために、TEEベース(信頼できる実行環境)のコンテナをサポートしています。
はい。開発者は、モデル登録コントラクトでトークンごと、GPU秒ごと、または推論タスクごとのカスタム価格を定義できます。