OpenLedger:データ駆動型で、モデルが組み合わせ可能なAI経済インフラを構築する

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型、モデルコンポーザブルなエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力はAIインフラの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせません。従来のAI業界のインフラ進化パスと同様に、Crypto AIの分野も類似の段階を経てきました。2024年初頭、市場は一時去中心化GPUプロジェクトが主導し、「算力を競う」粗放な成長ロジックが一般的に強調されていました。しかし、2025年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが基盤のリソース競争からより持続可能で応用価値のある中層構築に移行することを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達することが多く、トレーニング1回のコストは数百万ドルに及ぶことがあります。一方、SLM(専門言語モデル)は、再利用可能な基盤モデルの軽量な微調整のパラダイムであり、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を備えた専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。

注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムによる動的ルーティング、LoRAモジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールにより専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは基本的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は

  • 技術的なハードルが高すぎる:Foundation Modelのトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大で、現在、アメリカや中国などのテクノロジーの巨人だけがその能力を持っています。
  • オープンソースエコシステムの制限:LLaMAやMixtralなどの主流基盤モデルはオープンソース化されていますが、モデルの突破を推進する鍵は依然として研究機関やクローズドソースのエンジニアリングシステムに集中しており、チェーン上のプロジェクトはコアモデル層への参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは、特化型言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで、価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に表れています:

  • 信頼性検証レイヤー:オンチェーンでモデル生成のパス、データの貢献と使用状況を記録することで、AI出力の追跡可能性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェントの実行などの行動に対してインセンティブを与え、モデルのトレーニングとサービスの正のサイクルを構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

このことから、モデル型 Crypto AI プロジェクトの実現可能な落とし所は、主に小型 SLM の軽量化調整、RAG アーキテクチャのチェーン上データの接続と検証、そして Edge モデルのローカル展開とインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Crypto はこれらの中低リソースモデルのシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献元を明確かつ改ざん不可能な形でブロックチェーンに記録し、データの信頼性とモデル訓練のトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出された際に自動的に報酬配分がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの制定および改訂に参加し、分散型ガバナンス構造を強化することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedger は現在の市場で数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーン AI プロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつコンポーザブルな AI 実行環境を構築することを目指しています。データ提供者、モデル開発者、AI アプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの利益を得るように奨励します。

OpenLedgerは「データ提供」から「モデルデプロイ」そして「呼び出し分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールには次のものが含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRAの微調整トレーニングを行い、カスタムモデルをデプロイ可能;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築・検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を促進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能で低コスト、検証可能なデータおよび契約の実行環境を構築しました。

  • OP Stackに基づいて構築:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • Ethereumメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換: 開発者がSolidityに基づいて迅速にデプロイおよび拡張するのに便利;
  • EigenDAはデータの可用性サポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を確保します。

NEARのようなより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンと比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に焦点を当てており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのチェーン上の組み合わせ可能なインターフェイスを組み合わせて、「モデルは資産である」という実現の道筋を推進しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステムにおける大規模言語モデル (LLM) 微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した承認およびレビューされたデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、およびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査と承認を行い、データが自動的にモデル訓練インターフェースに接続されます。
  • モデル選択と設定:主流の LLM(例えば LLaMA、Mistral)をサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポートします。
  • インタラクション検証インターフェース:チャット形式のインターフェースを提供し、モデルの問答能力を直接テストするのに便利です。
  • RAG生成トレーサビリティ:出所の引用を伴う回答で、信頼性と監査可能性を高める。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAGトレーサビリティを貫通する6つの主要モジュールで構成され、安全で制御可能、リアルタイムインタラクション、持続可能なマネタイズを実現する統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMA シリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:アリババ製、中文タスクのパフォーマンスが優れており、総合能力が高く、国内の開発者に最適。
  • ChatGLM:中国語の対話効果が優れており、ニッチなカスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に習得し実験することが容易です。
  • Falcon:かつてはパフォーマンスのベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活動は減少しました。
  • BLOOM:多言語サポートが強いが、推論性能は弱めで、言語カバレッジ型の研究に適している。
  • GPT-2:古典的な初期モデルで、教育や検証用途にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、チェーン上のデプロイメントの現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明機構が組み込まれており、データ貢献者とモデル開発者の権利を確保しています。これにより、低いハードル、収益化可能性、組み合わせ可能性を持つ利点があり、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルの孵化、配布、収益の完全なパスを提供する;
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーター向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整手法であり、予め学習済みの大規模モデルに「低ランク行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えばLLaMA、GPT-3)は、通常数十億から数千億のパラメータを持っています。それらを特定のタスク(例えば法的質問応答、医療相談)に使用するには、微調整(fine-tuning)が必要です。LoRAの核心戦略は:「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみを訓練する。」というものであり、そのパラメータ効率、訓練の速さ、デプロイの柔軟性により、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法です。

OpenLoRAはOpenLedgerが構築した、多モデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「可支払AI」(Payable AI)の実行を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要な環節をカバーし、高効率で低コストのマルチモデルデプロイと呼び出し能力を実現します。

  • LoRAアダプタ ストレージモジュール (LoRAアダプタ ストレージ):微調整されたLoRAアダプタはOpenLedger上にホストされており、オンデマンドでロードされるため、すべてのモデルを事前にGPUメモリにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックフュージョンレイヤー (Model
OP-3.64%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 8
  • 共有
コメント
0/400
MissedAirdropBrovip
· 07-24 23:59
またAIですか、いつまで上昇し続けるのでしょうか。
原文表示返信0
blocksnarkvip
· 07-24 15:44
いつAI大モデルを無料で利用できるようになりますか?
原文表示返信0
DaoGovernanceOfficervip
· 07-23 12:04
*ため息* また別のモデル構成論文が明確なkpiとトクノミクスを欠いている... 経験的に言うと、これはスケールしないだろう
原文表示返信0
PanicSellervip
· 07-22 15:15
わからない、ラグプルするかもしれない。
原文表示返信0
tokenomics_truthervip
· 07-22 14:56
業界のだらけた愚か者
原文表示返信0
GasFeeThundervip
· 07-22 14:53
ガス費こんなに高いのに、モデル革新について何を話すんだ。
原文表示返信0
SchroedingerAirdropvip
· 07-22 14:49
ああ、そんなに頑張らなくてもいいんじゃない?
原文表示返信0
SadMoneyMeowvip
· 07-22 14:47
モデルデータは結局、概念を炒めるだけです。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)