OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modélable, sur la base de OP Stack + EigenDA
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. Comme le chemin d'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de l'IA Crypto a également traversé des phases similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur une logique de croissance extensive de "compétition de puissance de calcul". À partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèles et de données, marquant la transition de l'IA Crypto d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et à valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels de grande taille (LLM) dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de fine-tuning léger basé sur un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinés avec un petit nombre de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles experts dotés de connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et les barrières techniques.
Il est à noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plug-ins pour le routage dynamique, le module LoRA pour le branchement à chaud, et le RAG (génération augmentée par recherche). Cette architecture conserve la capacité de large couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné et hautement flexible.
La valeur et les limites de l'IA Crypto au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage (LLM), la raison principale étant que
Barrière technologique trop élevée : l'ampleur des données, des ressources de calcul et des compétences techniques nécessaires pour entraîner un modèle fondamental est extrêmement importante, et seules de grandes entreprises technologiques comme celles des États-Unis et de la Chine disposent de ces capacités.
Limitations de l'écosystème open source : bien que des modèles de base grand public comme LLaMA et Mixtral soient désormais open source, la clé pour faire progresser véritablement les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles principaux est limité.
Cependant, sur la base des modèles open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions clés :
Couche de vérification fiable : enregistrement des chemins de génération de modèles, des contributions de données et de leur utilisation sur la chaîne, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service des modèles.
Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain
Il en ressort que les points d'application viables des projets Crypto AI de type modèle se concentrent principalement sur l'ajustement léger des petits SLM, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur les données et les modèles de blockchain peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel des données ou des modèles, transformant le comportement de l'IA en une valeur tokenisée mesurable et négociable, construisant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à recevoir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger fournit une chaîne complète allant de « la fourniture de données » à « le déploiement de modèles » puis à « l'appel de la répartition des bénéfices », dont les modules principaux comprennent :
Model Factory : sans programmation, vous pouvez utiliser LoRA pour l'entraînement et le déploiement de modèles personnalisés basés sur des LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses via l'enregistrement des appels sur la chaîne ;
Datanets : réseau de données structurées orienté vers des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain combinables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour créer un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.
Basé sur la pile OP : Basé sur la technologie Optimism, supporte un haut débit et une exécution à faible coût ;
Règlement sur la chaîne principale d'Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support de disponibilité des données : réduction significative des coûts de stockage, garantissant la vérifiabilité des données.
Comparé à des chaînes d'IA générales comme NEAR, qui se concentrent davantage sur les couches de base, la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes spécialisées en IA axées sur les incitations liées aux données et aux modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation aux modèles dans le monde de Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation d'utilisation à la manière de Stripe et les interfaces combinables sur la chaîne à la manière d'Infura, promouvant le chemin vers la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, usine de modèle sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle sur la base de jeux de données autorisés et vérifiés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les principales étapes comprennent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : prend en charge les LLM grand public (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement du modèle : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé dans l'écosystème.
Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
RAG génération de traçabilité : réponses avec des références de sources, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée et contrôlable, avec une interaction en temps réel et une monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles de langage pris en charge par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus populaires actuellement.
Mistral : architecture efficace, performances d'inférence excellentes, adapté aux déploiements flexibles et aux ressources limitées.
Qwen : Produit par Alibaba, excellent performance sur les tâches en chinois, capacités globales fortes, idéal pour les développeurs nationaux.
ChatGLM : les effets de conversation en chinois sont exceptionnels, adaptés aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Autrefois une référence en termes de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : Support multilingue assez fort, mais performance d'inférence faible, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, adapté uniquement à des fins d'enseignement et de validation, son utilisation en déploiement réel n'est pas recommandée.
Bien que le portefeuille de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réalistes de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Le Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution dans tous les modèles, garantissant les droits des contributeurs de données et des développeurs de modèles. Il présente des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus du modèle ;
Pour la plateforme : former un modèle de circulation des actifs et un écosystème combiné ;
Pour les utilisateurs : vous pouvez combiner des modèles ou des agents comme si vous appeliez une API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de fine-tuning des paramètres efficace, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement le coût d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un fine-tuning est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. », ses paramètres sont efficaces, l'entraînement est rapide, et le déploiement est flexible, ce qui en fait la méthode de fine-tuning la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement de plusieurs modèles et au partage de ressources. Son objectif principal est de résoudre des problèmes courants dans le déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, based on modular design, cover key aspects such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities :
Module de stockage LoRA Adapter (LoRA Adapters Storage) : Les adaptateurs LoRA affûtés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire graphique, économisant ainsi des ressources.
Hébergement de modèles et couche de fusion dynamique (Model
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
8
Reposter
Partager
Commentaire
0/400
MissedAirdropBro
· 07-24 23:59
Encore de l'IA, jusqu'à quand va-t-on continuer à spéculer ?
Voir l'originalRépondre0
blocksnark
· 07-24 15:44
Quand pourra-t-on profiter gratuitement des grands modèles d'IA ?
Voir l'originalRépondre0
DaoGovernanceOfficer
· 07-23 12:04
*sigh* encore un autre document de composition de modèle manquant de kpis clairs et de tokenomics... empiriquement parlant, cela ne pourra pas se développer.
Voir l'originalRépondre0
PanicSeller
· 07-22 15:15
Je ne comprends pas, faisons un Rug Pull.
Voir l'originalRépondre0
tokenomics_truther
· 07-22 14:56
Les idiots du secteur qui abandonnent
Voir l'originalRépondre0
GasFeeThunder
· 07-22 14:53
Les frais de gas sont si élevés, que peut-on encore dire sur l'innovation des modèles ?
Voir l'originalRépondre0
SchroedingerAirdrop
· 07-22 14:49
Ah, ne sois pas si stressé, d'accord ?
Voir l'originalRépondre0
SadMoneyMeow
· 07-22 14:47
Les données du modèle ne sont en fait qu'une spéculation sur un concept.
OpenLedger : Construire une infrastructure économique AI axée sur les données et moduellement combinable.
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modélable, sur la base de OP Stack + EigenDA
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. Comme le chemin d'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de l'IA Crypto a également traversé des phases similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur une logique de croissance extensive de "compétition de puissance de calcul". À partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèles et de données, marquant la transition de l'IA Crypto d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et à valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels de grande taille (LLM) dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de fine-tuning léger basé sur un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinés avec un petit nombre de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles experts dotés de connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et les barrières techniques.
Il est à noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plug-ins pour le routage dynamique, le module LoRA pour le branchement à chaud, et le RAG (génération augmentée par recherche). Cette architecture conserve la capacité de large couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné et hautement flexible.
La valeur et les limites de l'IA Crypto au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage (LLM), la raison principale étant que
Cependant, sur la base des modèles open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions clés :
Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain
Il en ressort que les points d'application viables des projets Crypto AI de type modèle se concentrent principalement sur l'ajustement léger des petits SLM, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur les données et les modèles de blockchain peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel des données ou des modèles, transformant le comportement de l'IA en une valeur tokenisée mesurable et négociable, construisant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à recevoir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger fournit une chaîne complète allant de « la fourniture de données » à « le déploiement de modèles » puis à « l'appel de la répartition des bénéfices », dont les modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour créer un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes d'IA générales comme NEAR, qui se concentrent davantage sur les couches de base, la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes spécialisées en IA axées sur les incitations liées aux données et aux modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation aux modèles dans le monde de Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation d'utilisation à la manière de Stripe et les interfaces combinables sur la chaîne à la manière d'Infura, promouvant le chemin vers la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, usine de modèle sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle sur la base de jeux de données autorisés et vérifiés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les principales étapes comprennent :
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée et contrôlable, avec une interaction en temps réel et une monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles de langage pris en charge par ModelFactory :
Bien que le portefeuille de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réalistes de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Le Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution dans tous les modèles, garantissant les droits des contributeurs de données et des développeurs de modèles. Il présente des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de fine-tuning des paramètres efficace, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement le coût d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un fine-tuning est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. », ses paramètres sont efficaces, l'entraînement est rapide, et le déploiement est flexible, ce qui en fait la méthode de fine-tuning la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement de plusieurs modèles et au partage de ressources. Son objectif principal est de résoudre des problèmes courants dans le déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, based on modular design, cover key aspects such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities :