I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, análogos ao combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. De maneira semelhante à trajetória de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento frequentemente atinge milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo básico reutilizável, normalmente baseia-se em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura de Agent, roteamento dinâmico do sistema de plugins, hot-plug dos módulos LoRA, RAG (Geração Aprimorada por Recuperação) e outras formas. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto reforça o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinado altamente flexível.
Crypto AI no valor e limites da camada de modelo
Os projetos de Crypto AI são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal
Barreiras tecnológicas demasiado altas: a escala de dados, os recursos de computação e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas gigantes tecnológicos como os EUA e a China possuem a capacidade correspondente.
Limitações do ecossistema de código aberto: embora modelos base populares como LLaMA e Mixtral tenham sido open source, a verdadeira chave para a superação dos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para a participação de projetos em cadeia no nível do modelo central.
No entanto, em cima de modelos básicos de código aberto, os projetos Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de Verificação Confiável: Através do registro em cadeia do caminho de geração do modelo, contribuições de dados e uso, aumenta a rastreabilidade e a resistência à manipulação das saídas da IA.
Mecanismo de incentivo: Usando Token nativo para incentivar o upload de dados, chamadas de modelos, execução de agentes e outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.
Análise da classificação dos tipos de modelos de IA e da aplicabilidade na blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na leve afinação de pequenos SLM, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivo dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode proporcionar um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são chamados, transformando o comportamento da AI em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborarem na mesma plataforma e a receberem rendimentos em cadeia com base na contribuição real.
A OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamadas de compartilhamento de lucros", cujos módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para ajustar e treinar modelos personalizados com LoRA.
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas na cadeia;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada por colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligentes" orientada por dados e combinável em modelos, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger usa OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alta performance, baixo custo e verificável para modelos de IA.
Construído sobre a OP Stack: baseado na pilha tecnológica da Optimism, suporta alta taxa de processamento e execução de baixo custo;
Liquidar na mainnet Ethereum: Garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento rápido e a expansão com base em Solidity;
EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em camadas e na soberania dos dados e na arquitetura «AI Agents on BOS», a OpenLedger se concentra mais na construção de cadeias de IA dedicadas à incentiva de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos na cadeia em um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos no estilo HuggingFace, cobrança de uso no estilo Stripe e interfaces combináveis na cadeia no estilo Infura, impulsionando o caminho para a realização de «modelos como ativos».
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implementação, cujos processos principais incluem:
Controle de acesso a dados: o usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
Ajuste fino leve: motor LoRA / QLoRA integrado, exibição em tempo real do progresso de treinamento.
Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamada de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de perguntas e respostas do modelo.
Geração de RAG com rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Série LLaMA: o ecossistema mais amplo, comunidade ativa e desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexível e recursos limitados.
Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com forte capacidade geral, adequado para ser a primeira escolha de desenvolvedores nacionais.
ChatGLM: Efeitos de conversa em chinês destacados, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
Falcon: Foi uma referência de desempenho, adequado para pesquisas básicas ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas bastante forte, mas desempenho de inferência mais fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em implantação real.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prioridade prática".
Model Factory como uma ferramenta de código zero, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Possui vantagens de baixa barreira, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
Para a plataforma: formar a circulação de ativos modelo e ecossistema de combinação;
Para os utilizadores: podem combinar modelos ou Agents como se estivessem a chamar uma API.
3.2 OpenLoRA, a assetização em cadeia de modelos ajustados
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas inserindo "matrizes de baixa classificação" em modelos grandes pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grande tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo original, treinando apenas as novas matrizes de parâmetros inseridas." Seu uso de parâmetros é eficiente, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para implantação e chamadas combinadas de modelos Web3.
OpenLoRA é um framework leve de inferência projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução de "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, abrangendo armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, implementando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento de Adaptador LoRA (Armazenamento de Adaptadores LoRA): O adaptador LoRA ajustado é hospedado na OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória de vídeo, economizando recursos.
Modelagem de Hospedagem e Camada de Fusão Dinâmica (Model
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
8
Partilhar
Comentar
0/400
MissedAirdropBro
· 07-24 23:59
Mais uma vez a IA, até quando vai continuar assim?
Ver originalResponder0
blocksnark
· 07-24 15:44
Quando é que posso aproveitar gratuitamente os grandes modelos de IA?
Ver originalResponder0
DaoGovernanceOfficer
· 07-23 12:04
*sigh* mais um trabalho de composição de modelo sem kpis claros e tokenomics... empiricamente falando, isto não escalará.
Ver originalResponder0
PanicSeller
· 07-22 15:15
Não consigo entender, Puxar o tapete, certo?
Ver originalResponder0
tokenomics_truther
· 07-22 14:56
O garoto despreocupado da indústria
Ver originalResponder0
GasFeeThunder
· 07-22 14:53
O gás está tão caro, como podemos falar de inovação em modelos?
Ver originalResponder0
SchroedingerAirdrop
· 07-22 14:49
Ai, não seja tão intenso, está bem?
Ver originalResponder0
SadMoneyMeow
· 07-22 14:47
Os dados do modelo ainda não são apenas uma especulação de conceito.
OpenLedger: Construir uma infraestrutura econômica de IA orientada por dados e modelos combináveis
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, análogos ao combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. De maneira semelhante à trajetória de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento frequentemente atinge milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo básico reutilizável, normalmente baseia-se em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura de Agent, roteamento dinâmico do sistema de plugins, hot-plug dos módulos LoRA, RAG (Geração Aprimorada por Recuperação) e outras formas. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto reforça o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinado altamente flexível.
Crypto AI no valor e limites da camada de modelo
Os projetos de Crypto AI são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal
No entanto, em cima de modelos básicos de código aberto, os projetos Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Análise da classificação dos tipos de modelos de IA e da aplicabilidade na blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na leve afinação de pequenos SLM, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivo dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode proporcionar um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são chamados, transformando o comportamento da AI em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborarem na mesma plataforma e a receberem rendimentos em cadeia com base na contribuição real.
A OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamadas de compartilhamento de lucros", cujos módulos principais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligentes" orientada por dados e combinável em modelos, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger usa OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alta performance, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em camadas e na soberania dos dados e na arquitetura «AI Agents on BOS», a OpenLedger se concentra mais na construção de cadeias de IA dedicadas à incentiva de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos na cadeia em um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos no estilo HuggingFace, cobrança de uso no estilo Stripe e interfaces combináveis na cadeia no estilo Infura, impulsionando o caminho para a realização de «modelos como ativos».
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implementação, cujos processos principais incluem:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prioridade prática".
Model Factory como uma ferramenta de código zero, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Possui vantagens de baixa barreira, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização em cadeia de modelos ajustados
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas inserindo "matrizes de baixa classificação" em modelos grandes pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grande tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo original, treinando apenas as novas matrizes de parâmetros inseridas." Seu uso de parâmetros é eficiente, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para implantação e chamadas combinadas de modelos Web3.
OpenLoRA é um framework leve de inferência projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução de "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, abrangendo armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, implementando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: