OpenLedger lançou uma cadeia de incentivo de modelo de IA baseada em OP Stack+EigenDA para construir uma economia de agentes inteligentes combináveis.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uma, Introdução | A transição do modelo Crypto AI

Dados, modelos e poder computacional são os três principais elementos do infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como o caminho de evolução da infraestrutura da indústria tradicional de IA, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( certas plataformas etc. ), enfatizando amplamente a lógica de crescimento extensivo de “competição de poder computacional”. Ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI da competição por recursos de base para uma construção de meio mais sustentável e de valor aplicado.

Modelo Genérico (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a vários milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve baseado em um modelo fundamental reutilizável, geralmente é baseado em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

É importante notar que o SLM não será integrado ao peso do LLM, mas sim colaborará com o LLM através de chamadas da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping do módulo LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM e, ao mesmo tempo, melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.

Valor e limites da Crypto AI na camada de modelo

Os projetos de IA cripto são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é

  • Barreiras tecnológicas muito altas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo de Fundação são imensos, atualmente apenas gigantes da tecnologia como os EUA (algumas empresas, etc.) e a China (algumas empresas, etc.) possuem a capacidade correspondente.
  • Limitações do ecossistema de código aberto: Embora modelos base como LLaMA e Mixtral tenham sido tornados públicos, a verdadeira chave para a superação dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para a participação de projetos em blockchain no nível dos modelos principais.

No entanto, em cima de modelos básicos de código aberto, o projeto Crypto AI ainda pode estender seu valor através do ajuste fino de Modelos de Linguagem Especializados (SLM) e combinar a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:

  • Camada de Verificação Confiável: Através do registo em cadeia do caminho gerado pelo modelo, da contribuição de dados e da utilização, aumenta a rastreabilidade e a resistência à adulteração das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes, entre outros comportamentos, construindo um ciclo positivo de treinamento e serviço de modelos.

Classificação de tipos de modelos de IA e análise da aplicabilidade da blockchain

Como pode ser visto, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos estão principalmente concentrados na afinação leve de pequenos SLM, na integração e validação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos baixos e médios, formando um valor diferenciado da "camada de interface" da IA.

A cadeia blockchain de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo, participar da formulação e iteração de regras através de votação com tokens, aprimorando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter ganhos em cadeia com base nas suas contribuições reais.

OpenLedger oferece um ciclo completo da "fornecimento de dados" até "implementação de modelos" e "chamada de distribuição de lucros", cujos módulos principais incluem:

  • Fábrica de Modelos: não é necessário programar, é possível usar o LoRA para ajustar, treinar e implantar modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registo de chamadas na cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): Mercado de modelos em cadeia que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada a dados e modelarmente combinável, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base na OP Stack: baseado na pilha tecnológica da Optimism, suporta alta taxa de transferência e execução de baixas taxas;
  • Liquidar na mainnet Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: facilita o desenvolvimento para os desenvolvedores implementarem e expandirem rapidamente com base no Solidity;
  • EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em camadas inferiores e enfatizam a soberania de dados e a arquitetura "AI Agents on BOS", a OpenLedger concentra-se mais na construção de cadeias de IA especializadas voltadas para incentivos de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos na cadeia um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivo de modelos no mundo Web3, combinando o alojamento de modelos em certas plataformas, a cobrança de uso em certas plataformas e interfaces combináveis na cadeia em certas plataformas, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, Componentes e Arquitetura Técnica do OpenLedger

3.1 Model Factory, sem necessidade de código modelo fábrica

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece operações puramente através de uma interface gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Foi implementado um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração do modelo: Suporta LLMs populares (como LLaMA, Mistral), configuração de hiperparâmetros através da GUI.
  • Ajuste fino leve: motor LoRA / QLoRA incorporado, exibe o progresso do treinamento em tempo real.
  • Avaliação e implementação do modelo: Ferramentas de avaliação integradas, suportam exportação para implantação ou chamada de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG com rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, controle de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, com interação em tempo real e monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O quadro a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: a mais ampla ecologia, comunidade ativa e forte desempenho geral, é um dos modelos fundamentais de código aberto mais populares atualmente.
  • Mistral: arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produto de uma empresa, com desempenho excepcional em tarefas em chinês, forte capacidade geral, ideal para desenvolvedores nacionais como primeira escolha.
  • ChatGLM: O efeito de diálogo em chinês é notável, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Um modelo leve lançado por uma empresa, com estrutura clara, fácil de usar e experimentar rapidamente.
  • Falcon: Já foi um padrão de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a várias línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura de linguagem.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prioridade prática".

Model Factory como uma cadeia de ferramentas sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuintes de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo limiar, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelados;
  • Para os utilizadores: podem combinar modelos ou Agentes da mesma forma que chamam a API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste de parâmetros que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para a implementação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "AI Pagável" (Payable AI).

OpenLoRA arquitetura do sistema componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de requisições e outros aspectos críticos, realizando implantação e capacidade de chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de armazenamento de adaptadores LoRA ( Armazenamento de adaptadores LoRA ): adaptadores LoRA afinados são hospedados na OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos.
OP-8.42%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 7
  • Compartilhar
Comentário
0/400
MindsetExpandervip
· 13h atrás
Uma onda de fazer as pessoas de parvas com a moeda, apenas isso.
Ver originalResponder0
MEVSandwichvip
· 13h atrás
Dá-me um resumo em chinês, por favor.
Ver originalResponder0
MaticHoleFillervip
· 13h atrás
Estou otimista com a IA desta vez.
Ver originalResponder0
OnchainSnipervip
· 13h atrás
Mais um dia de poder de computação.
Ver originalResponder0
RugpullAlertOfficervip
· 14h atrás
Avançar para o puxar o tapete do agente inteligente
Ver originalResponder0
BlockchainTherapistvip
· 14h atrás
Parece muito bonito, vamos experimentar.
Ver originalResponder0
MidnightSellervip
· 14h atrás
Nestes tempos, ainda é possível fazer projetos de IA sem garrafa de molho?
Ver originalResponder0
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)