AI Layer1 Relatório: Procurando a terra fértil para DeAI na cadeia
Resumo
Background
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm promovido o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação da humanidade e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes da tecnologia centralizados. Com capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram várias aplicações de "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas críticas e infraestrutura ainda dependendo de serviços de nuvem centralizados, e a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e a amplitude da inovação precisam ser aprimoradas.
Para realmente realizar a visão da IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que rivalize em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, governança democrática e segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1 como uma blockchain projetada especificamente para aplicações de IA, sua arquitetura subjacente e design de desempenho estão intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos como poder computacional e armazenamento. Ao contrário dos nós da blockchain tradicional, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não só incluem fornecer poder computacional e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso subjacente e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e raciocínio de LLM, impõe requisitos extremamente altos em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, raciocínio, armazenamento e outros cenários diversificados. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às demandas de alta vazão, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada de IA 1 não só deve prevenir comportamentos maliciosos do modelo, alterações de dados e outros riscos de segurança, mas também deve garantir, desde a base, a verificabilidade e alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma possibilita que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e os fundamentos da saída da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A AI Layer 1 deve, ao garantir a verificabilidade, utilizar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de raciocínio, treinamento e armazenamento, evitando efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não deve apenas ter liderança técnica, mas também fornecer aos desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promover a implementação de aplicações nativas de IA ricas e diversificadas e alcançar a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços no setor, analisando o estado atual dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente será migrada para Layer 1). Ao combinar Pipeline de IA e tecnologia de blockchain, está construindo um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (Aberto, Lucrativo, Leal), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência de chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim uma rede ecossistêmica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança da IA e proteção da privacidade, enquanto a estratégia de blockchain e o layout ecológico são liderados por Sandeep Nailwal, co-fundador da Polygon. Os membros da equipe vêm de empresas renomadas como Meta, Coinbase, Polygon, bem como de instituições de elite como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP, visão computacional, entre outras, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient já nasceu com um brilho especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, o que oferece um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras VCs renomadas.
Arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos principais:
Planeamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlada por contrato de autorização;
Camada de acesso: verifica se o utilizador está autorizado através da prova de permissões;
Camada de incentivo: o contrato de roteamento de receita irá atribuir o pagamento a cada chamada aos treinadores, implementadores e validadores.
Estrutura de Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo irá disparar um fluxo de receita, o contrato na cadeia irá distribuir a receita entre o treinador, o implementador e o validador.
Lealdade: O modelo pertence à comunidade dos contribuintes, a direção de atualização e a governança são decididas pelo DAO, e o uso e a modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares chave-valor de query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de pergunta query;
Mecanismo de chamada de autorização: Antes de chamar, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema autoriza o modelo a decodificar essa entrada e devolver a resposta correta com base nisso.
Este método permite a realização de "chamadas autorizadas baseadas em comportamento + verificação de afiliação" sem custos de re-criptografia.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza Melange Mistura de Segurança: combina a verificação por impressões digitais, execução TEE e repartição de lucros através de contratos na cadeia. O método de impressões digitais é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, assume conformidade por padrão, e pode detectar e punir violações.
O mecanismo de impressão digital é a implementação chave do OML, que permite ao modelo gerar assinaturas exclusivas durante a fase de treinamento, integrando pares específicos de "perguntas-respostas". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores de modelos, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central na implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE).
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
23 gostos
Recompensa
23
4
Partilhar
Comentar
0/400
AlphaBrain
· 17h atrás
Esta é de facto a direção com a maior popularidade na pista.
Ver originalResponder0
FudVaccinator
· 07-18 04:11
又整这些空气项目 fazer as pessoas de parvas吧
Ver originalResponder0
HashBandit
· 07-17 14:13
bruh estas L1s melhor resolverem o gargalo de computação fr... lembra-me da mineração de eth em 2017 quando a minha fatura de eletricidade me matou
Panorama da camada 1 de IA: 6 grandes projetos lideram a revolução do ecossistema de IA Descentralização
AI Layer1 Relatório: Procurando a terra fértil para DeAI na cadeia
Resumo
Background
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm promovido o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação da humanidade e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes da tecnologia centralizados. Com capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram várias aplicações de "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas críticas e infraestrutura ainda dependendo de serviços de nuvem centralizados, e a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e a amplitude da inovação precisam ser aprimoradas.
Para realmente realizar a visão da IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que rivalize em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, governança democrática e segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1 como uma blockchain projetada especificamente para aplicações de IA, sua arquitetura subjacente e design de desempenho estão intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos como poder computacional e armazenamento. Ao contrário dos nós da blockchain tradicional, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não só incluem fornecer poder computacional e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso subjacente e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e raciocínio de LLM, impõe requisitos extremamente altos em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, raciocínio, armazenamento e outros cenários diversificados. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às demandas de alta vazão, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada de IA 1 não só deve prevenir comportamentos maliciosos do modelo, alterações de dados e outros riscos de segurança, mas também deve garantir, desde a base, a verificabilidade e alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma possibilita que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e os fundamentos da saída da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A AI Layer 1 deve, ao garantir a verificabilidade, utilizar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de raciocínio, treinamento e armazenamento, evitando efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não deve apenas ter liderança técnica, mas também fornecer aos desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promover a implementação de aplicações nativas de IA ricas e diversificadas e alcançar a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços no setor, analisando o estado atual dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente será migrada para Layer 1). Ao combinar Pipeline de IA e tecnologia de blockchain, está construindo um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (Aberto, Lucrativo, Leal), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência de chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim uma rede ecossistêmica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança da IA e proteção da privacidade, enquanto a estratégia de blockchain e o layout ecológico são liderados por Sandeep Nailwal, co-fundador da Polygon. Os membros da equipe vêm de empresas renomadas como Meta, Coinbase, Polygon, bem como de instituições de elite como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP, visão computacional, entre outras, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient já nasceu com um brilho especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, o que oferece um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras VCs renomadas.
Arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos principais:
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura de Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A tecnologia central é:
Este método permite a realização de "chamadas autorizadas baseadas em comportamento + verificação de afiliação" sem custos de re-criptografia.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza Melange Mistura de Segurança: combina a verificação por impressões digitais, execução TEE e repartição de lucros através de contratos na cadeia. O método de impressões digitais é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, assume conformidade por padrão, e pode detectar e punir violações.
O mecanismo de impressão digital é a implementação chave do OML, que permite ao modelo gerar assinaturas exclusivas durante a fase de treinamento, integrando pares específicos de "perguntas-respostas". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores de modelos, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central na implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE).