A interseção entre IA e DePIN: a ascensão das redes GPU descentralizadas
Desde 2023, a IA e o DePIN tornaram-se tendências populares no espaço Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo explorará a interseção entre os dois e estudará o desenvolvimento dos protocolos neste campo.
Na pilha de tecnologia de IA, a rede DePIN fornece utilidade para a IA através de recursos computacionais. O desenvolvimento de grandes empresas de tecnologia levou à escassez de GPUs, dificultando a obtenção de GPUs suficientes para cálculos por outros desenvolvedores. A DePIN oferece uma alternativa mais flexível e econômica, utilizando recompensas em tokens para incentivar as contribuições de recursos que estão alinhadas com os objetivos da rede.
AI DePIN irá descentralizar recursos de GPU de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam acessar hardware. Isso não apenas oferece personalização e acesso sob demanda para desenvolvedores, mas também fornece uma renda extra para os proprietários de GPU.
Visão Geral da Rede DePIN de IA
Render
Render é um pioneiro na rede P2P que oferece capacidade de computação GPU, focado na renderização de gráficos para criação de conteúdo, e posteriormente expandiu para incluir tarefas de computação que vão desde campos de reflexão neurais até IA generativa.
Destaques:
Fundada pela empresa de gráficos em nuvem OTOY, que possui tecnologia premiada com o Oscar.
A rede GPU já foi utilizada por grandes empresas do setor de entretenimento, como a Paramount Pictures e PUBG.
Colaborar com a Stability AI e a Endeavor, integrando modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
Aprovar vários clientes de computação, integrar mais GPUs da rede DePIN
Akash
Akash é posicionado como uma alternativa de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar software de forma sem costura em diferentes ambientes e executar qualquer aplicação nativa da nuvem.
Destaques:
Para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na web
AkashML permite executar mais de 15.000 modelos no Hugging Face
Alojou o chatbot do modelo LLM da Mistral AI, o modelo SDXL da Stability AI e outras aplicações
A construção de plataformas para o metaverso, implantação de IA e aprendizado federado está a utilizar o Supercloud
io.net
A io.net oferece acesso a clusters de GPU em nuvem distribuídos, projetados para casos de uso de IA e ML. Ele agrega recursos de GPU de data centers, mineradores de criptomoedas e outras redes descentralizadas.
Destaques:
O IO-SDK é compatível com frameworks como PyTorch e Tensorflow, e a arquitetura em múltiplas camadas pode ser expandida dinamicamente de acordo com as necessidades de cálculo.
Suporta a criação de 3 tipos diferentes de clusters, que podem ser iniciados em 2 minutos
Integração de recursos de GPU em colaboração com Render, Filecoin, Aethir e Exabits
Gensyn
Gensyn fornece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Afirma ter alcançado um mecanismo de validação mais eficiente através de conceitos como prova de aprendizado, protocolos de localização precisa baseados em gráficos e jogos de incentivo envolvendo provedores de computação para staking e redução.
Destaques:
O custo por hora de um GPU equivalente ao V100 é estimado em cerca de 0,40 dólares, o que representa uma grande economia de custos.
Pode ajustar o modelo base pré-treinado para realizar tarefas mais específicas
Estes modelos básicos serão Descentralizados, de propriedade global, oferecendo funcionalidades adicionais
Aethir
Aethir é especializado em GPUs empresariais, focando em áreas de computação intensiva, principalmente em IA, aprendizado de máquina, jogos em nuvem, entre outros. Os contêineres na sua rede atuam como pontos finais virtuais para executar aplicações baseadas em nuvem, transferindo a carga de trabalho dos dispositivos locais para os contêineres, proporcionando uma experiência de baixa latência.
Destaques:
Expansão para serviços de smartphone na nuvem, parceria com a APhone para lançar smartphones inteligentes na nuvem com Descentralização.
Estabelecer ampla cooperação com grandes empresas Web2 como NVIDIA, Super Micro e HPE
No domínio do Web3, com múltiplos parceiros como CARV, Magic Eden, Sequence, entre outros.
Phala Network
A Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através do uso de um ambiente de execução confiável (TEE).
Destaques:
Actuar como um protocolo de coprocessador verificável, permitindo que os agentes de IA acessem recursos na blockchain.
Os contratos de agente AI podem ser obtidos através do Redpill com os principais modelos de linguagem de grande escala como OpenAI, Llama.
O futuro incluirá sistemas de múltiplas provas, como zk-proofs, computação multipartidária e criptografia homomórfica completa.
Planejamento para suportar H100 e outras GPUs TEE, aumentando a capacidade de computação
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPU | GPU | CPU |
| Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia |
| Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução |
| Preço do trabalho | Preço baseado no desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de Dados | Criptografia&Hashing | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE |
| Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional à quantia em staking |
| Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária |
| Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó do Verificador | Prova Remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de computação em cluster e paralela
A estrutura de computação distribuída implementou um cluster de GPU, oferecendo um treinamento mais eficiente, ao mesmo tempo que melhora a escalabilidade. Treinar modelos de IA complexos requer uma capacidade de computação poderosa, frequentemente dependendo da computação distribuída para atender às demandas. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhões de parâmetros e foi treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
A maioria dos projetos de destaque agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, incorporou mais GPUs à sua rede e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, seu funcionamento é semelhante, dividindo um único quadro em múltiplos nós para processamento simultâneo. A Phala atualmente suporta apenas CPUs, mas permite a clusterização de trabalhadores de CPU.
Privacidade de dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem conter informações sensíveis. Portanto, é crucial tomar medidas de segurança adequadas para proteger a privacidade dos dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. Render utiliza criptografia e hashing ao publicar resultados de renderização, io.net e Gensyn adotam criptografia de dados, e Akash usa autenticação mTLS.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia homomórfica totalmente (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar primeiro. A Phala Network introduziu um ambiente de execução confiável (TEE), que impede o acesso ou modificação de dados por processos externos através de mecanismos de isolamento.
Prova de conclusão de cálculo e verificação de qualidade
Devido à ampla gama de serviços, desde a renderização de gráficos até cálculos de IA, a qualidade final pode não corresponder necessariamente aos padrões do usuário. A conclusão de provas e a verificação de qualidade são benéficas para o usuário.
A Gensyn e a Aethir geram provas após a conclusão dos cálculos, e a prova da io.net indica que o desempenho da GPU alugada foi plenamente utilizado. Tanto a Gensyn quanto a Aethir realizam verificações de qualidade nos cálculos concluídos. A Render recomenda o uso de um processo de resolução de disputas; se o comitê de revisão encontrar problemas com um nó, esse nó será penalizado. Após a conclusão, a Phala gera uma prova TEE, garantindo que o agente de IA execute as operações necessárias na cadeia.
O treinamento de modelos de IA requer GPUs com desempenho ideal, como a A100 e a H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a GPU preferida, especialmente para grandes empresas que estão treinando seu próprio LLM.
Os provedores de mercado de GPU descentralizada devem competir com os seus pares da Web2, não só oferecendo preços mais baixos, mas também atendendo às necessidades reais do mercado. Tendo em conta a dificuldade de adquirir hardware equivalente, a quantidade de hardware que esses projetos podem trazer para a rede a baixo custo é crucial para a expansão dos serviços.
Akash tem apenas um pouco mais de 150 unidades H100 e A100, enquanto io.net e Aethir obtiveram mais de 2000 unidades cada. Normalmente, pré-treinar LLM ou modelos geradores desde o início requer pelo menos de 248 a mais de 2000 GPUs em um cluster, por isso os dois últimos projetos são mais adequados para cálculos de modelos grandes.
Atualmente, o custo destes serviços de GPU descentralizados no mercado é muito mais baixo do que o dos serviços de GPU centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware equivalente ao A100 por menos de 1 dólar por hora, mas isso ainda precisa ser comprovado ao longo do tempo.
Os clusters de GPU conectados à rede possuem um grande número de GPUs, com custos por hora mais baixos, mas a sua memória é limitada em comparação com as GPUs conectadas via NVLink. O NVLink suporta comunicação direta entre várias GPUs, sem a necessidade de transferir dados entre a CPU e a GPU, proporcionando alta largura de banda e baixa latência.
Apesar disso, para os usuários com demandas de carga de trabalho dinâmicas ou que necessitam de flexibilidade e capacidade para distribuir cargas de trabalho por vários nós, a rede GPU descentralizada ainda pode oferecer uma potência de computação robusta e escalabilidade para tarefas de computação distribuída.
Fornecer GPU/CPU de nível de consumo
Embora a GPU seja a principal unidade de processamento necessária para renderização e cálculos, a CPU também desempenha um papel importante no treinamento de modelos de IA. GPUs de consumo também podem ser usadas para tarefas menos intensivas, como ajustar modelos que já foram pré-treinados ou treinar modelos de menor escala em conjuntos de dados menores.
Considerando que mais de 85% dos recursos de GPU dos consumidores estão inativos, projetos como Render, Akash e io.net também podem atender a essa parte do mercado. Oferecer essas opções permite que eles desenvolvam seu próprio nicho de mercado, focando em computação intensiva em larga escala, renderização em pequena escala mais genérica ou uma mistura de ambos.
Conclusão
O campo do DePIN de IA ainda é relativamente novo e enfrenta seus próprios desafios. No entanto, o número de tarefas e de hardware executados nessas redes de GPU descentralizadas continua a aumentar significativamente. Essa tendência comprova o ajuste do mercado de produtos das redes DePIN de IA, que resolvem efetivamente os desafios relacionados à demanda e à oferta.
Olhando para o futuro, a trajetória de desenvolvimento da inteligência artificial aponta para um mercado em crescimento de trilhões de dólares. Essas redes de GPU descentralizadas fornecerão uma economia alta para os desenvolvedores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
4
Compartilhar
Comentário
0/400
retroactive_airdrop
· 20h atrás
bull Web Card ainda pode minerar
Ver originalResponder0
0xSoulless
· 20h atrás
idiotas novamente têm um novo lugar para fazer as pessoas de parvas
Ver originalResponder0
Fren_Not_Food
· 21h atrás
Não sei mais nada, só pergunto se ainda se pode comprar na baixa um equipamento de mineração de GPU.
Ver originalResponder0
NeverPresent
· 21h atrás
Quem vai aproveitar as oportunidades com as N-cards?
AI e DePIN em fusão: a rede GPU descentralizada lidera uma nova tendência de poder de computação
A interseção entre IA e DePIN: a ascensão das redes GPU descentralizadas
Desde 2023, a IA e o DePIN tornaram-se tendências populares no espaço Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo explorará a interseção entre os dois e estudará o desenvolvimento dos protocolos neste campo.
Na pilha de tecnologia de IA, a rede DePIN fornece utilidade para a IA através de recursos computacionais. O desenvolvimento de grandes empresas de tecnologia levou à escassez de GPUs, dificultando a obtenção de GPUs suficientes para cálculos por outros desenvolvedores. A DePIN oferece uma alternativa mais flexível e econômica, utilizando recompensas em tokens para incentivar as contribuições de recursos que estão alinhadas com os objetivos da rede.
AI DePIN irá descentralizar recursos de GPU de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam acessar hardware. Isso não apenas oferece personalização e acesso sob demanda para desenvolvedores, mas também fornece uma renda extra para os proprietários de GPU.
Visão Geral da Rede DePIN de IA
Render
Render é um pioneiro na rede P2P que oferece capacidade de computação GPU, focado na renderização de gráficos para criação de conteúdo, e posteriormente expandiu para incluir tarefas de computação que vão desde campos de reflexão neurais até IA generativa.
Destaques:
Akash
Akash é posicionado como uma alternativa de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar software de forma sem costura em diferentes ambientes e executar qualquer aplicação nativa da nuvem.
Destaques:
io.net
A io.net oferece acesso a clusters de GPU em nuvem distribuídos, projetados para casos de uso de IA e ML. Ele agrega recursos de GPU de data centers, mineradores de criptomoedas e outras redes descentralizadas.
Destaques:
Gensyn
Gensyn fornece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Afirma ter alcançado um mecanismo de validação mais eficiente através de conceitos como prova de aprendizado, protocolos de localização precisa baseados em gráficos e jogos de incentivo envolvendo provedores de computação para staking e redução.
Destaques:
Aethir
Aethir é especializado em GPUs empresariais, focando em áreas de computação intensiva, principalmente em IA, aprendizado de máquina, jogos em nuvem, entre outros. Os contêineres na sua rede atuam como pontos finais virtuais para executar aplicações baseadas em nuvem, transferindo a carga de trabalho dos dispositivos locais para os contêineres, proporcionando uma experiência de baixa latência.
Destaques:
Phala Network
A Phala Network atua como a camada de execução para soluções de IA Web3. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através do uso de um ambiente de execução confiável (TEE).
Destaques:
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia | | Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço do trabalho | Preço baseado no desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hashing | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional à quantia em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó do Verificador | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de computação em cluster e paralela
A estrutura de computação distribuída implementou um cluster de GPU, oferecendo um treinamento mais eficiente, ao mesmo tempo que melhora a escalabilidade. Treinar modelos de IA complexos requer uma capacidade de computação poderosa, frequentemente dependendo da computação distribuída para atender às demandas. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhões de parâmetros e foi treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
A maioria dos projetos de destaque agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, incorporou mais GPUs à sua rede e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, seu funcionamento é semelhante, dividindo um único quadro em múltiplos nós para processamento simultâneo. A Phala atualmente suporta apenas CPUs, mas permite a clusterização de trabalhadores de CPU.
Privacidade de dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem conter informações sensíveis. Portanto, é crucial tomar medidas de segurança adequadas para proteger a privacidade dos dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. Render utiliza criptografia e hashing ao publicar resultados de renderização, io.net e Gensyn adotam criptografia de dados, e Akash usa autenticação mTLS.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia homomórfica totalmente (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar primeiro. A Phala Network introduziu um ambiente de execução confiável (TEE), que impede o acesso ou modificação de dados por processos externos através de mecanismos de isolamento.
Prova de conclusão de cálculo e verificação de qualidade
Devido à ampla gama de serviços, desde a renderização de gráficos até cálculos de IA, a qualidade final pode não corresponder necessariamente aos padrões do usuário. A conclusão de provas e a verificação de qualidade são benéficas para o usuário.
A Gensyn e a Aethir geram provas após a conclusão dos cálculos, e a prova da io.net indica que o desempenho da GPU alugada foi plenamente utilizado. Tanto a Gensyn quanto a Aethir realizam verificações de qualidade nos cálculos concluídos. A Render recomenda o uso de um processo de resolução de disputas; se o comitê de revisão encontrar problemas com um nó, esse nó será penalizado. Após a conclusão, a Phala gera uma prova TEE, garantindo que o agente de IA execute as operações necessárias na cadeia.
Dados estatísticos de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantidade | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Exigências de GPU de alto desempenho
O treinamento de modelos de IA requer GPUs com desempenho ideal, como a A100 e a H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a GPU preferida, especialmente para grandes empresas que estão treinando seu próprio LLM.
Os provedores de mercado de GPU descentralizada devem competir com os seus pares da Web2, não só oferecendo preços mais baixos, mas também atendendo às necessidades reais do mercado. Tendo em conta a dificuldade de adquirir hardware equivalente, a quantidade de hardware que esses projetos podem trazer para a rede a baixo custo é crucial para a expansão dos serviços.
Akash tem apenas um pouco mais de 150 unidades H100 e A100, enquanto io.net e Aethir obtiveram mais de 2000 unidades cada. Normalmente, pré-treinar LLM ou modelos geradores desde o início requer pelo menos de 248 a mais de 2000 GPUs em um cluster, por isso os dois últimos projetos são mais adequados para cálculos de modelos grandes.
Atualmente, o custo destes serviços de GPU descentralizados no mercado é muito mais baixo do que o dos serviços de GPU centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware equivalente ao A100 por menos de 1 dólar por hora, mas isso ainda precisa ser comprovado ao longo do tempo.
Os clusters de GPU conectados à rede possuem um grande número de GPUs, com custos por hora mais baixos, mas a sua memória é limitada em comparação com as GPUs conectadas via NVLink. O NVLink suporta comunicação direta entre várias GPUs, sem a necessidade de transferir dados entre a CPU e a GPU, proporcionando alta largura de banda e baixa latência.
Apesar disso, para os usuários com demandas de carga de trabalho dinâmicas ou que necessitam de flexibilidade e capacidade para distribuir cargas de trabalho por vários nós, a rede GPU descentralizada ainda pode oferecer uma potência de computação robusta e escalabilidade para tarefas de computação distribuída.
Fornecer GPU/CPU de nível de consumo
Embora a GPU seja a principal unidade de processamento necessária para renderização e cálculos, a CPU também desempenha um papel importante no treinamento de modelos de IA. GPUs de consumo também podem ser usadas para tarefas menos intensivas, como ajustar modelos que já foram pré-treinados ou treinar modelos de menor escala em conjuntos de dados menores.
Considerando que mais de 85% dos recursos de GPU dos consumidores estão inativos, projetos como Render, Akash e io.net também podem atender a essa parte do mercado. Oferecer essas opções permite que eles desenvolvam seu próprio nicho de mercado, focando em computação intensiva em larga escala, renderização em pequena escala mais genérica ou uma mistura de ambos.
Conclusão
O campo do DePIN de IA ainda é relativamente novo e enfrenta seus próprios desafios. No entanto, o número de tarefas e de hardware executados nessas redes de GPU descentralizadas continua a aumentar significativamente. Essa tendência comprova o ajuste do mercado de produtos das redes DePIN de IA, que resolvem efetivamente os desafios relacionados à demanda e à oferta.
Olhando para o futuro, a trajetória de desenvolvimento da inteligência artificial aponta para um mercado em crescimento de trilhões de dólares. Essas redes de GPU descentralizadas fornecerão uma economia alta para os desenvolvedores.