AI+Web3 fusion : explorer de nouvelles opportunités de Décentralisation et de Puissance de calcul.

IA+Web3 : Tours et places

TL;DR

  1. Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.

  2. Les opportunités de Web3 dans le secteur de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue traîne------à travers les données, le stockage et le calcul ; en même temps, établir un modèle open source ainsi qu'un marché décentralisé pour les agents IA.

  3. L'IA trouve principalement son utilité dans l'industrie Web3 pour la finance sur la chaîne (paiements cryptographiques, transactions, analyse de données) et le développement auxiliaire.

  4. L'utilité de l'IA+Web3 se manifeste dans la complémentarité des deux : le Web3 devrait lutter contre la centralisation de l'IA, tandis que l'IA devrait aider le Web3 à sortir de son cercle.

AI+Web3 : Tours et Places

Introduction

Au cours des deux dernières années, le développement de l'IA a été comme s'il avait été mis sur le mode accéléré. Cette vague provoquée par Chatgpt a non seulement ouvert un nouveau monde pour l'intelligence artificielle générative, mais a également créé un courant fort dans le Web3.

Avec le soutien du concept d'IA, le financement dans le marché des cryptomonnaies, qui ralentit, a clairement été revitalisé. Les médias rapportent qu'au cours du premier semestre 2024, 64 projets Web3+IA ont achevé un financement, et le système d'exploitation basé sur l'intelligence artificielle Zyber365 a atteint le montant de financement le plus élevé de 100 millions de dollars lors de son tour de financement A.

Le marché secondaire est plus prospère, les données d'un site agrégateur de cryptomonnaies montrent qu'en un peu plus d'un an, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume d'échanges de près de 8,6 milliards de dollars sur 24 heures ; les avancées des technologies IA principales ont apporté des bénéfices évidents, après la publication du modèle de conversion texte-vidéo Sora d'OpenAI, le prix moyen du secteur de l'IA a augmenté de 151 % ; l'effet de l'IA s'étend également à l'un des secteurs d'accumulation de cryptomonnaies, les Memes : le premier concept de MemeCoin d'Agent IA ------ GOAT a rapidement gagné en popularité avec une valorisation de 1,4 milliard de dollars, réussissant à déclencher une vague de Memes IA.

La recherche et les discussions sur AI+Web3 sont également en pleine effervescence, passant de AI+Depin à AI Memecoin, puis aux actuels AI Agent et AI DAO, l'émotion FOMO ne parvient déjà plus à suivre la vitesse de rotation de la nouvelle narration.

AI+Web3, cette combinaison de termes remplie d'argent facile, de tendances et de fantasmes d'avenir, est inévitablement perçue par certains comme un mariage arrangé orchestré par le capital. Il semble difficile de distinguer sous ce manteau magnifique, s'il s'agit vraiment d'un terrain de jeu pour les spéculateurs ou de la veille d'une explosion à l'aube.

Pour répondre à cette question, une réflexion clé pour les deux parties est : est-ce que cela s'améliorerait avec l'autre ? Peut-on bénéficier du modèle de l'autre ? Dans cet article, nous essayons également d'examiner ce schéma en nous appuyant sur les travaux des prédécesseurs : comment Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et que peut apporter l'IA à Web3 pour lui donner une nouvelle vitalité ?

Part.1 Quelles opportunités pour le Web3 sous la pile AI ?

Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :

Exprimer l'ensemble du processus dans un langage plus simple : un « grand modèle » est comme le cerveau humain. À ses débuts, ce cerveau appartient à un bébé qui vient juste de naître et qui doit observer et ingérer une quantité massive d'informations de son environnement pour comprendre ce monde. C'est la phase de « collecte » des données. Étant donné que les ordinateurs ne possèdent pas les sens humains tels que la vision ou l'audition, avant l'entraînement, les informations massives non étiquetées de l'extérieur doivent être transformées par « prétraitement » en un format d'information que l'ordinateur peut comprendre et utiliser.

Après avoir saisi les données, l'IA construit un modèle avec des capacités de compréhension et de prédiction grâce à l'« entraînement », ce qui peut être considéré comme le processus par lequel un bébé commence à comprendre et à apprendre le monde extérieur. Les paramètres du modèle sont similaires aux compétences linguistiques d'un bébé qui s'ajustent continuellement au cours de son apprentissage. Lorsque le contenu appris commence à être divisé par disciplines, ou lorsqu'il communique avec d'autres et reçoit des retours pour se corriger, il entre dans la phase de « fine-tuning » du grand modèle.

Les enfants, en grandissant et en apprenant à parler, peuvent comprendre le sens et exprimer leurs sentiments et idées dans de nouvelles conversations. Cette étape est similaire au « raisonnement » des grands modèles d'IA, où le modèle peut prédire et analyser de nouvelles entrées linguistiques et textuelles. Les bébés expriment leurs sentiments, décrivent des objets et résolvent divers problèmes grâce à leur capacité linguistique, ce qui est également similaire à l'application des grands modèles d'IA à des tâches spécifiques lors de la phase de raisonnement, après avoir terminé l'entraînement et être mis en service, comme la classification d'images, la reconnaissance vocale, etc.

L'agent IA s'approche davantage de la prochaine forme du grand modèle ------ capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, possédant non seulement des capacités de réflexion, mais aussi la mémoire, la planification, et la capacité d'utiliser des outils pour interagir avec le monde.

AI+Web3 : Tours et places

Actuellement, en réponse aux points de douleur de l'IA dans diverses piles, le Web3 a commencé à former un écosystème multi-niveaux et interconnecté, couvrant toutes les étapes du processus des modèles d'IA.

Une, couche de base : Airbnb de puissance de calcul et de données

Puissance de calcul

Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires à l'entraînement et à l'inférence des modèles.

Un exemple est que le LLAMA3 de Meta nécessite 16 000 H100GPU produits par NVIDIA (qui est une unité de traitement graphique de premier plan conçue pour l'intelligence artificielle et les charges de travail de calcul haute performance) pour compléter l'entraînement en 30 jours. Le prix unitaire de la version 80 Go se situe entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique (GPU + puces réseau) de 400 à 700 millions de dollars. De plus, l'entraînement mensuel consomme 1,6 milliard de kilowattheures, avec des dépenses énergétiques mensuelles proches de 20 millions de dollars.

La décompression de la puissance de calcul de l'IA est également l'un des premiers domaines où le Web3 croise l'IA ------ DePin (réseau d'infrastructure physique décentralisée). Actuellement, un site de données DePin a déjà répertorié plus de 1400 projets, parmi lesquels des projets représentant le partage de puissance de calcul GPU incluent io.net, Aethir, Akash, Render Network, etc.

La logique principale réside dans le fait que la plateforme permet aux individus ou entités disposant de ressources GPU inutilisées de contribuer leur puissance de calcul de manière décentralisée et sans autorisation, en créant un marché en ligne pour les acheteurs et les vendeurs, similaire à Uber ou Airbnb, afin d'augmenter le taux d'utilisation des ressources GPU sous-utilisées. Les utilisateurs finaux bénéficient ainsi de ressources de calcul efficaces à moindre coût ; de plus, le mécanisme de mise en jeu garantit que si des violations des mécanismes de contrôle de la qualité ou des interruptions du réseau se produisent, les fournisseurs de ressources subissent des sanctions appropriées.

Ses caractéristiques sont :

  • Rassembler des ressources GPU inutilisées : les fournisseurs sont principalement des centres de données indépendants de taille petite et moyenne, des opérateurs de surplus de capacité de minage de cryptomonnaie, des matériels de minage avec un mécanisme de consensus PoS, tels que les mineurs de FileCoin et d'ETH. Actuellement, il existe également des projets visant à démarrer un réseau de capacité de calcul pour l'inférence de grands modèles avec des équipements à seuil d'entrée plus bas, comme exolab qui utilise des appareils locaux tels que MacBook, iPhone, iPad.

  • Faire face au marché de la puissance de calcul AI à long terme :

a. « D'un point de vue technique », le marché de la puissance de calcul décentralisée est mieux adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données offerte par des GPU à très grande échelle, tandis que les performances de calcul des GPU sont relativement faibles pour l'inférence, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence IA.

b. Du point de vue de la demande, les demandeurs de puissance de calcul moyenne ne formeront pas leur propre grand modèle, mais choisiront plutôt d'optimiser et de peaufiner autour de quelques grands modèles phares, et ces scénarios sont naturellement adaptés aux ressources de calcul inutilisées distribuées.

  • Propriété décentralisée : La signification technique de la blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur leurs ressources, ajustant de manière flexible en fonction des besoins tout en tirant des bénéfices.

Données

Les données sont la base de l'IA. Sans données, le calcul est aussi inutile que des algues flottantes, et la relation entre les données et le modèle est comme le dit populaire "Garbage in, Garbage out". La quantité de données et la qualité des entrées déterminent la qualité de sortie du modèle final. En ce qui concerne l'entraînement des modèles d'IA actuels, les données déterminent les capacités linguistiques, la compréhension, voire les valeurs et les performances humanisées du modèle. Actuellement, les défis liés à la demande de données pour l'IA se concentrent principalement sur quatre aspects :

  • Faim de données : l'entraînement des modèles d'IA dépend d'un grand volume d'entrées de données. Les données publiques montrent qu'OpenAI a atteint un niveau de trillions de paramètres pour l'entraînement de GPT-4.

  • Qualité des données : Avec l'intégration de l'IA dans divers secteurs, la temporalité des données, la diversité des données, la spécialisation des données sectorielles, ainsi que l'intégration de nouvelles sources de données comme les émotions sur les réseaux sociaux, posent de nouvelles exigences en matière de qualité.

  • Problèmes de confidentialité et de conformité : Actuellement, les différents pays et entreprises prennent progressivement conscience de l'importance des ensembles de données de qualité et commencent à restreindre le scraping de ces ensembles de données.

  • Coûts de traitement des données élevés : volume de données important, processus de traitement complexe. Les données publiques montrent que plus de 30 % des coûts de recherche et développement des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.

Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :

  1. Collecte de données : La disponibilité des données réelles extraites gratuitement s'épuise rapidement, et les dépenses des entreprises d'IA pour les données augmentent chaque année. Cependant, cette dépense ne profite pas réellement aux véritables contributeurs de données, les plateformes profitant pleinement de la création de valeur que ces données apportent, comme Reddit qui a réalisé un revenu total de 203 millions de dollars grâce à des accords de licence de données avec des entreprises d'IA.

Permettre aux utilisateurs qui contribuent réellement de participer également à la création de valeur apportée par les données, ainsi qu'à acquérir des données plus privées et plus précieuses à moindre coût grâce à un réseau distribué et à des mécanismes d'incitation, est la vision du Web3.

  • Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer en exécutant des nœuds Grass, en offrant de la bande passante inutilisée et un relais de trafic pour capturer des données en temps réel sur l'ensemble d'Internet, et de recevoir des récompenses en jetons ;

  • Vana a introduit un concept unique de pool de liquidité des données (DLP), permettant aux utilisateurs de télécharger leurs données privées (telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc.) dans un DLP spécifique et de choisir librement s'ils souhaitent autoriser des tiers spécifiques à utiliser ces données ;

  • Dans PublicAI, les utilisateurs peuvent utiliser #AI 或#Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.

  1. Prétraitement des données : Dans le processus de traitement des données par l'IA, les données collectées sont souvent bruyantes et contiennent des erreurs. Elles doivent être nettoyées et converties en un format utilisable avant d'entraîner le modèle, ce qui implique des tâches répétitives telles que la normalisation, le filtrage et le traitement des valeurs manquantes. Cette étape est l'un des rares moments où l'intervention humaine est nécessaire dans l'industrie de l'IA, ayant donné naissance au métier de data annotator. Avec l'augmentation des exigences de qualité des données pour les modèles, le seuil d'entrée pour les data annotators a également augmenté, et cette tâche est naturellement adaptée au mécanisme d'incitation décentralisé de Web3.
  • Actuellement, Grass et OpenLayer envisagent tous deux d'intégrer l'annotation des données dans cette étape clé.

  • Synesis a introduit le concept de « Train2earn », soulignant l'importance de la qualité des données. Les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.

  • Le projet de marquage de données Sapien rend les tâches de marquage ludiques et permet aux utilisateurs de miser des points pour en gagner davantage.

  1. Confidentialité et sécurité des données : Il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts différents. La confidentialité des données concerne le traitement des données sensibles, alors que la sécurité des données vise à protéger les informations contre les accès, destructions et vols non autorisés. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent de deux manières : (1) Entraînement de données sensibles ; (2) Collaboration des données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager leurs données brutes.

Les technologies de confidentialité couramment utilisées dans le Web3 comprennent :

  • Environnement d'exécution de confiance ( TEE ), par exemple Super Protocol;

  • Chiffrement homomorphe complet (FHE), par exemple BasedAI, Fhenix.io ou Inco Network ;

  • Les technologies de preuve à divulgation nulle de connaissance (zk), comme le Reclaim Protocol qui utilise la technologie zkTLS, génèrent des preuves à divulgation nulle de connaissance pour le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des activités, de la réputation et des données d'identité depuis des sites externes, sans exposer d'informations sensibles.

Cependant, ce domaine en est encore à ses débuts, la plupart des projets sont encore en phase d'exploration. Un des dilemmes actuels est que le coût de calcul est trop élevé, quelques exemples sont :

  • cadre zkML
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
NestedFoxvip
· Il y a 11h
Ça chauffe maintenant, tous les projets intègrent l'IA.
Voir l'originalRépondre0
TokenToastervip
· Il y a 11h
C'est juste un effet de mode.
Voir l'originalRépondre0
CryptoSurvivorvip
· Il y a 11h
Cette vague est stable, faites plus de jetons liés à l'IA.
Voir l'originalRépondre0
GateUser-cff9c776vip
· Il y a 11h
web3 veut encore sauver l'IA ? La décentralisation de Schrödinger
Voir l'originalRépondre0
DaoGovernanceOfficervip
· Il y a 11h
*soupir* empiriquement parlant, c'est juste un théâtre de décentralisation 2.0
Voir l'originalRépondre0
GasFeeWhisperervip
· Il y a 11h
L'univers de la cryptomonnaie est vraiment partout.
Voir l'originalRépondre0
ShibaOnTheRunvip
· Il y a 11h
C'est vraiment tentant. Qui peut résister à l'attrait de l'argent ?
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)