Rapport de recherche AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain
aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières pratiquement infranchissables, rendant difficile la concurrence pour la grande majorité des développeurs et des équipes d'innovation.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée aux problèmes clés tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur si l'IA doit être "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique suffisante pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures comme Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, des étapes clés et des infrastructures dépendent encore des services cloud centralisés, avec une forte propriété meme, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, nécessitant une amélioration de la profondeur et de l'étendue de l'innovation.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de soutenir des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisée.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a une architecture sous-jacente et une conception de performance étroitement axées sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanismes d'incitation efficaces et de consensus décentralisé Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, compléter l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure IA. Cela soulève des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios diversifiés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI peuvent s'exécuter efficacement, réalisant une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sorties fiables La couche AI Layer 1 doit non seulement prévenir les risques de sécurité tels que les comportements malveillants des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau des mécanismes de base. Grâce à l'intégration de technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque processus d'inférence, d'entraînement et de traitement des données du modèle puisse être vérifié indépendamment, assurant ainsi l'équité et la transparence du système IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à comprendre la logique et les fondements des sorties de l'IA, réalisant le "ce qui est obtenu est ce qui est souhaité", et améliorant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans des domaines tels que la finance, la santé et les réseaux sociaux. L'IA Layer 1 doit garantir la vérifiabilité tout en utilisant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul confidentiel et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus de raisonnement, d'entraînement et de stockage, de prévenir efficacement les fuites et les abus de données, et d'éliminer les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications natives à l'IA riches et variées, réalisant ainsi une prospérité continue de l'écosystème décentralisé de l'IA.
Sur la base de ce contexte et des attentes, cet article présentera en détail six projets représentatifs des AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé et open source de confiance
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de construire une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis elle sera transférée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit un écosystème d'intelligence artificielle décentralisé. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, collaborant ensemble pour faire avancer le projet.
En tant que projet entrepreneurial secondaire de Sandeep Nailwal, cofondateur de Polygon, Sentient est dès sa création entouré d'une aura, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a complété un financement de série Seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres institutions d'investissement incluent Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Conception de l'architecture et couche d'application
Infrastructure layer
Architecture de base
L'architecture de base de Sentient est composée de deux parties : un pipeline d'IA (AI Pipeline) et un système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Entraînement de fidélité (Loyalty Training) : Assurer que le modèle maintienne un processus d'entraînement en accord avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : Vérifie si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : Le contrat de routage des revenus attribue chaque paiement lors d'un appel aux entraîneurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture : le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain distribue les revenus aux formateurs, déployeurs et validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction de la mise à niveau et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native basée sur l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". La technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifier si l'empreinte est conservée par le biais d'un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : un "certificat d'autorisation" délivré par le propriétaire du modèle doit être obtenu avant l'appel, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse correcte.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la validation d'appartenance" sans coût de réécriture.
Cadre de reconnaissance des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. Parmi les méthodes d'empreintes digitales, la méthode OML 1.0 est mise en œuvre comme ligne principale, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et sanction après violation.
Le mécanisme de l'empreinte digitale est une réalisation clé de l'OML, qui permet au modèle de générer une signature unique au cours de la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance élevée et de réactivité en font la technologie centrale du déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance (ZK) et des techniques de cryptage homomorphe complet (FHE).
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
23 J'aime
Récompense
23
4
Partager
Commentaire
0/400
AlphaBrain
· Il y a 17h
C'est vraiment la direction la plus chaude de la piste.
Voir l'originalRépondre0
FudVaccinator
· 07-18 04:11
Encore ces projets fictifs, continuez à prendre les gens pour des idiots.
Voir l'originalRépondre0
HashBandit
· 07-17 14:13
bruh ces L1 doivent vraiment résoudre le goulot d'étranglement de calcul fr... ça me rappelle le minage d'eth en 2017 quand ma facture d'électricité m'a tué
Panorama du secteur AI Layer1 : 6 grands projets menant la révolution de l'écosystème décentralisé de l'IA
Rapport de recherche AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain
aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières pratiquement infranchissables, rendant difficile la concurrence pour la grande majorité des développeurs et des équipes d'innovation.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée aux problèmes clés tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur si l'IA doit être "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique suffisante pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures comme Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, des étapes clés et des infrastructures dépendent encore des services cloud centralisés, avec une forte propriété meme, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, nécessitant une amélioration de la profondeur et de l'étendue de l'innovation.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de soutenir des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisée.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications AI, a une architecture sous-jacente et une conception de performance étroitement axées sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanismes d'incitation efficaces et de consensus décentralisé Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, compléter l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure IA. Cela soulève des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios diversifiés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI peuvent s'exécuter efficacement, réalisant une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sorties fiables La couche AI Layer 1 doit non seulement prévenir les risques de sécurité tels que les comportements malveillants des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau des mécanismes de base. Grâce à l'intégration de technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque processus d'inférence, d'entraînement et de traitement des données du modèle puisse être vérifié indépendamment, assurant ainsi l'équité et la transparence du système IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à comprendre la logique et les fondements des sorties de l'IA, réalisant le "ce qui est obtenu est ce qui est souhaité", et améliorant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans des domaines tels que la finance, la santé et les réseaux sociaux. L'IA Layer 1 doit garantir la vérifiabilité tout en utilisant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul confidentiel et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus de raisonnement, d'entraînement et de stockage, de prévenir efficacement les fuites et les abus de données, et d'éliminer les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, un SDK intégré, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications natives à l'IA riches et variées, réalisant ainsi une prospérité continue de l'écosystème décentralisé de l'IA.
Sur la base de ce contexte et des attentes, cet article présentera en détail six projets représentatifs des AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé et open source de confiance
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de construire une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis elle sera transférée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit un écosystème d'intelligence artificielle décentralisé. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, collaborant ensemble pour faire avancer le projet.
En tant que projet entrepreneurial secondaire de Sandeep Nailwal, cofondateur de Polygon, Sentient est dès sa création entouré d'une aura, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a complété un financement de série Seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres institutions d'investissement incluent Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Conception de l'architecture et couche d'application
Infrastructure layer
Architecture de base
L'architecture de base de Sentient est composée de deux parties : un pipeline d'IA (AI Pipeline) et un système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native basée sur l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". La technologie clé est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la validation d'appartenance" sans coût de réécriture.
Cadre de reconnaissance des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices des contrats off-chain. Parmi les méthodes d'empreintes digitales, la méthode OML 1.0 est mise en œuvre comme ligne principale, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et sanction après violation.
Le mécanisme de l'empreinte digitale est une réalisation clé de l'OML, qui permet au modèle de générer une signature unique au cours de la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance élevée et de réactivité en font la technologie centrale du déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance (ZK) et des techniques de cryptage homomorphe complet (FHE).