Trusta.AI : combler le fossé de confiance entre l'homme et la machine
1. Introduction
Avec la maturation rapide des infrastructures d'IA et le développement des cadres de collaboration multi-agents, les agents on-chain alimentés par l'IA deviennent rapidement le pilier des interactions Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adoptent massivement les transactions et interactions on-chain, pouvant même remplacer 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.
Ces agents IA ne sont pas seulement des "robots" qui exécutent des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome, redéfinissant l'ordre sur la chaîne, facilitant la fluidité financière et même guidant les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur la "participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure blockchain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine phase d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des personnes réelles et de réputation on-chain de Web3. Il fournit des services d'analyse de données on-chain et de certification des personnes réelles pour des chaînes publiques de premier plan telles que Linea, Starknet, Celestia, Arbitrum, Manta, Plume, etc. Plus de 2,5 millions de certifications on-chain ont été réalisées sur des chaînes majeures comme Linea, BSC et TON, devenant le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant une triple mécanique d'établissement d'identité, de quantification d'identité et de protection d'identité pour offrir des services financiers et sociaux en ligne pour les agents AI, établissant une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 futur, les agents IA joueront un rôle crucial, capables non seulement de réaliser des interactions et des transactions sur la chaîne, mais aussi d'effectuer des opérations complexes hors chaîne. Cependant, la distinction entre de véritables agents IA et des opérations influencées par l'homme est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents IA dans les domaines social, financier et de gouvernance doivent être basés sur une solide fondation d'authentification d'identité.
Les scénarios d'application des agents IA deviennent de plus en plus riches, englobant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante augmentation. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une validation d'identité efficace, les agents IA peuvent être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques en matière de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa technologie de pointe et à son système de crédibilité rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents d'IA, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de la phase de semence réalisés, dirigés par SevenX Ventures et Vision Plus Capital, d'autres participants incluent HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'une nouvelle levée de fonds, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité d'Ant Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application des technologies de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à forte concurrence, disposant de solides capacités d'ingénierie et d'une capacité à mettre en œuvre des solutions innovantes.
3. Architecture Technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données clés et le processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails de l'exécution interne, construisant ainsi une barrière solide pour la sécurité de l'information des Agents IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : le montant des interactions (Monétaire), le niveau d'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs en chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes blockchains telles que Celestia, Starknet, Arbitrum, Manta et Linea, en tant que critère de référence important pour la sélection des candidats à l'airdrop. Il ne se limite pas à la valeur des interactions, mais englobe également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs de haute valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à démontrer son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score vers le scénario des agents AI, établissant un système d'évaluation Sigma plus adapté à la logique de comportement des agents intelligents.
Spécialisation de la spécification : expertise et degré de spécialisation des agents.
Influence: influence sociale et numérique des agents.
Engagement : la cohérence et la fiabilité de ses interactions sur la chaîne et hors chaîne.
Monétaire : santé financière et stabilité de l'écosystème des jetons d'agence.
Taux d'adoption : fréquence et efficacité de l'utilisation des agents IA.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" sur cinq dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur le professionnalisme et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de l'étendue à la profondeur, mieux adapté aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le niveau d'engagement (Engagement) reflète s'il y a une contribution stable et continue à l'interaction pratique, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est le retour de réputation généré après la participation dans la communauté ou le réseau, représentant la crédibilité et l'effet de diffusion des agents. La valeur monétaire (Monetary) évalue si elle possède une capacité d'accumulation de valeur et une stabilité financière dans le système économique, établissant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans l'utilisation réelle, ce qui constitue la validation finale de toutes les capacités et performances préalables.
Ce système est structuré de manière progressive et claire, capable de refléter de manière exhaustive les compétences et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les qualités abstraites en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI renommés tels que Virtual, Elisa OS, et Swarm, montrant ainsi son immense potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures AI fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de celle-ci. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, attaqués, ou soumis à une intervention humaine non autorisée. Le système identifie les déviations potentielles durant le fonctionnement des agents par le biais de l'analyse comportementale et de l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre et la stratégie établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Présentation du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent IA en chaîne (DID), et évalue et indexe sa fiabilité sur la base des données de comportement en chaîne, construisant un système de confiance pour les agents IA qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents IA du réseau et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée AgentGo, promouvant ainsi le développement sain de l'écosystème des agents intelligents.
Vérification et validation de l'identité des utilisateurs humains :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de confiance d'un agent AI, afin de déterminer s'il est fiable.
Scénario de chat de groupe social : dans une équipe de projet utilisant un bot IA pour gérer la communauté ou prendre la parole, les utilisateurs de la communauté peuvent vérifier via le tableau de bord si cette IA est un véritable agent autonome, afin d'éviter d'être induits en erreur ou manipulés par de "faux IA".
Appel automatique de l'index et vérification par l'agent IA :
Les IA peuvent directement lire l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
Scénario de régulation financière : Si un agent IA émet de la monnaie de manière autonome, le système peut directement indexer son DID et sa note, déterminer s'il s'agit d'un agent IA certifié et se connecter automatiquement à des plateformes comme CoinMarketCap, aidant à suivre la circulation des actifs et la conformité à l'émission.
Scénario de vote de gouvernance : Lorsqu'un vote basé sur l'IA est introduit dans une proposition de gouvernance, le système peut vérifier si l'initiateur ou le participant au vote est un véritable agent AI, évitant ainsi que les droits de vote ne soient contrôlés et abusés par des humains.
Prêts DeFi : Les protocoles de prêt peuvent accorder à l'Agent AI des montants de crédit différents en fonction du système de notation SIGMA, formant des relations financières natives entre les agents.
L'Agent DID n'est plus seulement une "identité", mais constitue également le soutien fondamental pour la construction de fonctionnalités clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
5
Partager
Commentaire
0/400
ZKSherlock
· Il y a 5h
en fait... tu manques le point le plus critique concernant la vérification à connaissance nulle smh, 80 % d'adoption de l'IA ne signifie rien sans de véritables preuves d'identité cryptographique.
Voir l'originalRépondre0
ReverseFOMOguy
· Il y a 11h
Si vous ne suivez pas la tendance, vous serez éliminé.
Voir l'originalRépondre0
ContractTester
· Il y a 11h
off-chain Bots remplacent les humains ? On y va d'abord.
Voir l'originalRépondre0
BearMarketHustler
· Il y a 11h
Encore une arnaque pour tromper les investisseurs.
Trusta.AI : Construire une infrastructure de confiance Web3 pour conduire une nouvelle ère de vérification d'identification des agents AI off-chain.
Trusta.AI : combler le fossé de confiance entre l'homme et la machine
1. Introduction
Avec la maturation rapide des infrastructures d'IA et le développement des cadres de collaboration multi-agents, les agents on-chain alimentés par l'IA deviennent rapidement le pilier des interactions Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adoptent massivement les transactions et interactions on-chain, pouvant même remplacer 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.
Ces agents IA ne sont pas seulement des "robots" qui exécutent des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome, redéfinissant l'ordre sur la chaîne, facilitant la fluidité financière et même guidant les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur la "participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure blockchain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine phase d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des personnes réelles et de réputation on-chain de Web3. Il fournit des services d'analyse de données on-chain et de certification des personnes réelles pour des chaînes publiques de premier plan telles que Linea, Starknet, Celestia, Arbitrum, Manta, Plume, etc. Plus de 2,5 millions de certifications on-chain ont été réalisées sur des chaînes majeures comme Linea, BSC et TON, devenant le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant une triple mécanique d'établissement d'identité, de quantification d'identité et de protection d'identité pour offrir des services financiers et sociaux en ligne pour les agents AI, établissant une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 futur, les agents IA joueront un rôle crucial, capables non seulement de réaliser des interactions et des transactions sur la chaîne, mais aussi d'effectuer des opérations complexes hors chaîne. Cependant, la distinction entre de véritables agents IA et des opérations influencées par l'homme est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents IA dans les domaines social, financier et de gouvernance doivent être basés sur une solide fondation d'authentification d'identité.
Les scénarios d'application des agents IA deviennent de plus en plus riches, englobant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante augmentation. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une validation d'identité efficace, les agents IA peuvent être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques en matière de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa technologie de pointe et à son système de crédibilité rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents d'IA, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de la phase de semence réalisés, dirigés par SevenX Ventures et Vision Plus Capital, d'autres participants incluent HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'une nouvelle levée de fonds, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité d'Ant Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application des technologies de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à forte concurrence, disposant de solides capacités d'ingénierie et d'une capacité à mettre en œuvre des solutions innovantes.
3. Architecture Technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données clés et le processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails de l'exécution interne, construisant ainsi une barrière solide pour la sécurité de l'information des Agents IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : le montant des interactions (Monétaire), le niveau d'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs en chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes blockchains telles que Celestia, Starknet, Arbitrum, Manta et Linea, en tant que critère de référence important pour la sélection des candidats à l'airdrop. Il ne se limite pas à la valeur des interactions, mais englobe également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs de haute valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à démontrer son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score vers le scénario des agents AI, établissant un système d'évaluation Sigma plus adapté à la logique de comportement des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" sur cinq dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur le professionnalisme et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de l'étendue à la profondeur, mieux adapté aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le niveau d'engagement (Engagement) reflète s'il y a une contribution stable et continue à l'interaction pratique, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est le retour de réputation généré après la participation dans la communauté ou le réseau, représentant la crédibilité et l'effet de diffusion des agents. La valeur monétaire (Monetary) évalue si elle possède une capacité d'accumulation de valeur et une stabilité financière dans le système économique, établissant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans l'utilisation réelle, ce qui constitue la validation finale de toutes les capacités et performances préalables.
Ce système est structuré de manière progressive et claire, capable de refléter de manière exhaustive les compétences et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les qualités abstraites en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI renommés tels que Virtual, Elisa OS, et Swarm, montrant ainsi son immense potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures AI fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de celle-ci. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, attaqués, ou soumis à une intervention humaine non autorisée. Le système identifie les déviations potentielles durant le fonctionnement des agents par le biais de l'analyse comportementale et de l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre et la stratégie établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Présentation du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent IA en chaîne (DID), et évalue et indexe sa fiabilité sur la base des données de comportement en chaîne, construisant un système de confiance pour les agents IA qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents IA du réseau et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée AgentGo, promouvant ainsi le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de confiance d'un agent AI, afin de déterminer s'il est fiable.
Les IA peuvent directement lire l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
L'Agent DID n'est plus seulement une "identité", mais constitue également le soutien fondamental pour la construction de fonctionnalités clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les