Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en la cadena
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial de sustituir el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital sólido y el control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en la etapa inicial de rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "benévola" o "malévola" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los aspectos clave e infraestructuras aún dependen de servicios en la nube centralizados; la propiedad meme es demasiado pesada, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad e amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la gobernanza democrática y la seguridad de los datos, promoviendo el desarrollo próspero del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo, almacenamiento, etc. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo deben proporcionar potencia de cálculo, completar el entrenamiento y la inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores requisitos para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente asignación de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altos requerimientos en cuanto a rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una diversidad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizar profundamente la arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preconfigurar la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que todo tipo de tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir el comportamiento malicioso del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo subyacente. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculo seguro multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de procesamiento de datos sea verificado de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y los fundamentos de la salida de IA, logrando "lo que se obtiene es lo que se desea" y aumentando la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en áreas como finanzas, salud y redes sociales. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA diversas y ricas, logrando una prosperidad continua del ecosistema descentralizado de IA.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances del sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados y de código abierto para la lealtad
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain de AI Layer1 (. En la fase inicial es Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se busca construir una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de invocaciones y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de AI logren una estructura de propiedad on-chain, transparencia en las invocaciones y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de AI, promoviendo así un ecosistema de red de agentes de AI justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y la privacidad de la IA, respectivamente, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de prestigio como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su fundación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión como Delphi, Hashkey y Spartan, entre varias decenas de VC reconocidos.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos fundamentales:
Curación de datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
Los sistemas de blockchain proporcionan transparencia y control descentralizado a los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: la entrada de llamada del modelo es controlada por el contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de pruebas de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a los entrenadores, implementadores y validadores en cada llamada.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con un código y una estructura de datos transparentes, lo que facilita su reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo generará un flujo de ingresos, el contrato on-chain distribuirá los ingresos entre los entrenadores, desplegadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella digital incrustada: durante el entrenamiento se inserta un conjunto de pares clave-valor de consulta-respuesta ocultos para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella digital se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada autorizado: se debe obtener un "certificado de autorización" emitido por el propietario del modelo antes de la llamada, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta precisa.
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costo de re-encriptación.
Marco de atribución de derechos del modelo y ejecución segura
Sentient actualmente utiliza la seguridad de mezcla Melange: combinación de verificación de huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares es la implementación de OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detectar y penalizar violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable de las actividades de uso del modelo en la cadena.
Además, Sentient ha lanzado el marco de cálculo Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizado. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alto rendimiento y ventajas en tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE).
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
23 me gusta
Recompensa
23
4
Compartir
Comentar
0/400
AlphaBrain
· hace17h
Esta es, de hecho, la dirección más caliente en la pista.
Ver originalesResponder0
FudVaccinator
· 07-18 04:11
又整这些空气项目 继续 tomar a la gente por tonta
Ver originalesResponder0
HashBandit
· 07-17 14:13
bruh estos L1s mejor resuelven el cuello de botella de computación fr... me recuerda a la minería de eth en 2017 cuando mi factura de electricidad me mató
Panorama de la carrera AI Layer1: 6 grandes proyectos lideran la revolución de la ecología de AI Descentralización
Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en la cadena
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial de sustituir el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital sólido y el control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en la etapa inicial de rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "benévola" o "malévola" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los aspectos clave e infraestructuras aún dependen de servicios en la nube centralizados; la propiedad meme es demasiado pesada, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad e amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la gobernanza democrática y la seguridad de los datos, promoviendo el desarrollo próspero del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo, almacenamiento, etc. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo deben proporcionar potencia de cálculo, completar el entrenamiento y la inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores requisitos para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente asignación de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altos requerimientos en cuanto a rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una diversidad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizar profundamente la arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo elástico, y preconfigurar la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que todo tipo de tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir el comportamiento malicioso del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo subyacente. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculo seguro multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de procesamiento de datos sea verificado de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y los fundamentos de la salida de IA, logrando "lo que se obtiene es lo que se desea" y aumentando la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en áreas como finanzas, salud y redes sociales. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA diversas y ricas, logrando una prosperidad continua del ecosistema descentralizado de IA.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances del sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados y de código abierto para la lealtad
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain de AI Layer1 (. En la fase inicial es Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se busca construir una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de invocaciones y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de AI logren una estructura de propiedad on-chain, transparencia en las invocaciones y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de AI, promoviendo así un ecosistema de red de agentes de AI justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y la privacidad de la IA, respectivamente, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de prestigio como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su fundación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión como Delphi, Hashkey y Spartan, entre varias decenas de VC reconocidos.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos fundamentales:
Los sistemas de blockchain proporcionan transparencia y control descentralizado a los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costo de re-encriptación.
Marco de atribución de derechos del modelo y ejecución segura
Sentient actualmente utiliza la seguridad de mezcla Melange: combinación de verificación de huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares es la implementación de OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detectar y penalizar violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable de las actividades de uso del modelo en la cadena.
Además, Sentient ha lanzado el marco de cálculo Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizado. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alto rendimiento y ventajas en tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE).