Los proyectos de Web3 con concepto de IA se han convertido en objetivos de captación de fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan principalmente en: utilizar incentivos distribuidos para coordinar el suministro potencial de cola larga ( a través de datos, almacenamiento y computación ); al mismo tiempo, establecer un mercado descentralizado para modelos de código abierto y agentes de IA.
La IA se aplica principalmente en la industria Web3 en finanzas en cadena ( pagos en criptomonedas, transacciones, análisis de datos ) y desarrollo asistido.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambas partes: Web3 espera contrarrestar la centralización de la IA, y la IA espera ayudar a Web3 a romper fronteras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido rápido, la aparición de ChatGPT ha inaugurado una nueva era de la inteligencia artificial generativa y ha suscitado un auge en el campo de Web3.
Con el respaldo del concepto de IA, la financiación de proyectos Web3 ha aumentado notablemente. Solo en la primera mitad de 2024, 64 proyectos Web3+IA completaron su financiación, entre ellos, el sistema operativo basado en IA Zyber365 logró una financiación máxima de 100 millones de dólares en la ronda A.
El mercado secundario se vuelve más próspero. Según los datos de Coingecko, el valor total del mercado de la inteligencia artificial ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de casi 8,6 mil millones de dólares en las últimas 24 horas. Los avances en tecnologías de IA han traído beneficios evidentes, como el lanzamiento de Sora por OpenAI, que provocó un aumento del 151% en el precio promedio del sector de IA. El efecto de la IA también se ha extendido al sector de criptomonedas que atrae capital, Meme: el primer concepto de MemeCoin de Agente de IA, GOAT, se ha popularizado rápidamente, alcanzando una valoración de 1.400 millones de dólares, desatando una ola de memes de IA.
La investigación y los temas relacionados con AI+Web3 están en auge, desde AI+Depin hasta AI Memecoin, pasando por AI Agent y AI DAO, la emoción de FOMO ya es difícil de seguir con la velocidad de rotación de las nuevas narrativas.
La combinación de AI+Web3, llena de dinero caliente, oportunidades y fantasías futuras, no puede evitar ser vista como un matrimonio arreglado por el capital. Es difícil juzgar si este es el terreno de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, la clave está en pensar: ¿mejorará al tener al otro? ¿Se puede beneficiar del modelo del otro? Este artículo intenta examinar este patrón: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila de tecnología de IA, y qué nueva vitalidad puede traer la IA a Web3?
Parte 1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Los modelos de IA pueden compararse con el cerebro humano; en las etapas tempranas, como en los bebés, necesitan observar e ingresar una gran cantidad de información del exterior para entender el mundo, esta es la etapa de "recolección" de datos. Dado que las computadoras no poseen los múltiples sentidos humanos, antes del entrenamiento necesitan "preprocesar" la información no etiquetada y convertirla en un formato comprensible para las computadoras.
Después de ingresar los datos, la IA construye un modelo con capacidad de comprensión y predicción a través de "entrenamiento", similar a cómo un bebé gradualmente comprende y aprende del mundo exterior. Los parámetros del modelo son como la capacidad lingüística de un bebé que se ajusta constantemente. El contenido de aprendizaje se divide en disciplinas o se obtiene retroalimentación a través de la comunicación con personas, entrando en la fase de "ajuste fino".
Después de que los niños crecen y aprenden a hablar, pueden comprender y expresarse en nuevos diálogos, similar a la etapa de "razonamiento" de un gran modelo de IA, donde pueden realizar análisis predictivo sobre nuevas entradas. Los bebés expresan sentimientos mediante el lenguaje, describen objetos y resuelven problemas, similar a cómo un gran modelo de IA se aplica a diversas tareas específicas después de ser entrenado, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se acerca a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente, perseguir objetivos complejos, poseer capacidades de pensamiento, memoria y planificación, y poder interactuar con el mundo utilizando herramientas.
Para abordar los puntos críticos de los diferentes niveles de AI, Web3 ha comenzado a formar un ecosistema interconectado de múltiples capas que abarca todas las etapas del proceso de modelos de AI.
Uno, Capa básica: Airbnb de poder de cálculo y datos
Poder de cómputo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar e inferir modelos.
Como el LLAMA3 de Meta necesita 16,000 GPU NVIDIA H100 y 30 días para completar el entrenamiento. La versión de 80 GB tiene un precio unitario de 30,000 a 40,000 dólares, lo que requiere una inversión en hardware de 400 a 700 millones de dólares, y el consumo de energía mensual durante el entrenamiento es de 1.6 mil millones de kilovatios hora, con gastos energéticos cercanos a 20 millones de dólares.
La descompresión de la potencia de cálculo de la IA es uno de los primeros campos de intersección entre Web3 y la IA ------ DePin( red de infraestructura física descentralizada ). DePin Ninja ha enumerado más de 1400 proyectos, con ejemplos de compartición de potencia de GPU como io.net, Aethir, Akash, Render Network, entre otros.
Lógica principal: la plataforma permite a los propietarios de recursos de GPU no utilizados contribuir con su capacidad de cálculo de manera descentralizada sin necesidad de permisos, similar al mercado en línea entre compradores y vendedores de Uber o Airbnb, aumentando la tasa de utilización de recursos de GPU subutilizados, y los usuarios finales obtienen recursos de cálculo eficientes y de bajo costo; al mismo tiempo, un mecanismo de staking garantiza que los proveedores de recursos sean penalizados en caso de violar el control de calidad o interrumpir la red.
Características:
Reunir recursos de GPU ociosos: principalmente para centros de datos de terceros pequeños y medianos, granjas mineras de criptomonedas y otros excesos de potencia de cálculo, hardware de minería PoS como FileCoin y máquinas mineras de ETH. También hay proyectos dedicados a dispositivos de menor umbral de entrada, como exolab, que utiliza MacBook, iPhone, iPad y otros dispositivos locales para establecer una red de potencia de cálculo para la inferencia de grandes modelos.
Enfocado en el mercado de largo alcance de potencia de cálculo de IA:
a. Lado técnico: más adecuado para pasos de inferencia. El entrenamiento depende de un clúster de GPU de gran tamaño, la inferencia tiene menores requisitos de rendimiento de GPU, como Aethir que se centra en la renderización de baja latencia y la inferencia de IA.
b. Lado de la demanda: Las pequeñas y medianas empresas que requieren potencia de cálculo no entrenarán grandes modelos por sí solas, sino que optimizarán y ajustarán finamente en torno a los grandes modelos líderes, lo que es naturalmente adecuado para los recursos de potencia de cálculo ociosa distribuidos.
Propiedad descentralizada: El significado de la tecnología blockchain radica en que los propietarios de recursos siempre mantienen el control sobre los mismos, ajustando de manera flexible mientras obtienen beneficios.
Datos
Los datos son la base de la IA. Sin datos, el cálculo es inútil como una planta flotante; la relación entre los datos y el modelo es como "Basura entra, basura sale". La cantidad y calidad de los datos determinan la calidad de la salida final del modelo. En el entrenamiento de modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión, los valores y la expresión humanizada. Actualmente, las principales dificultades en la demanda de datos para IA son:
Hambre de datos: El entrenamiento de modelos de IA depende de la entrada de grandes cantidades de datos. OpenAI entrenó el modelo GPT-4 con un número de parámetros que alcanza el nivel de billones.
Calidad de los datos: Con la combinación de la IA y diversas industrias, se plantean nuevas exigencias sobre la temporalidad, diversidad, profesionalidad de los datos, así como sobre nuevas fuentes de datos como la percepción emocional de las redes sociales.
Privacidad y cumplimiento: las empresas de varios países están comenzando a notar la importancia de los conjuntos de datos de alta calidad, y están restringiendo la recopilación de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y procesamiento complejo. Las empresas de IA destinan más del 30% de su costo de I+D a la recopilación y procesamiento de datos básicos.
Las soluciones Web3 se reflejan en cuatro aspectos:
Recolección de datos: la captura gratuita de datos del mundo real se agota rápidamente, los gastos de las empresas de IA en datos aumentan año tras año, pero no retribuyen a los verdaderos contribuyentes; la plataforma disfruta de toda la creación de valor, como Reddit que obtuvo 203 millones de dólares en ingresos a través de acuerdos de licencia de datos de empresas de IA.
Hacer que los usuarios realmente contribuyan a la creación de valor de los datos, obteniendo datos más privados y valiosos de bajo costo a través de redes distribuidas y mecanismos de incentivos, es la visión del Web3.
Grass: Capa de datos y red descentralizada, los usuarios ejecutan nodos que contribuyen con ancho de banda ocioso para retransmitir el tráfico, capturando datos en tiempo real y obteniendo recompensas en tokens.
Vana: Introducir el concepto de piscina de liquidez de datos (DLP), donde los usuarios pueden subir datos privados a un DLP específico y elegir de manera flexible si autorizan a terceros a utilizarlos.
PublicAI: Los usuarios pueden utilizar la etiqueta #AI或#Web3 en X y @PublicAI para realizar la recolección de datos.
Preprocesamiento de datos: En el procesamiento de datos de IA, la recolección de datos suele ser ruidosa y contener errores, por lo que debe limpiarse y transformarse en un formato utilizable antes del entrenamiento, lo que implica tareas repetitivas como normalización, filtrado y manejo de valores faltantes. Esta etapa es uno de los pocos procesos manuales en la industria de la IA, lo que ha dado lugar a la industria de etiquetadores de datos; a medida que los modelos exigen una mayor calidad de datos, también se elevan las barreras de entrada, lo que se adapta naturalmente a los mecanismos de incentivo descentralizados de Web3.
Grass y OpenLayer están considerando añadir una etapa de anotación de datos.
Synesis propone el concepto "Train2earn", enfatizando la calidad de los datos. Los usuarios proporcionan datos etiquetados, anotaciones, etc., para obtener recompensas.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado, permitiendo a los usuarios apostar puntos para ganar más puntos.
Privacidad y seguridad de los datos: es necesario aclarar que la privacidad de los datos y la seguridad de los datos son dos conceptos diferentes. La privacidad de los datos implica el procesamiento de datos sensibles, mientras que la seguridad de los datos protege la información contra el acceso no autorizado, la destrucción y el robo. Ventajas de la tecnología de privacidad en Web3 y posibles escenarios de aplicación: (1) entrenamiento de datos sensibles; (2) colaboración de datos: múltiples propietarios de datos participan juntos en el entrenamiento de IA, sin necesidad de compartir datos originales.
Tecnologías de privacidad comunes en Web3:
Entorno de ejecución confiable ( TEE ), como Super Protocol
Tecnología de conocimiento cero ( zk ), como el Protocolo Reclaim que utiliza tecnología zkTLS para generar pruebas de conocimiento cero del tráfico HTTPS, permitiendo a los usuarios importar de manera segura la actividad, reputación y datos de identidad de sitios web externos sin exponer información sensible.
El campo aún se encuentra en una etapa temprana, la mayoría de los proyectos están en exploración, actualmente el dilema es el alto costo computacional, como:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar una prueba del modelo 1M-nanoGPT.
Los datos de Modulus Labs muestran que el costo de zkML es más de 1000 veces superior al de los cálculos puros.
Almacenamiento de datos: Se necesita un lugar para almacenar datos en la cadena y generar LLM. Con la disponibilidad de datos (DA) como problema central, la capacidad de procesamiento de Ethereum antes de la actualización de Danksharding era de 0.08MB. El entrenamiento de modelos de IA y la inferencia en tiempo real suelen requerir un rendimiento de datos de 50-100GB por segundo. Esta diferencia de magnitud hace que las soluciones existentes en la cadena sean difíciles de manejar para aplicaciones de IA que consumen muchos recursos.
0g.AI es un proyecto representativo. Una solución de almacenamiento centralizado diseñada para las altas demandas de rendimiento de la IA, características clave: alto rendimiento y escalabilidad, admite la carga y descarga rápida de grandes conjuntos de datos a través de técnicas avanzadas de fragmentación y codificación de borrado, la velocidad de transferencia de datos se acerca a 5GB por segundo.
Dos, Middleware: Entrenamiento e Inferencia del Modelo
Mercado descentralizado de modelos de código abierto
El debate sobre los modelos de IA de código cerrado frente a código abierto continúa. El código abierto trae una innovación colectiva que es una ventaja incomparable frente al código cerrado, pero ¿cómo aumentar la motivación de los desarrolladores sin un modelo de ganancias? El fundador de Baidu, Robin Li, afirmó en abril que "los modelos de código abierto quedarán cada vez más atrás".
Web3 propone la posibilidad de un mercado de modelos descentralizados y de código abierto: tokenización del modelo en sí, reservando un cierto porcentaje de tokens para el equipo, y dirigiendo parte de los ingresos futuros a los poseedores de tokens.
El protocolo Bittensor establece un mercado de modelos P2P de código abierto, compuesto por decenas de "subredes", donde los proveedores de recursos ( compiten en cálculo, recolección/almacenamiento de datos y talento en aprendizaje automático ) para satisfacer los objetivos de propietarios de subredes específicos. Las subredes pueden interactuar y aprender entre sí para lograr una inteligencia más poderosa. Las recompensas se distribuyen mediante votación de la comunidad y se asignan a cada subred según el desempeño en la competencia.
ORA introduce el concepto de emisión inicial de modelos (IMO), tokenizando modelos de IA, que se pueden comprar, vender y desarrollar a través de una red descentralizada.
Sentient, plataforma AGI descentralizada, incentiva a las personas a colaborar, construir, replicar y ampliar modelos de IA, y recompensa a los contribuyentes.
Spectral Nova, enfocado en la creación y aplicación de modelos de IA y ML.
razonamiento verificable
Para el problema de "caja negra" en la inferencia de IA, la solución estándar de Web3 es que múltiples validadores comparen los resultados de las operaciones repetidas, pero la escasez de "chips Nvidia" de alta gama ha llevado a un alto costo en la inferencia de IA, lo que plantea desafíos para este enfoque.
Lo más prometedor es la ejecución de pruebas ZK para el cálculo de inferencias de IA fuera de la cadena, donde no se requiere verificación de permisos para el cálculo del modelo de IA en la cadena. Es necesario encriptar en la cadena la prueba de que el cálculo fuera de la cadena se completó correctamente (, siempre que el conjunto de datos no haya sido alterado ), y garantizar que todos los datos sean confidenciales.
Principales ventajas:
Escalabilidad: las pruebas de conocimiento cero pueden confirmar rápidamente una gran cantidad de cálculos fuera de la cadena. Incluso si aumenta el número de transacciones, una sola prueba puede verificar todas las transacciones.
Protección de la privacidad: La información sobre datos y modelos de IA se mantiene confidencial, y las partes pueden verificar que los datos y modelos no han sido alterados.
Sin necesidad de confianza: se puede verificar el cálculo sin depender de partes centralizadas.
Integración Web2: Definido, Web2 es una integración fuera de la cadena; la inferencia verificable puede ayudar a llevar su conjunto de datos y cálculos de IA a la cadena, lo que ayuda a aumentar la tasa de adopción de Web3.
Tecnologías Web3 actuales para la inferencia verificable:
zkML: Combina pruebas de conocimiento cero con aprendizaje automático, garantizando la privacidad y confidencialidad de los datos y modelos, permitiendo cálculos verificables sin revelar atributos subyacentes, como el probador ZK construido por AI de Modulus Labs basado en ZKML, que verifica de manera efectiva si los proveedores de IA ejecutan correctamente el algoritmo en la cadena, siendo actualmente sus clientes principalmente aplicaciones descentralizadas en la cadena.
opML: Utilizar el principio de resumen optimista, verificando el momento de ocurrencia de la disputa, para mejorar el ML.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
3
Compartir
Comentar
0/400
AirdropHunter
· hace16h
Todavía no hemos sido engañados por grandes capitales.
Ver originalesResponder0
OnChainDetective
· hace16h
He estado observando el flujo de fondos durante tres días. Todas las Ballenas están acumulando conceptos de AI.
¿Cómo puede Web3 desempeñar un papel en cada etapa de la cadena industrial de IA?
AI+Web3: Torres y plazas
TL;DR
Los proyectos de Web3 con concepto de IA se han convertido en objetivos de captación de fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan principalmente en: utilizar incentivos distribuidos para coordinar el suministro potencial de cola larga ( a través de datos, almacenamiento y computación ); al mismo tiempo, establecer un mercado descentralizado para modelos de código abierto y agentes de IA.
La IA se aplica principalmente en la industria Web3 en finanzas en cadena ( pagos en criptomonedas, transacciones, análisis de datos ) y desarrollo asistido.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambas partes: Web3 espera contrarrestar la centralización de la IA, y la IA espera ayudar a Web3 a romper fronteras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido rápido, la aparición de ChatGPT ha inaugurado una nueva era de la inteligencia artificial generativa y ha suscitado un auge en el campo de Web3.
Con el respaldo del concepto de IA, la financiación de proyectos Web3 ha aumentado notablemente. Solo en la primera mitad de 2024, 64 proyectos Web3+IA completaron su financiación, entre ellos, el sistema operativo basado en IA Zyber365 logró una financiación máxima de 100 millones de dólares en la ronda A.
El mercado secundario se vuelve más próspero. Según los datos de Coingecko, el valor total del mercado de la inteligencia artificial ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de casi 8,6 mil millones de dólares en las últimas 24 horas. Los avances en tecnologías de IA han traído beneficios evidentes, como el lanzamiento de Sora por OpenAI, que provocó un aumento del 151% en el precio promedio del sector de IA. El efecto de la IA también se ha extendido al sector de criptomonedas que atrae capital, Meme: el primer concepto de MemeCoin de Agente de IA, GOAT, se ha popularizado rápidamente, alcanzando una valoración de 1.400 millones de dólares, desatando una ola de memes de IA.
La investigación y los temas relacionados con AI+Web3 están en auge, desde AI+Depin hasta AI Memecoin, pasando por AI Agent y AI DAO, la emoción de FOMO ya es difícil de seguir con la velocidad de rotación de las nuevas narrativas.
La combinación de AI+Web3, llena de dinero caliente, oportunidades y fantasías futuras, no puede evitar ser vista como un matrimonio arreglado por el capital. Es difícil juzgar si este es el terreno de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, la clave está en pensar: ¿mejorará al tener al otro? ¿Se puede beneficiar del modelo del otro? Este artículo intenta examinar este patrón: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila de tecnología de IA, y qué nueva vitalidad puede traer la IA a Web3?
Parte 1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Los modelos de IA pueden compararse con el cerebro humano; en las etapas tempranas, como en los bebés, necesitan observar e ingresar una gran cantidad de información del exterior para entender el mundo, esta es la etapa de "recolección" de datos. Dado que las computadoras no poseen los múltiples sentidos humanos, antes del entrenamiento necesitan "preprocesar" la información no etiquetada y convertirla en un formato comprensible para las computadoras.
Después de ingresar los datos, la IA construye un modelo con capacidad de comprensión y predicción a través de "entrenamiento", similar a cómo un bebé gradualmente comprende y aprende del mundo exterior. Los parámetros del modelo son como la capacidad lingüística de un bebé que se ajusta constantemente. El contenido de aprendizaje se divide en disciplinas o se obtiene retroalimentación a través de la comunicación con personas, entrando en la fase de "ajuste fino".
Después de que los niños crecen y aprenden a hablar, pueden comprender y expresarse en nuevos diálogos, similar a la etapa de "razonamiento" de un gran modelo de IA, donde pueden realizar análisis predictivo sobre nuevas entradas. Los bebés expresan sentimientos mediante el lenguaje, describen objetos y resuelven problemas, similar a cómo un gran modelo de IA se aplica a diversas tareas específicas después de ser entrenado, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se acerca a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente, perseguir objetivos complejos, poseer capacidades de pensamiento, memoria y planificación, y poder interactuar con el mundo utilizando herramientas.
Para abordar los puntos críticos de los diferentes niveles de AI, Web3 ha comenzado a formar un ecosistema interconectado de múltiples capas que abarca todas las etapas del proceso de modelos de AI.
Uno, Capa básica: Airbnb de poder de cálculo y datos
Poder de cómputo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar e inferir modelos.
Como el LLAMA3 de Meta necesita 16,000 GPU NVIDIA H100 y 30 días para completar el entrenamiento. La versión de 80 GB tiene un precio unitario de 30,000 a 40,000 dólares, lo que requiere una inversión en hardware de 400 a 700 millones de dólares, y el consumo de energía mensual durante el entrenamiento es de 1.6 mil millones de kilovatios hora, con gastos energéticos cercanos a 20 millones de dólares.
La descompresión de la potencia de cálculo de la IA es uno de los primeros campos de intersección entre Web3 y la IA ------ DePin( red de infraestructura física descentralizada ). DePin Ninja ha enumerado más de 1400 proyectos, con ejemplos de compartición de potencia de GPU como io.net, Aethir, Akash, Render Network, entre otros.
Lógica principal: la plataforma permite a los propietarios de recursos de GPU no utilizados contribuir con su capacidad de cálculo de manera descentralizada sin necesidad de permisos, similar al mercado en línea entre compradores y vendedores de Uber o Airbnb, aumentando la tasa de utilización de recursos de GPU subutilizados, y los usuarios finales obtienen recursos de cálculo eficientes y de bajo costo; al mismo tiempo, un mecanismo de staking garantiza que los proveedores de recursos sean penalizados en caso de violar el control de calidad o interrumpir la red.
Características:
Reunir recursos de GPU ociosos: principalmente para centros de datos de terceros pequeños y medianos, granjas mineras de criptomonedas y otros excesos de potencia de cálculo, hardware de minería PoS como FileCoin y máquinas mineras de ETH. También hay proyectos dedicados a dispositivos de menor umbral de entrada, como exolab, que utiliza MacBook, iPhone, iPad y otros dispositivos locales para establecer una red de potencia de cálculo para la inferencia de grandes modelos.
Enfocado en el mercado de largo alcance de potencia de cálculo de IA: a. Lado técnico: más adecuado para pasos de inferencia. El entrenamiento depende de un clúster de GPU de gran tamaño, la inferencia tiene menores requisitos de rendimiento de GPU, como Aethir que se centra en la renderización de baja latencia y la inferencia de IA. b. Lado de la demanda: Las pequeñas y medianas empresas que requieren potencia de cálculo no entrenarán grandes modelos por sí solas, sino que optimizarán y ajustarán finamente en torno a los grandes modelos líderes, lo que es naturalmente adecuado para los recursos de potencia de cálculo ociosa distribuidos.
Propiedad descentralizada: El significado de la tecnología blockchain radica en que los propietarios de recursos siempre mantienen el control sobre los mismos, ajustando de manera flexible mientras obtienen beneficios.
Datos
Los datos son la base de la IA. Sin datos, el cálculo es inútil como una planta flotante; la relación entre los datos y el modelo es como "Basura entra, basura sale". La cantidad y calidad de los datos determinan la calidad de la salida final del modelo. En el entrenamiento de modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión, los valores y la expresión humanizada. Actualmente, las principales dificultades en la demanda de datos para IA son:
Hambre de datos: El entrenamiento de modelos de IA depende de la entrada de grandes cantidades de datos. OpenAI entrenó el modelo GPT-4 con un número de parámetros que alcanza el nivel de billones.
Calidad de los datos: Con la combinación de la IA y diversas industrias, se plantean nuevas exigencias sobre la temporalidad, diversidad, profesionalidad de los datos, así como sobre nuevas fuentes de datos como la percepción emocional de las redes sociales.
Privacidad y cumplimiento: las empresas de varios países están comenzando a notar la importancia de los conjuntos de datos de alta calidad, y están restringiendo la recopilación de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y procesamiento complejo. Las empresas de IA destinan más del 30% de su costo de I+D a la recopilación y procesamiento de datos básicos.
Las soluciones Web3 se reflejan en cuatro aspectos:
Hacer que los usuarios realmente contribuyan a la creación de valor de los datos, obteniendo datos más privados y valiosos de bajo costo a través de redes distribuidas y mecanismos de incentivos, es la visión del Web3.
Grass: Capa de datos y red descentralizada, los usuarios ejecutan nodos que contribuyen con ancho de banda ocioso para retransmitir el tráfico, capturando datos en tiempo real y obteniendo recompensas en tokens.
Vana: Introducir el concepto de piscina de liquidez de datos (DLP), donde los usuarios pueden subir datos privados a un DLP específico y elegir de manera flexible si autorizan a terceros a utilizarlos.
PublicAI: Los usuarios pueden utilizar la etiqueta #AI或#Web3 en X y @PublicAI para realizar la recolección de datos.
Grass y OpenLayer están considerando añadir una etapa de anotación de datos.
Synesis propone el concepto "Train2earn", enfatizando la calidad de los datos. Los usuarios proporcionan datos etiquetados, anotaciones, etc., para obtener recompensas.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado, permitiendo a los usuarios apostar puntos para ganar más puntos.
Tecnologías de privacidad comunes en Web3:
Entorno de ejecución confiable ( TEE ), como Super Protocol
Encriptación totalmente homomórfica ( FHE ), como BasedAI, Fhenix.io, Inco Network
Tecnología de conocimiento cero ( zk ), como el Protocolo Reclaim que utiliza tecnología zkTLS para generar pruebas de conocimiento cero del tráfico HTTPS, permitiendo a los usuarios importar de manera segura la actividad, reputación y datos de identidad de sitios web externos sin exponer información sensible.
El campo aún se encuentra en una etapa temprana, la mayoría de los proyectos están en exploración, actualmente el dilema es el alto costo computacional, como:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar una prueba del modelo 1M-nanoGPT.
Los datos de Modulus Labs muestran que el costo de zkML es más de 1000 veces superior al de los cálculos puros.
Dos, Middleware: Entrenamiento e Inferencia del Modelo
Mercado descentralizado de modelos de código abierto
El debate sobre los modelos de IA de código cerrado frente a código abierto continúa. El código abierto trae una innovación colectiva que es una ventaja incomparable frente al código cerrado, pero ¿cómo aumentar la motivación de los desarrolladores sin un modelo de ganancias? El fundador de Baidu, Robin Li, afirmó en abril que "los modelos de código abierto quedarán cada vez más atrás".
Web3 propone la posibilidad de un mercado de modelos descentralizados y de código abierto: tokenización del modelo en sí, reservando un cierto porcentaje de tokens para el equipo, y dirigiendo parte de los ingresos futuros a los poseedores de tokens.
El protocolo Bittensor establece un mercado de modelos P2P de código abierto, compuesto por decenas de "subredes", donde los proveedores de recursos ( compiten en cálculo, recolección/almacenamiento de datos y talento en aprendizaje automático ) para satisfacer los objetivos de propietarios de subredes específicos. Las subredes pueden interactuar y aprender entre sí para lograr una inteligencia más poderosa. Las recompensas se distribuyen mediante votación de la comunidad y se asignan a cada subred según el desempeño en la competencia.
ORA introduce el concepto de emisión inicial de modelos (IMO), tokenizando modelos de IA, que se pueden comprar, vender y desarrollar a través de una red descentralizada.
Sentient, plataforma AGI descentralizada, incentiva a las personas a colaborar, construir, replicar y ampliar modelos de IA, y recompensa a los contribuyentes.
Spectral Nova, enfocado en la creación y aplicación de modelos de IA y ML.
razonamiento verificable
Para el problema de "caja negra" en la inferencia de IA, la solución estándar de Web3 es que múltiples validadores comparen los resultados de las operaciones repetidas, pero la escasez de "chips Nvidia" de alta gama ha llevado a un alto costo en la inferencia de IA, lo que plantea desafíos para este enfoque.
Lo más prometedor es la ejecución de pruebas ZK para el cálculo de inferencias de IA fuera de la cadena, donde no se requiere verificación de permisos para el cálculo del modelo de IA en la cadena. Es necesario encriptar en la cadena la prueba de que el cálculo fuera de la cadena se completó correctamente (, siempre que el conjunto de datos no haya sido alterado ), y garantizar que todos los datos sean confidenciales.
Principales ventajas:
Escalabilidad: las pruebas de conocimiento cero pueden confirmar rápidamente una gran cantidad de cálculos fuera de la cadena. Incluso si aumenta el número de transacciones, una sola prueba puede verificar todas las transacciones.
Protección de la privacidad: La información sobre datos y modelos de IA se mantiene confidencial, y las partes pueden verificar que los datos y modelos no han sido alterados.
Sin necesidad de confianza: se puede verificar el cálculo sin depender de partes centralizadas.
Integración Web2: Definido, Web2 es una integración fuera de la cadena; la inferencia verificable puede ayudar a llevar su conjunto de datos y cálculos de IA a la cadena, lo que ayuda a aumentar la tasa de adopción de Web3.
Tecnologías Web3 actuales para la inferencia verificable:
zkML: Combina pruebas de conocimiento cero con aprendizaje automático, garantizando la privacidad y confidencialidad de los datos y modelos, permitiendo cálculos verificables sin revelar atributos subyacentes, como el probador ZK construido por AI de Modulus Labs basado en ZKML, que verifica de manera efectiva si los proveedores de IA ejecutan correctamente el algoritmo en la cadena, siendo actualmente sus clientes principalmente aplicaciones descentralizadas en la cadena.
opML: Utilizar el principio de resumen optimista, verificando el momento de ocurrencia de la disputa, para mejorar el ML.