Los proyectos Web3 con concepto de IA se han convertido en un objetivo atractivo para la captación de fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se manifiestan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola ------ a través de datos, almacenamiento y computación; al mismo tiempo, establecer modelos de código abierto y un mercado descentralizado para agentes de IA.
La IA se aplica principalmente en la industria Web3 en finanzas en cadena (pagos en criptomonedas, transacciones, análisis de datos) y en asistencia para el desarrollo.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambos: Web3 tiene el potencial de contrarrestar la centralización de la IA, y la IA tiene el potencial de ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA parece haber sido acelerado, este efecto mariposa provocado por Chatgpt no solo ha abierto un nuevo mundo de inteligencia artificial generativa, sino que también ha causado grandes olas en el ámbito de Web3.
Con el impulso del concepto de IA, la financiación en el mercado de criptomonedas ha aumentado notablemente. Según estadísticas, solo en la primera mitad de 2024, 64 proyectos Web3+IA completaron financiamiento, entre ellos el sistema operativo basado en inteligencia artificial Zyber365, que obtuvo 100 millones de dólares en la ronda A.
El mercado secundario es más próspero, los datos de los sitios web de agregación de criptomonedas muestran que en poco más de un año, la capitalización total del sector de la IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de negociación de casi 8,6 mil millones de dólares en 24 horas; los beneficios claros derivados de los avances en las tecnologías de IA son evidentes, después del lanzamiento del modelo de OpenAI Sora para convertir texto en video, el precio promedio del sector de la IA aumentó un 151%; el efecto de la IA también se ha extendido a uno de los sectores de captación de criptomonedas: Meme: el primer concepto de MemeCoin con AI Agent ------ GOAT se volvió rápidamente popular y alcanzó una valoración de 1,4 mil millones de dólares, desatando una ola de memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin y ahora AI Agent y AI DAO, la emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
AI+Web3, esta combinación de términos llena de dinero fácil, oportunidades y fantasías futuras, no puede evitar ser vista como un matrimonio arreglado de capital. Parece que es difícil distinguir, detrás de esta brillante fachada, si realmente es el campo de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, un pensamiento clave es: ¿se volverá mejor con la otra parte? ¿Se puede beneficiar del modelo de la otra parte? En este artículo, intentamos examinar este patrón: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila tecnológica de IA y qué nueva vitalidad puede aportar la IA a Web3?
Parte.1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Explicar todo el proceso en un lenguaje sencillo: "El gran modelo" es como el cerebro humano. En las primeras etapas, este cerebro pertenece a un bebé recién nacido, que necesita observar e incorporar una gran cantidad de información externa para entender el mundo. Esta es la fase de "recolección" de datos. Debido a que las computadoras no poseen los múltiples sentidos de los humanos, antes del entrenamiento, la gran cantidad de información no etiquetada del exterior necesita ser transformada a través de "preprocesamiento" en un formato que la computadora pueda entender y utilizar.
Después de ingresar los datos, la IA construyó un modelo con capacidad de comprensión y predicción a través de "entrenamiento", que se puede ver como el proceso en el que un bebé gradualmente entiende y aprende sobre el mundo exterior. Los parámetros del modelo son como la capacidad lingüística que el bebé ajusta constantemente durante su aprendizaje. Cuando el contenido de aprendizaje comienza a especializarse o se recibe retroalimentación al comunicarse con otros y se realizan correcciones, se entra en la etapa de "ajuste fino" del gran modelo.
Cuando los niños crecen y empiezan a hablar, pueden entender el significado en nuevos diálogos y expresar sus sentimientos e ideas. Esta etapa es similar al "razonamiento" de los grandes modelos de IA, donde el modelo puede predecir y analizar nuevas entradas de lenguaje y texto. Los bebés expresan sus sentimientos, describen objetos y resuelven problemas a través de su capacidad lingüística, lo que también es similar a cómo los grandes modelos de IA se aplican en la etapa de razonamiento para diversas tareas específicas, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se acerca más a la próxima forma de los grandes modelos: podrá ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo tendrá capacidad de pensamiento, sino que también podrá recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de la IA en diversas pilas, Web3 ha comenzado a formar un ecosistema interconectado y de múltiples capas que abarca todas las etapas del proceso de modelos de IA.
Uno, Capa básica: Airbnb de potencia de cálculo y datos
Poder de cómputo
Actualmente, uno de los mayores costos de la IA es la potencia de cálculo y la energía necesarias para entrenar modelos y modelos de inferencia.
Meta's LLAMA3 necesita 16,000 H100 GPU producidas por NVIDIA (que es una unidad de procesamiento gráfico de alta gama diseñada para cargas de trabajo de inteligencia artificial y computación de alto rendimiento) para completar el entrenamiento en 30 días. La versión de 80 GB tiene un precio unitario entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de computación de entre 400 y 700 millones de dólares (GPU + chips de red), al mismo tiempo que el entrenamiento mensual consume 1.6 mil millones de kilovatios-hora, con un gasto energético mensual cercano a los 20 millones de dólares.
La descompresión de la potencia de cálculo de la IA también es uno de los primeros campos en los que Web3 se cruza con la IA------DePin (red de infraestructura física descentralizada). Actualmente, el sitio de datos DePin Ninja ha enumerado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
Su lógica principal radica en que: la plataforma permite a individuos o entidades con recursos de GPU ociosos contribuir con capacidad de cómputo de manera descentralizada y sin necesidad de permiso, a través de un mercado en línea para compradores y vendedores similar a Uber o Airbnb, aumentando así la tasa de utilización de los recursos de GPU no utilizados. Los usuarios finales también obtienen recursos de cómputo eficientes a un costo más bajo; al mismo tiempo, el mecanismo de participación garantiza que en caso de violaciones de los mecanismos de control de calidad o interrupciones de la red, los proveedores de recursos recibirán las sanciones correspondientes.
Sus características son:
Agregar recursos de GPU ociosos: los proveedores son principalmente centros de datos independientes de tamaño mediano y pequeño de terceros, recursos de potencia de cálculo excedente de operadores como minas de criptomonedas, y hardware de minería con mecanismo de consenso PoS, como las máquinas mineras de FileCoin y ETH. Actualmente, también hay proyectos dedicados a iniciar dispositivos con un umbral de entrada más bajo, como exolab, que utiliza MacBook, iPhone, iPad y otros dispositivos locales para establecer una red de potencia de cálculo para la inferencia de modelos grandes.
Enfrentando el mercado de cola larga de la potencia de cálculo de IA:
a. El mercado de poder de cómputo descentralizado en el "lado técnico" es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos que brindan los GPU de gran escala, mientras que la inferencia tiene requisitos de rendimiento de GPU relativamente bajos, como Aethir, que se centra en trabajos de renderizado de baja latencia y aplicaciones de inferencia de IA.
b. En el "lado de la demanda", los demandantes de potencia de cálculo media no entrenarán su propio modelo grande de forma independiente, sino que solo elegirán optimizar y ajustar finamente alrededor de unos pocos modelos grandes destacados, y estos escenarios son naturalmente adecuados para recursos de potencia de cálculo distribuida e inactiva.
Propiedad descentralizada: El significado técnico de la blockchain radica en que los propietarios de recursos siempre mantienen el control sobre los mismos, pudiendo ajustarlos de manera flexible según la demanda, y al mismo tiempo obtener beneficios.
Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como el musgo flotante, y la relación entre los datos y el modelo es como dice el famoso refrán: "Basura entra, basura sale". La cantidad de datos y la calidad de la entrada determinan la calidad de la salida del modelo final. En la actualidad, para el entrenamiento de los modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión, e incluso las perspectivas de valor y la expresión humanizada del modelo. Actualmente, las dificultades en la demanda de datos de la IA se concentran principalmente en los siguientes cuatro aspectos:
Sed de datos: El entrenamiento de modelos de IA depende de una gran cantidad de datos de entrada. Según información pública, OpenAI entrenó GPT-4 con un número de parámetros que alcanzó el nivel de billones.
Calidad de los datos: Con la combinación de la IA y diversas industrias, la actualidad, diversidad, especialización de datos verticales y la incorporación de nuevas fuentes de datos como la emoción en redes sociales han planteado nuevas exigencias para su calidad.
Problemas de privacidad y cumplimiento: Actualmente, los países y las empresas están tomando conciencia de la importancia de los conjuntos de datos de calidad y están imponiendo restricciones a la recolección de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y proceso de tratamiento complejo. Los datos públicos muestran que más del 30% de los costos de I+D de las empresas de IA se destinan a la recolección y procesamiento de datos básicos.
Actualmente, las soluciones web3 se reflejan en los siguientes cuatro aspectos:
Recolección de datos: La cantidad de datos del mundo real que se proporcionan de forma gratuita se está agotando rápidamente, y los gastos de las empresas de IA por los datos están aumentando año tras año. Sin embargo, estos gastos no se están devolviendo a los verdaderos contribuyentes de los datos, las plataformas disfrutan plenamente de la creación de valor que aportan los datos, como Reddit, que generó ingresos por un total de 203 millones de dólares a través de un acuerdo de autorización de datos con empresas de IA.
Permitir que los usuarios que realmente contribuyen participen en la creación de valor que aportan los datos, así como obtener datos más privados y valiosos de los usuarios de manera rentable a través de redes distribuidas y mecanismos de incentivos, es la visión de Web3.
Grass es una capa de datos y una red descentralizada, los usuarios pueden contribuir con ancho de banda ocioso y tráfico de retransmisión al ejecutar nodos de Grass para capturar datos en tiempo real de toda la Internet y recibir recompensas en tokens;
Vana ha introducido el concepto único de piscina de liquidez de datos (DLP), donde los usuarios pueden subir datos privados (como registros de compras, hábitos de navegación, actividades en redes sociales, etc.) a un DLP específico y elegir de manera flexible si autorizan el uso de esos datos a terceros específicos;
En PublicAI, los usuarios pueden usar #AI或#Web3 como etiqueta de clasificación en X y @PublicAI para realizar la recolección de datos.
Preprocesamiento de datos: Durante el proceso de procesamiento de datos de IA, dado que los datos recopilados suelen ser ruidosos y contener errores, es necesario limpiarlos y convertirlos a un formato utilizable antes de entrenar el modelo, lo que implica tareas repetitivas de estandarización, filtrado y manejo de valores faltantes. Esta etapa es uno de los pocos procesos manuales en la industria de la IA, dando lugar a la industria de los etiquetadores de datos. A medida que el modelo aumenta sus requisitos de calidad de datos, también se eleva el umbral para los etiquetadores de datos, y esta tarea se adapta de manera natural al mecanismo de incentivos descentralizados de Web3.
Actualmente, Grass y OpenLayer están considerando integrar la etapa clave de la anotación de datos.
Synesis propuso el concepto de "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras formas de entrada.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Privacidad y seguridad de los datos: es importante aclarar que la privacidad de los datos y la seguridad de los datos son dos conceptos diferentes. La privacidad de los datos se refiere al manejo de datos sensibles, mientras que la seguridad de los datos protege la información de los datos de accesos no autorizados, destrucción y robo. Por lo tanto, las ventajas de la tecnología de privacidad de Web3 y sus posibles escenarios de aplicación se manifiestan en dos aspectos: (1) Entrenamiento de datos sensibles; (2) Colaboración de datos: múltiples propietarios de datos pueden participar conjuntamente en el entrenamiento de IA sin necesidad de compartir los datos originales.
Las tecnologías de privacidad más comunes en Web3 actuales incluyen:
Entorno de ejecución confiable ( TEE ), como Super Protocol;
Encriptación homomórfica completa (FHE), como BasedAI, Fhenix.io o Inco Network;
La tecnología de conocimiento cero (zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero para el tráfico HTTPS, lo que permite a los usuarios importar de manera segura actividades, reputación y datos de identidad de sitios web externos sin revelar información sensible.
Sin embargo, actualmente este campo aún se encuentra en una etapa temprana, la mayoría de los proyectos todavía están en fase de exploración, y uno de los dilemas actuales es que el costo de computación es demasiado alto, por ejemplo:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar la prueba del modelo 1M-nanoGPT.
Según los datos de Modulus Labs, los costos de zkML son más de 1000 veces superiores a los de los cálculos puros.
Almacenamiento de datos: Una vez que se tiene la data, también se necesita un lugar en la cadena para almacenar los datos, así como el LLM generado a partir de esos datos. Con la disponibilidad de datos (DA) como problema central, antes de la actualización de Danksharding en Ethereum, su capacidad era de 0.08MB. Sin embargo, el entrenamiento de modelos de IA y la inferencia en tiempo real generalmente requieren un volumen de datos de entre 50 y 100GB por segundo. Esta diferencia de magnitud deja a las soluciones en la cadena existentes incapaces de enfrentar "aplicaciones de IA intensivas en recursos".
0g.AI es un proyecto representativo de esta categoría. Es una solución de almacenamiento centralizado diseñada para satisfacer las altas demandas de rendimiento de la IA, con características clave que incluyen: alto rendimiento y escalabilidad, soportando cargas rápidas de subida y bajada de grandes conjuntos de datos a través de tecnologías avanzadas de fragmentación (Sharding) y codificación de borrado (Erasure Coding), con velocidades de transferencia de datos cercanas a 5GB por segundo.
2. Middleware: Entrenamiento e inferencia del modelo
Mercado descentralizado de modelos de código abierto
El debate sobre si los modelos de IA deben ser de código cerrado o abierto nunca ha desaparecido. La innovación colectiva que trae el código abierto no se puede comparar con los modelos de código cerrado.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
6 me gusta
Recompensa
6
3
Compartir
Comentar
0/400
BlockchainFoodie
· 07-07 08:28
sirviendo un poco de alpha de web3 como un chef de defi con estrella michelin... esta combinación de ai+web3 parece la receta perfecta, no voy a mentir.
Análisis del panorama AI+Web3: oportunidades y desafíos desde la infraestructura hasta los modelos de negocio
AI+Web3: Torres y plazas
TL;DR
Los proyectos Web3 con concepto de IA se han convertido en un objetivo atractivo para la captación de fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se manifiestan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola ------ a través de datos, almacenamiento y computación; al mismo tiempo, establecer modelos de código abierto y un mercado descentralizado para agentes de IA.
La IA se aplica principalmente en la industria Web3 en finanzas en cadena (pagos en criptomonedas, transacciones, análisis de datos) y en asistencia para el desarrollo.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambos: Web3 tiene el potencial de contrarrestar la centralización de la IA, y la IA tiene el potencial de ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA parece haber sido acelerado, este efecto mariposa provocado por Chatgpt no solo ha abierto un nuevo mundo de inteligencia artificial generativa, sino que también ha causado grandes olas en el ámbito de Web3.
Con el impulso del concepto de IA, la financiación en el mercado de criptomonedas ha aumentado notablemente. Según estadísticas, solo en la primera mitad de 2024, 64 proyectos Web3+IA completaron financiamiento, entre ellos el sistema operativo basado en inteligencia artificial Zyber365, que obtuvo 100 millones de dólares en la ronda A.
El mercado secundario es más próspero, los datos de los sitios web de agregación de criptomonedas muestran que en poco más de un año, la capitalización total del sector de la IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de negociación de casi 8,6 mil millones de dólares en 24 horas; los beneficios claros derivados de los avances en las tecnologías de IA son evidentes, después del lanzamiento del modelo de OpenAI Sora para convertir texto en video, el precio promedio del sector de la IA aumentó un 151%; el efecto de la IA también se ha extendido a uno de los sectores de captación de criptomonedas: Meme: el primer concepto de MemeCoin con AI Agent ------ GOAT se volvió rápidamente popular y alcanzó una valoración de 1,4 mil millones de dólares, desatando una ola de memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin y ahora AI Agent y AI DAO, la emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
AI+Web3, esta combinación de términos llena de dinero fácil, oportunidades y fantasías futuras, no puede evitar ser vista como un matrimonio arreglado de capital. Parece que es difícil distinguir, detrás de esta brillante fachada, si realmente es el campo de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, un pensamiento clave es: ¿se volverá mejor con la otra parte? ¿Se puede beneficiar del modelo de la otra parte? En este artículo, intentamos examinar este patrón: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila tecnológica de IA y qué nueva vitalidad puede aportar la IA a Web3?
Parte.1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Explicar todo el proceso en un lenguaje sencillo: "El gran modelo" es como el cerebro humano. En las primeras etapas, este cerebro pertenece a un bebé recién nacido, que necesita observar e incorporar una gran cantidad de información externa para entender el mundo. Esta es la fase de "recolección" de datos. Debido a que las computadoras no poseen los múltiples sentidos de los humanos, antes del entrenamiento, la gran cantidad de información no etiquetada del exterior necesita ser transformada a través de "preprocesamiento" en un formato que la computadora pueda entender y utilizar.
Después de ingresar los datos, la IA construyó un modelo con capacidad de comprensión y predicción a través de "entrenamiento", que se puede ver como el proceso en el que un bebé gradualmente entiende y aprende sobre el mundo exterior. Los parámetros del modelo son como la capacidad lingüística que el bebé ajusta constantemente durante su aprendizaje. Cuando el contenido de aprendizaje comienza a especializarse o se recibe retroalimentación al comunicarse con otros y se realizan correcciones, se entra en la etapa de "ajuste fino" del gran modelo.
Cuando los niños crecen y empiezan a hablar, pueden entender el significado en nuevos diálogos y expresar sus sentimientos e ideas. Esta etapa es similar al "razonamiento" de los grandes modelos de IA, donde el modelo puede predecir y analizar nuevas entradas de lenguaje y texto. Los bebés expresan sus sentimientos, describen objetos y resuelven problemas a través de su capacidad lingüística, lo que también es similar a cómo los grandes modelos de IA se aplican en la etapa de razonamiento para diversas tareas específicas, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se acerca más a la próxima forma de los grandes modelos: podrá ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo tendrá capacidad de pensamiento, sino que también podrá recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de la IA en diversas pilas, Web3 ha comenzado a formar un ecosistema interconectado y de múltiples capas que abarca todas las etapas del proceso de modelos de IA.
Uno, Capa básica: Airbnb de potencia de cálculo y datos
Poder de cómputo
Actualmente, uno de los mayores costos de la IA es la potencia de cálculo y la energía necesarias para entrenar modelos y modelos de inferencia.
Meta's LLAMA3 necesita 16,000 H100 GPU producidas por NVIDIA (que es una unidad de procesamiento gráfico de alta gama diseñada para cargas de trabajo de inteligencia artificial y computación de alto rendimiento) para completar el entrenamiento en 30 días. La versión de 80 GB tiene un precio unitario entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de computación de entre 400 y 700 millones de dólares (GPU + chips de red), al mismo tiempo que el entrenamiento mensual consume 1.6 mil millones de kilovatios-hora, con un gasto energético mensual cercano a los 20 millones de dólares.
La descompresión de la potencia de cálculo de la IA también es uno de los primeros campos en los que Web3 se cruza con la IA------DePin (red de infraestructura física descentralizada). Actualmente, el sitio de datos DePin Ninja ha enumerado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
Su lógica principal radica en que: la plataforma permite a individuos o entidades con recursos de GPU ociosos contribuir con capacidad de cómputo de manera descentralizada y sin necesidad de permiso, a través de un mercado en línea para compradores y vendedores similar a Uber o Airbnb, aumentando así la tasa de utilización de los recursos de GPU no utilizados. Los usuarios finales también obtienen recursos de cómputo eficientes a un costo más bajo; al mismo tiempo, el mecanismo de participación garantiza que en caso de violaciones de los mecanismos de control de calidad o interrupciones de la red, los proveedores de recursos recibirán las sanciones correspondientes.
Sus características son:
Agregar recursos de GPU ociosos: los proveedores son principalmente centros de datos independientes de tamaño mediano y pequeño de terceros, recursos de potencia de cálculo excedente de operadores como minas de criptomonedas, y hardware de minería con mecanismo de consenso PoS, como las máquinas mineras de FileCoin y ETH. Actualmente, también hay proyectos dedicados a iniciar dispositivos con un umbral de entrada más bajo, como exolab, que utiliza MacBook, iPhone, iPad y otros dispositivos locales para establecer una red de potencia de cálculo para la inferencia de modelos grandes.
Enfrentando el mercado de cola larga de la potencia de cálculo de IA:
a. El mercado de poder de cómputo descentralizado en el "lado técnico" es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos que brindan los GPU de gran escala, mientras que la inferencia tiene requisitos de rendimiento de GPU relativamente bajos, como Aethir, que se centra en trabajos de renderizado de baja latencia y aplicaciones de inferencia de IA.
b. En el "lado de la demanda", los demandantes de potencia de cálculo media no entrenarán su propio modelo grande de forma independiente, sino que solo elegirán optimizar y ajustar finamente alrededor de unos pocos modelos grandes destacados, y estos escenarios son naturalmente adecuados para recursos de potencia de cálculo distribuida e inactiva.
Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como el musgo flotante, y la relación entre los datos y el modelo es como dice el famoso refrán: "Basura entra, basura sale". La cantidad de datos y la calidad de la entrada determinan la calidad de la salida del modelo final. En la actualidad, para el entrenamiento de los modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión, e incluso las perspectivas de valor y la expresión humanizada del modelo. Actualmente, las dificultades en la demanda de datos de la IA se concentran principalmente en los siguientes cuatro aspectos:
Sed de datos: El entrenamiento de modelos de IA depende de una gran cantidad de datos de entrada. Según información pública, OpenAI entrenó GPT-4 con un número de parámetros que alcanzó el nivel de billones.
Calidad de los datos: Con la combinación de la IA y diversas industrias, la actualidad, diversidad, especialización de datos verticales y la incorporación de nuevas fuentes de datos como la emoción en redes sociales han planteado nuevas exigencias para su calidad.
Problemas de privacidad y cumplimiento: Actualmente, los países y las empresas están tomando conciencia de la importancia de los conjuntos de datos de calidad y están imponiendo restricciones a la recolección de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y proceso de tratamiento complejo. Los datos públicos muestran que más del 30% de los costos de I+D de las empresas de IA se destinan a la recolección y procesamiento de datos básicos.
Actualmente, las soluciones web3 se reflejan en los siguientes cuatro aspectos:
Permitir que los usuarios que realmente contribuyen participen en la creación de valor que aportan los datos, así como obtener datos más privados y valiosos de los usuarios de manera rentable a través de redes distribuidas y mecanismos de incentivos, es la visión de Web3.
Grass es una capa de datos y una red descentralizada, los usuarios pueden contribuir con ancho de banda ocioso y tráfico de retransmisión al ejecutar nodos de Grass para capturar datos en tiempo real de toda la Internet y recibir recompensas en tokens;
Vana ha introducido el concepto único de piscina de liquidez de datos (DLP), donde los usuarios pueden subir datos privados (como registros de compras, hábitos de navegación, actividades en redes sociales, etc.) a un DLP específico y elegir de manera flexible si autorizan el uso de esos datos a terceros específicos;
En PublicAI, los usuarios pueden usar #AI或#Web3 como etiqueta de clasificación en X y @PublicAI para realizar la recolección de datos.
Actualmente, Grass y OpenLayer están considerando integrar la etapa clave de la anotación de datos.
Synesis propuso el concepto de "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras formas de entrada.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Las tecnologías de privacidad más comunes en Web3 actuales incluyen:
Entorno de ejecución confiable ( TEE ), como Super Protocol;
Encriptación homomórfica completa (FHE), como BasedAI, Fhenix.io o Inco Network;
La tecnología de conocimiento cero (zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero para el tráfico HTTPS, lo que permite a los usuarios importar de manera segura actividades, reputación y datos de identidad de sitios web externos sin revelar información sensible.
Sin embargo, actualmente este campo aún se encuentra en una etapa temprana, la mayoría de los proyectos todavía están en fase de exploración, y uno de los dilemas actuales es que el costo de computación es demasiado alto, por ejemplo:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar la prueba del modelo 1M-nanoGPT.
Según los datos de Modulus Labs, los costos de zkML son más de 1000 veces superiores a los de los cálculos puros.
2. Middleware: Entrenamiento e inferencia del modelo
Mercado descentralizado de modelos de código abierto
El debate sobre si los modelos de IA deben ser de código cerrado o abierto nunca ha desaparecido. La innovación colectiva que trae el código abierto no se puede comparar con los modelos de código cerrado.