Аналіз структури AI+Web3: можливості та виклики від інфраструктури до бізнес-моделей

AI+Web3: Вежі та Площі

Коротко кажучи

  1. Проекти Web3 з концепцією штучного інтелекту стають об'єктами залучення капіталу на первинних та вторинних ринках.

  2. Можливості Web3 в галузі AI проявляються в: використанні розподілених стимулів для координації потенційних постачань у довгому хвості ------ між даними, зберіганням і обчисленнями; одночасно, створенням відкритих моделей та децентралізованого ринку AI Agent.

  3. Штучний інтелект у галузі Web3 в основному застосовується в ланцюговому фінансуванні (крипто-платежі, торгівля, аналіз даних) та допоміжній розробці.

  4. Ефективність AI+Web3 проявляється в їхній взаємодоповнюваності: Web3 має надію протистояти централізації AI, AI має надію допомогти Web3 вийти за межі.

! AI+Web3: Вежі та Плази

Вступ

Останні два роки розвиток ШІ, здається, натиснули кнопку пришвидшення. Цей метеликовий ефект, спричинений Chatgpt, не лише відкрив новий світ генеративного штучного інтелекту, але й викликав величезні хвилі в сфері Web3.

Під впливом концепції штучного інтелекту фінансування крипторинку помітно зросло. За статистикою, лише в першій половині 2024 року 64 проекти Web3+AI завершили фінансування, серед яких операційна система на базі штучного інтелекту Zyber365 отримала 100 мільйонів доларів на раунді А.

Ринок другого рівня став ще більш процвітаючим, дані з криптоагрегаторів показують, що всього за трохи більше року загальна ринкова капіталізація AI-сфери досягла 48,5 мільярдів доларів, а 24-годинний обсяг торгів наблизився до 8,6 мільярдів доларів; позитивні новини, пов'язані з прогресом основних AI технологій, стали очевидними після випуску моделі перетворення тексту в відео Sora від OpenAI, середня ціна сектора AI зросла на 151%; ефект AI також поширився на один із сегментів криптовалют, що приваблюють капітал, Meme: перша концепція AI Agent в MemeCoin ------ GOAT швидко здобула популярність і отримала оцінку в 1,4 мільярда доларів, спровокувавши бум AI Meme.

Дослідження та теми, пов'язані з AI+Web3, також набирають популярності: від AI+Depin до AI Memecoin, а потім до сучасних AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.

AI+Web3, це поєднання термінів, наповнене спекулятивними інвестиціями, трендами та майбутніми фантазіями, неминуче сприймається як шлюб, укладений капіталом. Схоже, ми важко можемо розрізнити, чи це поле для спекулянтів під цією розкішною оболонкою, чи це переддень вибуху нового світанку?

Щоб відповісти на це запитання, ключовим міркуванням є те, чи стане щось кращим завдяки іншій стороні? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми намагаємося розглянути цю картину: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і що AI може принести нове для Web3?

Частина 1 Які можливості має Web3 під AI стеком?

Перш ніж розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:

Поясніть увесь процес простими словами: «Велика модель» схожа на людський мозок. На ранніх етапах цей мозок належить новонародженій дитині, яка потребує спостереження та споживання величезної кількості інформації ззовні, щоб зрозуміти світ. Це етап «збирання» даних. Оскільки комп'ютери не мають багатосенсорності, на етапі навчання масивна не маркована інформація ззовні повинна бути перетворена через «попередню обробку» у формат, зрозумілий та придатний для використання комп'ютером.

Після введення даних AI за допомогою «навчання» створив модель, яка має здатність розуміти та прогнозувати, що можна розглядати як процес, при якому дитина поступово розуміє та вивчає навколишній світ. Параметри моделі подібні до мовних навичок дитини, які постійно коригуються під час навчання. Коли навчальний матеріал починає розділятися на предмети або під час спілкування з людьми отримується зворотний зв'язок і корекція, це переходить до етапу «доладжування» великої моделі.

Діти, коли виростають і починають говорити, можуть розуміти значення в нових розмовах і висловлювати свої почуття та думки. Цей етап подібний до «виводу» в великих моделях ШІ, які можуть робити прогнози та аналізувати нові мовні та текстові введення. Діти висловлюють свої почуття, описують об'єкти та розв'язують проблеми за допомогою мовних навичок, що також схоже на те, як великі моделі ШІ, після завершення навчання, використовуються для виконання різних специфічних завдань на етапі виводу, таких як класифікація зображень, розпізнавання мови тощо.

А AI Agent наближається до наступної форми великої моделі - здатної самостійно виконувати завдання та переслідувати складні цілі, він не лише має можливість мислити, але також може запам'ятовувати, планувати та взаємодіяти з світом, використовуючи інструменти.

Наразі, з огляду на проблеми AI в різних стекових компонентах, Web3 попередньо сформував багаторівневу, взаємопов'язану екосистему, яка охоплює всі етапи процесу моделювання AI.

! AI+Web3: Вежі та Квадрати

Один. Базовий рівень: потужність обчислень та дані Airbnb

потужність

Наразі одна з найбільших витрат AI - це обчислювальна потужність та енергія, необхідні для навчання моделей і моделювання висновків.

LLAMA3 від Meta потребує 16000 графічних процесорів H100, вироблених NVIDIA (це топовий графічний процесор, розроблений спеціально для штучного інтелекту та високопродуктивних обчислювальних навантажень), щоб завершити навчання за 30 днів. Ціна на останню 80 ГБ версію коливається від 30 000 до 40 000 доларів, що вимагає інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) у розмірі від 400 до 700 мільйонів доларів, при цьому щомісячне навчання вимагає 1,6 мільярда кіловат-годин, а витрати на енергію щомісяця становлять близько 20 мільйонів доларів.

Для розвантаження обчислювальної потужності AI це також одна з перших областей перетворення Web3 з AI ------ DePin (децентралізована мережа фізичної інфраструктури). Наразі сайт даних DePin Ninja вже перерахував понад 1400 проектів, серед яких проекти, що представляють спільний доступ до обчислювальної потужності GPU, включають io.net, Aethir, Akash, Render Network та ін.

Основна логіка полягає в тому, що платформа дозволяє особам або організаціям, які мають невикористані ресурси GPU, вносити обчислювальну потужність у децентралізований спосіб без необхідності отримання дозволу. Це підвищує використання невикористаних ресурсів GPU через онлайн-ринок купівлі-продажу, подібний до Uber або Airbnb, в результаті чого кінцеві користувачі отримують ефективні обчислювальні ресурси за нижчою вартістю; одночасно механізм стейкінгу забезпечує, що у разі порушення механізму контролю якості або переривання мережі ресурси постачальників підлягають відповідним санкціям.

Його особливості полягають у:

  • Збір незадіяних ресурсів GPU: Постачальниками в основному є незалежні невеликі та середні дата-центри, криптодобувні майданчики та інші оператори з надлишковими обчислювальними ресурсами, а також обладнання для майнінгу з механізмом консенсусу PoS, таке як FileCoin та ETH-майнери. Наразі існують проекти, що прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує локальні пристрої, такі як MacBook, iPhone, iPad, для створення обчислювальної мережі для роботи великих моделей.

  • Перед обличчям довгого хвоста ринку обчислювальної потужності ШІ:

a. «Технічний бік» децентралізованого ринку обчислювальних потужностей більше підходить для етапів висновку. Навчання більше залежить від обробної здатності даних, яку забезпечують надвеликі кластерні GPU, тоді як для висновку вимоги до обчислювальної потужності GPU є відносно нижчими, як, наприклад, Aethir, який зосереджується на рендерингу з низькою затримкою та застосуваннях AI висновку.

b. "На стороні попиту" малі споживачі обчислювальних потужностей не будуть самостійно тренувати свої великі моделі, а просто виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, а ці сценарії природно підходять для розподілених резервних обчислювальних ресурсів.

  • Децентралізована власність: технологічне значення блокчейну полягає в тому, що власники ресурсів завжди зберігають контроль над ресурсами, можуть гнучко регулювати їх відповідно до потреби, отримуючи при цьому доходи.

Дані

Дані є основою штучного інтелекту. Якщо немає даних, обчислення стає безглуздим, як водорості, а зв'язок між даними та моделлю схожий на прислів'я "сміття всередині, сміття зовні"; кількість даних та якість введення визначають остаточну якість виходу моделі. Для навчання сучасних AI-моделей дані визначають мовні здібності моделі, її здатність до розуміння, навіть цінності та гуманістичні прояви. Наразі проблеми з потребами в даних для AI зосереджені на чотирьох основних аспектах:

  • Голод даних: навчання моделей ШІ залежить від величезних обсягів вхідних даних. Відкриті дані показують, що OpenAI навчила GPT-4 з обсягом параметрів на рівні трильйонів.

  • Якість даних: з розвитком ШІ та інтеграцією в різні галузі виникають нові вимоги до якості даних, такі як своєчасність, різноманітність, спеціалізація в конкретних категоріях даних та нові джерела даних, такі як емоції в соціальних медіа.

  • Проблеми конфіденційності та відповідності: наразі країни та компанії поступово усвідомлюють важливість якісних наборів даних і вводять обмеження на збори наборів даних.

  • Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що понад 30% витрат на дослідження і розробки в AI-компаніях ідуть на первинне збори та обробку даних.

В даний час рішення web3 втілюються в чотирьох основних аспектах:

  1. Збір даних: Безкоштовно надані дані з реального світу швидко вичерпуються, а витрати AI-компаній на дані щороку зростають. Але ці витрати не повертаються до справжніх авторів даних, і платформи повністю користуються створенням вартості, яку приносить дані, наприклад, Reddit отримав загальний дохід у 203 мільйони доларів США завдяки укладенню угод на ліцензування даних з AI-компаніями.

Дати можливість справжнім користувачам також брати участь у створенні вартості, яку приносить дані, а також отримувати більш приватні та цінні дані від користувачів за низькою вартістю через дистрибутивну мережу та механізми стимулювання — ось що є візією Web3.

  • Grass є децентралізованим рівнем даних і мережею, користувачі можуть запустити вузли Grass, щоб внести свій вклад у вільну пропускну здатність і ретрансляцію трафіку для захоплення реальних даних з усього Інтернету та отримання винагороди у вигляді токенів;

  • Vana впровадила унікальну концепцію пулів ліквідності даних (DLP), користувачі можуть завантажувати приватні дані (такі як історія покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP та гнучко обирати, чи надавати ці дані на авторизацію певним третім сторонам;

  • У PublicAI користувачі можуть використовувати #AI或#Web3 як категорійний тег на X і @PublicAI для збору даних.

  1. Попередня обробка даних: під час обробки даних AI, оскільки зібрані дані зазвичай є шумними і містять помилки, перед навчанням моделі їх необхідно очистити та перетворити у придатний формат, що включає нормалізацію, фільтрацію та обробку відсутніх значень. Ця стадія є однією з небагатьох ручних етапів у галузі AI, внаслідок чого виникла професія маркерів даних. Оскільки моделі висувають все вищі вимоги до якості даних, планка для маркерів даних також підвищується, а це завдання природно підходить для децентралізованої механіки винагород Web3.
  • Наразі Grass та OpenLayer розглядають можливість додавання маркування даних як ключового етапу.

  • Synesis запропонував концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороди, надаючи мічені дані, коментарі або інші форми внесків.

  • Проект позначення даних Sapien ігрофікує завдання маркування та дозволяє користувачам ставити бали для отримання додаткових балів.

  1. Приватність даних та безпека: потрібно зрозуміти, що приватність даних та безпека - це два різні поняття. Приватність даних стосується обробки чутливих даних, тоді як безпека даних захищає інформацію від несанкціонованого доступу, знищення та викрадення. Таким чином, переваги технологій приватності Web3 та потенційні сценарії їх застосування проявляються в двох аспектах: (1) навчання на чутливих даних; (2) співпраця з даними: кілька власників даних можуть спільно брати участь у навчанні ШІ, не ділячись оригінальними даними.

Серед поширених технологій конфіденційності в Web3 на сьогоднішній день можна виділити:

  • Довірене середовище виконання ( TEE ), наприклад Super Protocol;

  • Повна гомоморфна криптографія (FHE), наприклад, BasedAI, Fhenix.io або Inco Network;

  • Технології нульового знання (zk), такі як протокол Reclaim, використовують технологію zkTLS для генерації доказів нульового знання HTTPS-трафіку, що дозволяє користувачам безпечно імпортувати дані про активність, репутацію та особистість з зовнішніх веб-сайтів без розкриття чутливої інформації.

Однак наразі ця сфера все ще перебуває на ранній стадії, більшість проектів все ще перебувають у процесі дослідження, однією з нинішніх проблем є занадто високі витрати на обчислення, наприклад:

  • Фреймворк zkML EZKL потребує приблизно 80 хвилин для генерації доказу моделі 1M-nanoGPT.

  • Згідно з даними Modulus Labs, витрати на zkML перевищують витрати на чисті обчислення більш ніж у 1000 разів.

  1. Зберігання даних: після отримання даних потрібно місце для зберігання даних в ланцюгу, а також LLM, створеного за допомогою цих даних. Основною проблемою є доступність даних (DA); до оновлення Danksharding в Ethereum його пропускна спроможність становила 0,08 МБ. А для навчання AI моделей та реального прогнозування зазвичай потрібно від 50 до 100 ГБ пропускної спроможності даних на секунду. Така різниця в масштабах робить існуючі ланцюгові рішення безсилими при "ресурсомістких AI застосуваннях."
  • 0g.AI є представником цієї категорії проектів. Це централізоване рішення для зберігання, розроблене для високих вимог до продуктивності AI, ключові особливості включають: високу продуктивність та масштабованість, підтримку швидкого завантаження та завантаження великих наборів даних за допомогою передових технологій шардінгу (Sharding) та кодування з виправленням помилок (Erasure Coding), швидкість передачі даних наближається до 5 ГБ за секунду.

Два, Проміжне програмне забезпечення: навчання та висновок моделі

Децентралізований ринок відкритих моделей

Дебати про те, чи мають AI моделі бути закритими чи відкритими, ніколи не вщухають. Колективні інновації, які приносить відкритий код, не можуть зрівнятися з закритими моделями.

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
MEVVictimAlliancevip
· 07-09 19:31
Ще одна хвиля великих компаній, що обдурюють невдах.
Переглянути оригіналвідповісти на0
BlockchainFoodievip
· 07-07 08:28
подаючи деяку веб3 альфу, як мішлен-зірковий шеф-кухар дефи... ця комбінація ai+web3 виглядає як ідеальний рецепт, не кажучи вже про те
Переглянути оригіналвідповісти на0
PaperHandsCriminalvip
· 07-07 08:26
Знову обдурюють людей, як лохів. Бачиш зростання – копіюй.
Переглянути оригіналвідповісти на0
GateUser-00be86fcvip
· 07-07 08:23
Торгівля концепціями все ще має сенс.
Переглянути оригіналвідповісти на0
  • Закріпити