Синергія AI та Web3: створення децентралізованої екосистеми AI

AI+Web3:Вежі та площі

Коротко кажучи

  1. Проекти Web3 з концепцією ШІ стають об'єктами для залучення капіталу на первинному та вторинному ринках.

  2. Можливості Web3 в AI-індустрії проявляються у використанні розподілених стимулів для координації потенційних постачальників у довгому хвості------між даними, зберіганням та обчисленнями; одночасно створюючи відкриту модель та децентралізований ринок AI-агентів.

  3. Основними сферами використання штучного інтелекту в індустрії Web3 є фінанси на блокчейні (криптоплатежі, торгівля, аналіз даних) та допомога в розробці.

  4. Ефективність AI+Web3 проявляється в їхній взаємодоповнювальності: Web3 має надію протистояти централізації AI, AI має надію допомогти Web3 вийти за межі.

! AI+Web3: Вежі та Плази

Вступ

Останні два роки розвиток штучного інтелекту, здається, натиснув на кнопку прискорення. Цей ефект метелика, спровокований Chatgpt, не лише відкрив новий світ генеративного штучного інтелекту, але й викликав хвилю на іншій стороні у Web3.

Під впливом концепції AI фінансування в крипторинку суттєво зросло в умовах уповільнення. Згідно з даними ЗМІ, лише в першій половині 2024 року було завершено фінансування 64 проектів Web3+AI, а операційна система на базі штучного інтелекту Zyber365 в рамках раунду A досягла найвищої суми фінансування в 100 мільйонів доларів.

Ринок другого рівня став ще більш процвітаючим, дані з агрегаторів криптовалют показують, що за короткий період трохи більше року загальна капіталізація сектора ШІ досягла 48,5 мільярда доларів, а 24-годинний обсяг торгів наблизився до 8,6 мільярда доларів; позитивний вплив прогресу в основних технологіях ШІ є очевидним, після випуску моделі OpenAI Sora для перетворення тексту в відео середня ціна в секторі ШІ зросла на 151%; ефект ШІ також торкнувся одного з сегментів, що залучають криптовалюту, Meme: перший концепт AI Agent MemeCoin------GOAT швидко став популярним і отримав оцінку в 1,4 мільярда доларів, успішно розпочавши бум AI Meme.

Дослідження та теми щодо AI+Web3 також на піку популярності, від AI+Depin до AI Memecoin, а потім до поточних AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.

AI+Web3, ця комбінація термінів, наповнена гарячими грошима, трендами та майбутніми ілюзіями, неминуче сприймається як шлюб, що організований капіталом, нам, здається, важко розрізнити під цією розкішною накидкою, чи є це майданчиком спекулянтів, чи ж переддень вибуху нового світанку?

Щоб відповісти на це питання, ключове міркування для обох сторін полягає в тому, чи стане краще з присутністю один одного? Чи можна отримати вигоду з моделі один одного? У цій статті ми також намагаємося подивитися на цю структуру, спираючись на плечі попередників: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і що нового AI може принести Web3?

Частина 1 Які можливості у Web3 під стеком AI?

Перед тим, як розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:

Викладіть весь процес більш зрозумілою мовою: «Велика модель» схожа на людський мозок, на початковому етапі цей мозок належить новонародженій дитині, яка повинна спостерігати та засвоювати величезну кількість інформації з навколишнього світу, щоб зрозуміти цей світ, це етап «збирання» даних; оскільки комп'ютери не мають таких сенсорів, як зір і слух, перед навчанням велика кількість не маркованої інформації ззовні повинна бути перетворена через «попередню обробку» в інформаційний формат, зрозумілий і придатний для використання комп'ютером.

Після введення даних AI через «навчання» створює модель, яка має здатність розуміти та прогнозувати, що можна розглядати як процес, у якому немовля поступово розуміє та вивчає навколишній світ; параметри моделі подібні до мовних навичок, які постійно коригуються під час навчання немовляти. Коли вміст навчання починає розділятися на предмети або коли під час спілкування з людьми отримується зворотний зв'язок і вносяться корективи, це переходить до етапу «тонкої настройки» великої моделі.

Діти, які поступово підростають і навчаються говорити, можуть розуміти значення в нових розмовах і висловлювати свої почуття та думки. Цей етап подібний до "інференції" в AI великих моделей, коли модель може прогнозувати та аналізувати нові мовні та текстові введення. Діти через мовні здібності виражають свої почуття, описують об'єкти та вирішують різні проблеми, що також нагадує застосування AI великих моделей на етапі інференції для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.

А AI Agent наближається до наступної форми великої моделі ------ здатної самостійно виконувати завдання та переслідувати складні цілі, яка має не лише здатність мислити, але й пам'ятати, планувати, а також використовувати інструменти для взаємодії з світом.

Наразі, на адресу болючих моментів штучного інтелекту на різних стекових рівнях, Web3 вже початково сформував багатошарову, взаємопов'язану екосистему, що охоплює всі етапи процесу моделей штучного інтелекту.

! AI+Web3: Вежі та Квадрати

Один. Базовий рівень: обчислювальна потужність і дані Airbnb

▎потужність

Наразі однією з найбільших витрат AI є обчислювальна потужність і енергія, необхідні для навчання та виразу моделей.

Один з прикладів - це те, що Meta LLAMA3 потребує 16000 графічних процесорів H100GPU, вироблених NVIDIA (це провідний графічний процесор, спеціально розроблений для штучного інтелекту та високопродуктивних обчислювальних навантажень). Тренування займає 30 днів. Ціна за одиницю версії з 80 ГБ коливається від 30 000 до 40 000 доларів, що потребує інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) у розмірі 4-7 сотень мільйонів доларів, в той же час щомісячне тренування вимагає споживання 1,6 мільярдів кіловат-годин, витрати на енергію складають близько 20 мільйонів доларів на місяць.

Розвантаження потужності штучного інтелекту є саме тією сферою, де Web3 вперше перетинається з AI------DePin (децентралізовані фізичні інфраструктурні мережі). Наразі на вебсайті даних представлено понад 1400 проектів, серед яких проекти, що представляють спільний доступ до GPU-потужностей, включають io.net, Aethir, Akash, Render Network тощо.

Основна логіка полягає в тому, що платформа дозволяє особам або організаціям, які мають невикористані GPU-ресурси, без необхідності отримувати дозвіл в децентралізованому порядку вносити свій обчислювальний потенціал. За допомогою онлайн-ринку, подібного до Uber або Airbnb, підвищується рівень використання невикористаних GPU-ресурсів, і кінцеві користувачі отримують більш доступні та ефективні обчислювальні ресурси. Водночас механізм стейкінгу також забезпечує, що у випадку порушення механізму контролю якості або переривання роботи мережі, постачальники ресурсів зазнають відповідного покарання.

Його особливістю є:

  • Збір вільних ресурсів GPU: Постачальниками здебільшого є незалежні середні та малі дата-центри, надлишкові обчислювальні ресурси операторів криптопромислів тощо, а також обладнання для видобутку з механізмом консенсусу PoS, таке як майнери FileCoin і ETH. Наразі є також проекти, які прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує MacBook, iPhone, iPad та інші локальні пристрої для створення мережі обчислювальної потужності для виконання великих моделей.

  • Зустріч з довгим хвостом ринку обчислювальної потужності AI:

a. "З технічної точки зору" децентралізований ринок обчислювальної потужності більш підходить для етапів висновків. Навчання більше залежить від обробної потужності даних, яку забезпечують надвеликі кластерні GPU, тоді як для висновків вимоги до обчислювальної потужності GPU відносно нижчі, як, наприклад, Aethir, який зосереджується на рендерингу з низькою затримкою та застосуваннях AI для висновків.

б. "Щодо боку попиту" невеликі замовники обчислювальних потужностей не будуть окремо навчати свої великі моделі, а просто виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, і ці сценарії природно підходять для розподілених невикористаних обчислювальних ресурсів.

  • Децентралізована власність: технологічне значення блокчейну полягає в тому, що власники ресурсів завжди зберігають контроль над своїми ресурсами, гнучко налаштовуючи їх відповідно до потреб та отримуючи прибуток.

▎Дані

Дані є основою ШІ. Без даних обчислення, як водяна рослина на поверхні води, абсолютно марні, а зв'язок між даними та моделлю нагадує прислів'я "Сміття на вході, сміття на виході". Кількість даних та якість вводу визначають кінцеву якість виходу моделі. Для навчання сучасних ШІ-моделей дані визначають мовленнєві здібності моделі, її розуміння, навіть цінності та гуманізацію. Наразі проблеми потреби ШІ у даних головним чином зосереджені на чотирьох аспектах:

  • Голод даних: Навчання AI моделей потребує великої кількості даних. Відкриті дані показують, що OpenAI навчала GPT-4 на рівні трильйонів параметрів.

  • Якість даних: з поєднанням ШІ та різних галузей виникають нові вимоги до якості, зокрема до своєчасності даних, різноманітності даних, спеціалізації галузевих даних та інтеграції нових джерел даних, таких як емоції з соціальних медіа.

  • Проблеми конфіденційності та відповідності: наразі різні країни та компанії поступово усвідомлюють важливість якісних наборів даних і вводять обмеження на краудинг наборів даних.

  • Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що більше 30% витрат на дослідження та розробки в AI компаніях йдуть на збір та обробку базових даних.

Наразі рішення web3 втілені в наступних чотирьох аспектах:

  1. Збір даних: можливість безкоштовно отримувати реальні дані зі світу швидко вичерпується, витрати компаній з розробки ШІ на дані зростають з кожним роком. Але водночас ці витрати не повертаються до справжніх внесків постачальників даних, платформи повністю користуються створенням вартості, яке приносить дані, наприклад, Reddit отримав 203 мільйони доларів доходу завдяки угодам з ліцензування даних з компаніями ШІ.

Дати можливість справжнім внескам користувачів так само брати участь у створенні вартості, що приносить дані, а також отримувати більш приватні та цінні дані від користувачів за допомогою розподілених мереж і механізмів стимулювання з низькими витратами – це бачення Web3.

  • Grass є децентралізованим рівнем даних та мережею, користувачі можуть запускати вузли Grass, щоб вносити свій вільний пропускний здатність і релейний трафік для захоплення в реальному часі даних з усього Інтернету та отримувати токенні винагороди;

  • Vana запровадила унікальну концепцію пулу ліквідності даних (DLP), яка дозволяє користувачам завантажувати свої приватні дані (такі як історія покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP та гнучко обирати, чи надавати ці дані для використання конкретним третім сторонам;

  • На певній AI платформі користувач може використовувати #AI 或#Web3 як категорійний тег у соціальних мережах і @ цієї платформи для збору даних.

  1. Передобробка даних: під час обробки даних AI, оскільки зібрані дані зазвичай є шумними і містять помилки, їх необхідно очистити та перетворити в придатний формат перед навчанням моделі, що включає стандартизацію, фільтрацію та обробку пропусків. Ця фаза є однією з небагатьох ручних етапів в індустрії AI, внаслідок чого виникла професія спеціалістів з маркування даних. Оскільки вимоги моделі до якості даних зростають, поріг входження для спеціалістів з маркування даних також підвищується, а це завдання природно підходить для децентралізованих механізмів стимулювання Web3.
  • Наразі Grass та OpenLayer обидві розглядають можливість приєднання до цього ключового етапу позначення даних.

  • Synesis представив концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороду за надання анотованих даних, коментарів або інших форм внеску.

  • Проект міток даних Sapien гейміфікує завдання відмітки та дозволяє користувачам ставити на кон бали для отримання додаткових балів.

  1. Конфіденційність даних та безпека: необхідно роз'яснити, що конфіденційність даних та безпека - це два різні поняття. Конфіденційність даних стосується обробки чутливих даних, тоді як безпека даних захищає інформацію від несанкціонованого доступу, знищення та крадіжки. Таким чином, переваги технологій конфіденційності Web3 та потенційні сценарії їх застосування проявляються в двох аспектах: (1) навчання на чутливих даних; (2) співпраця з даними: кілька власників даних можуть спільно брати участь у навчанні ШІ, не ділячись своїми оригінальними даними.

Поточні загальноприйняті технології конфіденційності Web3 включають:

  • Достовірне виконуване середовище(TEE), наприклад, Super Protocol;

  • Повна гомоморфна криптографія (FHE), наприклад BasedAI, Fhenix.io або Inco Network;

  • Технології нульових знань (zk), такі як Reclaim Protocol, використовують технологію zkTLS для генерування доказів нульових знань для HTTPS-трафіку, дозволяючи користувачам безпечно імпортувати активність, репутацію та ідентифікаційні дані з зовнішніх сайтів, не розкриваючи чутливу інформацію.

Проте, наразі ця сфера все ще знаходиться на ранній стадії, більшість проектів все ще в процесі дослідження, нинішньою проблемою є надто високі витрати на обчислення, деякі приклади це:

  • zkML фрейм E
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
0xSleepDeprivedvip
· 16год тому
Це стало трохи цікавіше.
Переглянути оригіналвідповісти на0
GasFeeSobbervip
· 16год тому
Проект має перспективи.
Переглянути оригіналвідповісти на0
WalletWhisperervip
· 16год тому
Майбутнє вже настало, майбутнє обіцяє.
Переглянути оригіналвідповісти на0
CryptoAdventurervip
· 16год тому
All in новий тренд увійти в позицію
Переглянути оригіналвідповісти на0
  • Закріпити