# AI+Web3: タワーとプラザ## TL; 博士1. AIコンセプトのWeb3プロジェクトが一時市場と二次市場で資金を引き寄せるターゲットとなっています。2. Web3におけるAI業界の機会は主に、分散型インセンティブを利用して長尾の潜在的供給(をデータ、ストレージ、計算)を横断して調整することに現れています。同時に、オープンソースモデルとAIエージェントの分散型市場を構築しています。3. AIはWeb3業界で主にオンチェーン金融(暗号決済、取引、データ分析)および開発支援に応用されています。4. AI+Web3の有用性は両者の相補性に現れる: Web3はAIの集中化に対抗することが期待され、AIはWeb3が限界を突破するのを助けることが期待される。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)## はじめにここ2年、AIは急速に発展し、ChatGPTの登場は生成型人工知能の新時代を切り開き、Web3分野でも熱狂を巻き起こしました。AIの概念のもとで、Web3プロジェクトの資金調達が明らかに活性化しています。2024年上半期だけで64のWeb3+AIプロジェクトが資金調達を完了し、その中でもAIベースのオペレーティングシステムZyber365がAラウンドで1億ドルの最高資金調達を達成しました。二次市場はさらに繁栄しており、Coingeckoのデータによると、AIセクターの総市場価値は485億ドルに達し、24時間の取引量は約86億ドルです。主流のAI技術の進展は明らかな利好をもたらし、OpenAIのSoraが発表された後、AIセクターの平均価格は151%上昇しました。AIの影響は暗号通貨の資金調達セクターであるMemeにも及び、初のAIエージェントコンセプトのMemeCoin GOATが急速に人気を集め、評価額は14億ドルに達し、AI Memeの熱潮を巻き起こしました。AI+Web3に関連する研究と話題が盛んで、AI+DepinからAI Memecoin、さらにはAI AgentやAI DAOまで、FOMOの感情は新しいストーリーのサイクルのスピードに追いつくのが難しくなっています。AI+Web3という熱いお金、トレンド、未来の幻想に満ちた概念の組み合わせは、資本の仲介によるお見合い結婚と見なされるのも無理はありません。これは投機家の舞台なのか、それとも黎明の爆発の前夜なのか、判断するのは難しいです。この質問に答えるための鍵は、思考することにあります:相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事はこのパターンを考察しようとしています: Web3がAI技術スタックの各段階でどのように機能し、AIがWeb3にどのような新しい活力をもたらすのか?## Part.1 AIスタック下のWeb3にはどんな機会があるのか?この話題を展開する前に、AI大規模モデルの技術スタックを理解する必要があります。AI大モデルは人間の脳に類似しており、初期段階では赤ちゃんが膨大な外部情報を観察して世界を理解する必要がある。これはデータの「収集」段階である。コンピュータが人間の多感覚を持たないため、トレーニング前に「前処理」を行い、無標識情報をコンピュータが理解できる形式に変換する必要がある。データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが徐々に外界を理解し学習するのに似ています。モデルのパラメータは、赤ちゃんが言語能力を絶えず調整するように変化します。学習内容は科目別に分かれたり、人と交流してフィードバックを得て修正され、「ファインチューニング」の段階に入ります。子供は成長して話せるようになると、新しい対話の中で理解し表現することができ、AI大モデルの「推論」段階に似て、新しい入力に対して予測分析を行うことができます。赤ちゃんは言語を通じて感情を表現し、物体を描写し、問題を解決します。これは、AI大モデルが訓練を完了した後、画像分類や音声認識などの特定のタスクに適用されることに似ています。AIエージェントは、次の大規模モデルの形態に近づいています: 複雑な目標を追求するために独立してタスクを実行でき、思考、記憶、計画能力を持ち、ツールを利用して世界と対話することができます。AIの各スタックの痛点に対処するために、Web3は現在、AIモデルプロセスの各段階をカバーする多層的に相互接続されたエコシステムを初歩的に形成しています。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)### 1. 基本レイヤー: Airbnb (計算能力とデータ) #### ハッシュレート現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。MetaのLLAMA3は16000個のNVIDIA H100 GPUを使用して30日間のトレーニングを完了する必要があります。80GB版の単価は3-4万ドルで、4-7億ドルのハードウェア投資が必要です。毎月のトレーニングには16億キロワット時の電力を消費し、エネルギー支出は約2000万ドルになります。AI計算力の解放はWeb3とAIの交差する最初の分野------DePin(分散型物理インフラネットワーク)。DePin Ninjaは1400以上のプロジェクトをリストアップしており、GPU計算力の共有を代表するものとしてio.net、Aethir、Akash、Render Networkなどがあります。主な論理:プラットフォームは、余剰GPUリソースの所有者が許可なしに分散型で計算能力を提供できるようにし、UberやAirbnbの売買双方のオンライン市場に似ており、未活用のGPUリソースの利用率を向上させ、エンドユーザーは低コストで効率的な計算リソースを得ることができる。また、ステーキングメカニズムにより、品質管理に違反したりネットワークを中断した場合、リソース提供者は罰せられる。特異:- 余剰GPUリソースの集約: 主に第三者の中小データセンターや暗号マイニングファームなどの過剰な計算能力、PoSマイニングハードウェアとしてFileCoinやETHマイニング機器が含まれます。また、exolabのようにMacBook、iPhone、iPadなどのローカルデバイスを利用して大規模モデル推論計算ネットワークを構築することに取り組むプロジェクトもあります。- AI計算力のロングテール市場をターゲットにする:a. 技術面: より推論ステップに適しています。トレーニングは超大規模なクラスタGPUに依存し、推論はGPUの計算性能に対する要求が低く、Aethirは低遅延レンダリングとAI推論に焦点を当てています。b. 需要サイド: 中小の計算能力を持つ需要者は大規模モデルを単独で訓練することはなく、主にトップの大規模モデルを最適化して微調整することに集中し、分散型の遊休計算リソースに自然に適しています。- 分散型所有権: ブロックチェーン技術の意義は、リソースの所有者が常にリソースのコントロール権を保持し、柔軟に調整しながら収益を得ることができることです。#### データデータはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ゴミ入れ、ゴミ出し」です。データの量と質は最終的なモデル出力の質を決定します。AIモデルのトレーニングにおいて、データは言語能力、理解能力、価値観、そして人間らしい表現を決定します。現在、AIデータの需要に関する主な課題は次のとおりです:- データ飢餓: AIモデルのトレーニングは膨大なデータ入力に依存しています。OpenAIはGPT-4のパラメータ量を兆単位で訓練しました。- データ品質: AIと各業界の結びつきに伴い、データのタイムリー性、多様性、専門性、ソーシャルメディアの感情情報などの新たなデータソースに対しても新たな要求が出されています。- プライバシーとコンプライアンス:各国の企業は質の高いデータセットの重要性に徐々に注意を払い、データセットのクローリングを制限しています。- データ処理コストが高い: データ量が多く、処理が複雑です。AI企業は研究開発コストの30%以上を基礎データの収集と処理に費やしています。Web3ソリューションは4つの側面に表れます:1. データ収集: 無料で現実世界のデータを迅速に収集することは尽きてしまい、AI企業のデータ支出は年々増加していますが、実際の貢献者には還元されていません。プラットフォームはすべての価値創造を享受し、RedditはAI企業のデータライセンス契約を通じて2億300万ドルの収入を得ています。真の貢献をするユーザーがデータ価値の創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートな貴重なデータを取得することがWeb3のビジョンです。- グラス:分散化されたデータ層とネットワーク、ユーザーはノードを運営し、未使用の帯域幅を提供してリアルタイムデータをキャッチし、トークン報酬を得る。- Vana:データ流動性プール(DLP)の概念を導入し、ユーザーは特定のDLPにプライベートデータをアップロードし、第三者の使用を許可するかどうかを柔軟に選択できます。- PublicAI:ユーザーはX上で#AI或#Web3タグを使用し、@PublicAIを指定することでデータ収集を実現できます。2. データ前処理: AIデータ処理において、データの収集は通常雑音が多く、エラーが含まれているため、トレーニング前に利用可能な形式にクリーニングする必要があります。これには標準化、フィルタリング、欠損値の処理などの繰り返し作業が含まれます。この段階はAI業界の数少ない人手作業の部分であり、データアノテーション専門家の業界が生まれました。モデルがデータ品質に対する要求を高めるにつれて、ハードルも上がり、自然とWeb3の分散型インセンティブメカニズムに適しています。- GrassとOpenLayerはデータアノテーションの段階を追加することを検討しています。- Synesisは「Train2earn」コンセプトを提唱し、データの質を強調し、ユーザーが注釈データやコメントを提供することで報酬を得る。- データラベリングプロジェクトSapienは、マークタスクをゲーム化し、ユーザーはポイントをステークしてさらに多くのポイントを獲得します。3. データプライバシーとセキュリティ: データプライバシーとセキュリティは二つの概念であることを明確にする必要があります。データプライバシーは敏感なデータの処理に関連し、データセキュリティは未承認のアクセス、破壊、盗難からデータを保護します。Web3のプライバシー技術の利点と潜在的なアプリケーションシーン: (1)敏感データのトレーニング; (2)データコラボレーション: 複数のデータ所有者が共同でAIトレーニングに参加し、原データを共有する必要がありません。現在のWeb3一般的なプライバシー技術:- Super Protocolなどの信頼できる実行環境(TEE)- BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE) - ゼロ知識技術(zk)、Reclaim ProtocolのようにzkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部ウェブサイトの活動、評判、及びアイデンティティデータを安全にインポートすることを可能にし、敏感な情報を露出することなく行います。この分野はまだ初期段階にあり、ほとんどのプロジェクトは探索中であり、現在の困難は計算コストが高いことです。例として:- zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。- Modulus Labsのデータによると、zkMLのオーバーヘッドは純粋な計算の1000倍以上です。4. データストレージ: チェーン上にデータを保存し、LLMを生成する必要があります。データの可用性(DA)を核心問題とし、イーサリアムのダンクシャーディングアップグレード前のスループットは0.08MBです。AIモデルのトレーニングとリアルタイム推論は通常、毎秒50-100GBのデータスループットを必要とします。この規模のギャップは、既存のチェーン上のソリューションがリソース集約型AIアプリケーションに対応することを困難にします。- 0g.AIは代表プロジェクトです。AIの高性能要求に対応するために設計された集中型ストレージソリューションで、主要な特徴は高性能と拡張性です。高度なシャーディングとエラーディレクテッドコーディング技術を通じて、大規模データセットの迅速なアップロードとダウンロードをサポートし、データ転送速度は毎秒5GBに近いです。### 二、ミドルウェア: モデルのトレーニングと推論#### オープンソースモデルの非中央集権市場AIモデルのクローズドソースとオープンソースの論争が続いています。オープンソースは集団的な革新をもたらし、クローズドソースには比類のない利点がありますが、収益モデルがない中で開発者の推進力をどう高めるかが課題です。百度の創業者である李彦宏は4月に「オープンソースモデルはますます遅れを取るだろう」と断言しました。Web3は、モデル自体のトークン化を通じて、モデルのために一定の割合のトークンをチームに保持させ、将来の収益の一部をトークン保有者に流すことで、分散型オープンソースモデル市場の可能性を提案します。- BittensorプロトコルはオープンソースモデルのP2P市場を構築し、数十の「サブネット」から構成されています。リソース提供者(は計算、データ収集/ストレージ、機械学習の専門家)が相互に競争し、特定のサブネット所有者の目標を満たします。各サブネットは相互に学習し、より強力な知能を実現します。報酬はコミュニティの投票によって分配され、競争のパフォーマンスに基づいて各サブネットにさらに分配されます。- ORAは初期モデル発行(IMO)の概念を導入し、AIモデルをトークン化し、分散型ネットワークを通じてAIモデルを購入、販売、開発することができます。- Sentient、去中心化AGIプラットフォームは、人々が協力し、構築し、複製し、AIモデルを拡張することを促し、貢献者に報酬を与えます。- スペクトラルノヴァ、AIおよびMLモデルの作成と応用に焦点を当てています。#### 検証可能な推論AI推論の「ブラックボックス」問題に対する標準的なWeb3ソリューションは、複数のバリデーターが操作結果を比較することですが、高級「Nvidiaチップ」の不足によりAI推論のコストが高騰しており、このアプローチは課題に直面しています。より希望があるのは、オフチェーンのAI推論計算を行うZK証明であり、オンチェーンでAIモデル計算の許可を必要としないことです。オフチェーン計算が正しく完了したことを証明するために、オンチェーンで暗号化された証明が必要であり、データセットが改ざんされていない(ことを確認し、同時にすべてのデータの機密性を確保する必要があります。主な利点:- スケーラビリティ: ゼロ知識証明は、大量のオフチェーン計算を迅速に確認できます。取引の数が増えても、単一の証明で全ての取引を検証できます。- プライバシー保護: データとAIモデルの詳細は機密保持され、関係者はデータとモデルが改ざんされていないことを検証できます。- 信頼不要: 中央集権的な関係者に依存せずに計算を確認できます。- Web2統合: 定義上Web2はオンチェーンの統合であり、検証可能な推論はそのデータセットとAI計算をオンチェーンに持ち込むのに役立ち、Web3の採用率を向上させるのに貢献します。現在のWeb3における検証可能な推論の技術:- zkML: ゼロ知識証明と機械学習を組み合わせ、データとモデルのプライバシー機密性を確保し、基盤となる属性を開示することなく検証可能な計算を許可します。Modulus LabsがZKMLに基づいて発表したAI構築のZK証明器は、AIプロバイダーがチェーン上でアルゴリズムを正しく実行しているかを効果的にチェックします。現在の顧客は基本的にチェーン上のDAppです。- opML:楽観的集約の原則を利用し、争議が発生した時間を検証することで、ML計を向上させる
Web3はAI産業チェーンの各段階でどのように機能するか
AI+Web3: タワーとプラザ
TL; 博士
AIコンセプトのWeb3プロジェクトが一時市場と二次市場で資金を引き寄せるターゲットとなっています。
Web3におけるAI業界の機会は主に、分散型インセンティブを利用して長尾の潜在的供給(をデータ、ストレージ、計算)を横断して調整することに現れています。同時に、オープンソースモデルとAIエージェントの分散型市場を構築しています。
AIはWeb3業界で主にオンチェーン金融(暗号決済、取引、データ分析)および開発支援に応用されています。
AI+Web3の有用性は両者の相補性に現れる: Web3はAIの集中化に対抗することが期待され、AIはWeb3が限界を突破するのを助けることが期待される。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIは急速に発展し、ChatGPTの登場は生成型人工知能の新時代を切り開き、Web3分野でも熱狂を巻き起こしました。
AIの概念のもとで、Web3プロジェクトの資金調達が明らかに活性化しています。2024年上半期だけで64のWeb3+AIプロジェクトが資金調達を完了し、その中でもAIベースのオペレーティングシステムZyber365がAラウンドで1億ドルの最高資金調達を達成しました。
二次市場はさらに繁栄しており、Coingeckoのデータによると、AIセクターの総市場価値は485億ドルに達し、24時間の取引量は約86億ドルです。主流のAI技術の進展は明らかな利好をもたらし、OpenAIのSoraが発表された後、AIセクターの平均価格は151%上昇しました。AIの影響は暗号通貨の資金調達セクターであるMemeにも及び、初のAIエージェントコンセプトのMemeCoin GOATが急速に人気を集め、評価額は14億ドルに達し、AI Memeの熱潮を巻き起こしました。
AI+Web3に関連する研究と話題が盛んで、AI+DepinからAI Memecoin、さらにはAI AgentやAI DAOまで、FOMOの感情は新しいストーリーのサイクルのスピードに追いつくのが難しくなっています。
AI+Web3という熱いお金、トレンド、未来の幻想に満ちた概念の組み合わせは、資本の仲介によるお見合い結婚と見なされるのも無理はありません。これは投機家の舞台なのか、それとも黎明の爆発の前夜なのか、判断するのは難しいです。
この質問に答えるための鍵は、思考することにあります:相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事はこのパターンを考察しようとしています: Web3がAI技術スタックの各段階でどのように機能し、AIがWeb3にどのような新しい活力をもたらすのか?
Part.1 AIスタック下のWeb3にはどんな機会があるのか?
この話題を展開する前に、AI大規模モデルの技術スタックを理解する必要があります。
AI大モデルは人間の脳に類似しており、初期段階では赤ちゃんが膨大な外部情報を観察して世界を理解する必要がある。これはデータの「収集」段階である。コンピュータが人間の多感覚を持たないため、トレーニング前に「前処理」を行い、無標識情報をコンピュータが理解できる形式に変換する必要がある。
データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが徐々に外界を理解し学習するのに似ています。モデルのパラメータは、赤ちゃんが言語能力を絶えず調整するように変化します。学習内容は科目別に分かれたり、人と交流してフィードバックを得て修正され、「ファインチューニング」の段階に入ります。
子供は成長して話せるようになると、新しい対話の中で理解し表現することができ、AI大モデルの「推論」段階に似て、新しい入力に対して予測分析を行うことができます。赤ちゃんは言語を通じて感情を表現し、物体を描写し、問題を解決します。これは、AI大モデルが訓練を完了した後、画像分類や音声認識などの特定のタスクに適用されることに似ています。
AIエージェントは、次の大規模モデルの形態に近づいています: 複雑な目標を追求するために独立してタスクを実行でき、思考、記憶、計画能力を持ち、ツールを利用して世界と対話することができます。
AIの各スタックの痛点に対処するために、Web3は現在、AIモデルプロセスの各段階をカバーする多層的に相互接続されたエコシステムを初歩的に形成しています。
! AI+Web3:タワー&スクエア
1. 基本レイヤー: Airbnb (計算能力とデータ)
ハッシュレート
現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。
MetaのLLAMA3は16000個のNVIDIA H100 GPUを使用して30日間のトレーニングを完了する必要があります。80GB版の単価は3-4万ドルで、4-7億ドルのハードウェア投資が必要です。毎月のトレーニングには16億キロワット時の電力を消費し、エネルギー支出は約2000万ドルになります。
AI計算力の解放はWeb3とAIの交差する最初の分野------DePin(分散型物理インフラネットワーク)。DePin Ninjaは1400以上のプロジェクトをリストアップしており、GPU計算力の共有を代表するものとしてio.net、Aethir、Akash、Render Networkなどがあります。
主な論理:プラットフォームは、余剰GPUリソースの所有者が許可なしに分散型で計算能力を提供できるようにし、UberやAirbnbの売買双方のオンライン市場に似ており、未活用のGPUリソースの利用率を向上させ、エンドユーザーは低コストで効率的な計算リソースを得ることができる。また、ステーキングメカニズムにより、品質管理に違反したりネットワークを中断した場合、リソース提供者は罰せられる。
特異:
余剰GPUリソースの集約: 主に第三者の中小データセンターや暗号マイニングファームなどの過剰な計算能力、PoSマイニングハードウェアとしてFileCoinやETHマイニング機器が含まれます。また、exolabのようにMacBook、iPhone、iPadなどのローカルデバイスを利用して大規模モデル推論計算ネットワークを構築することに取り組むプロジェクトもあります。
AI計算力のロングテール市場をターゲットにする: a. 技術面: より推論ステップに適しています。トレーニングは超大規模なクラスタGPUに依存し、推論はGPUの計算性能に対する要求が低く、Aethirは低遅延レンダリングとAI推論に焦点を当てています。 b. 需要サイド: 中小の計算能力を持つ需要者は大規模モデルを単独で訓練することはなく、主にトップの大規模モデルを最適化して微調整することに集中し、分散型の遊休計算リソースに自然に適しています。
分散型所有権: ブロックチェーン技術の意義は、リソースの所有者が常にリソースのコントロール権を保持し、柔軟に調整しながら収益を得ることができることです。
データ
データはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ゴミ入れ、ゴミ出し」です。データの量と質は最終的なモデル出力の質を決定します。AIモデルのトレーニングにおいて、データは言語能力、理解能力、価値観、そして人間らしい表現を決定します。現在、AIデータの需要に関する主な課題は次のとおりです:
データ飢餓: AIモデルのトレーニングは膨大なデータ入力に依存しています。OpenAIはGPT-4のパラメータ量を兆単位で訓練しました。
データ品質: AIと各業界の結びつきに伴い、データのタイムリー性、多様性、専門性、ソーシャルメディアの感情情報などの新たなデータソースに対しても新たな要求が出されています。
プライバシーとコンプライアンス:各国の企業は質の高いデータセットの重要性に徐々に注意を払い、データセットのクローリングを制限しています。
データ処理コストが高い: データ量が多く、処理が複雑です。AI企業は研究開発コストの30%以上を基礎データの収集と処理に費やしています。
Web3ソリューションは4つの側面に表れます:
真の貢献をするユーザーがデータ価値の創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートな貴重なデータを取得することがWeb3のビジョンです。
グラス:分散化されたデータ層とネットワーク、ユーザーはノードを運営し、未使用の帯域幅を提供してリアルタイムデータをキャッチし、トークン報酬を得る。
Vana:データ流動性プール(DLP)の概念を導入し、ユーザーは特定のDLPにプライベートデータをアップロードし、第三者の使用を許可するかどうかを柔軟に選択できます。
PublicAI:ユーザーはX上で#AI或#Web3タグを使用し、@PublicAIを指定することでデータ収集を実現できます。
GrassとOpenLayerはデータアノテーションの段階を追加することを検討しています。
Synesisは「Train2earn」コンセプトを提唱し、データの質を強調し、ユーザーが注釈データやコメントを提供することで報酬を得る。
データラベリングプロジェクトSapienは、マークタスクをゲーム化し、ユーザーはポイントをステークしてさらに多くのポイントを獲得します。
現在のWeb3一般的なプライバシー技術:
Super Protocolなどの信頼できる実行環境(TEE)
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)
ゼロ知識技術(zk)、Reclaim ProtocolのようにzkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部ウェブサイトの活動、評判、及びアイデンティティデータを安全にインポートすることを可能にし、敏感な情報を露出することなく行います。
この分野はまだ初期段階にあり、ほとんどのプロジェクトは探索中であり、現在の困難は計算コストが高いことです。例として:
zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。
Modulus Labsのデータによると、zkMLのオーバーヘッドは純粋な計算の1000倍以上です。
二、ミドルウェア: モデルのトレーニングと推論
オープンソースモデルの非中央集権市場
AIモデルのクローズドソースとオープンソースの論争が続いています。オープンソースは集団的な革新をもたらし、クローズドソースには比類のない利点がありますが、収益モデルがない中で開発者の推進力をどう高めるかが課題です。百度の創業者である李彦宏は4月に「オープンソースモデルはますます遅れを取るだろう」と断言しました。
Web3は、モデル自体のトークン化を通じて、モデルのために一定の割合のトークンをチームに保持させ、将来の収益の一部をトークン保有者に流すことで、分散型オープンソースモデル市場の可能性を提案します。
BittensorプロトコルはオープンソースモデルのP2P市場を構築し、数十の「サブネット」から構成されています。リソース提供者(は計算、データ収集/ストレージ、機械学習の専門家)が相互に競争し、特定のサブネット所有者の目標を満たします。各サブネットは相互に学習し、より強力な知能を実現します。報酬はコミュニティの投票によって分配され、競争のパフォーマンスに基づいて各サブネットにさらに分配されます。
ORAは初期モデル発行(IMO)の概念を導入し、AIモデルをトークン化し、分散型ネットワークを通じてAIモデルを購入、販売、開発することができます。
Sentient、去中心化AGIプラットフォームは、人々が協力し、構築し、複製し、AIモデルを拡張することを促し、貢献者に報酬を与えます。
スペクトラルノヴァ、AIおよびMLモデルの作成と応用に焦点を当てています。
検証可能な推論
AI推論の「ブラックボックス」問題に対する標準的なWeb3ソリューションは、複数のバリデーターが操作結果を比較することですが、高級「Nvidiaチップ」の不足によりAI推論のコストが高騰しており、このアプローチは課題に直面しています。
より希望があるのは、オフチェーンのAI推論計算を行うZK証明であり、オンチェーンでAIモデル計算の許可を必要としないことです。オフチェーン計算が正しく完了したことを証明するために、オンチェーンで暗号化された証明が必要であり、データセットが改ざんされていない(ことを確認し、同時にすべてのデータの機密性を確保する必要があります。
主な利点:
スケーラビリティ: ゼロ知識証明は、大量のオフチェーン計算を迅速に確認できます。取引の数が増えても、単一の証明で全ての取引を検証できます。
プライバシー保護: データとAIモデルの詳細は機密保持され、関係者はデータとモデルが改ざんされていないことを検証できます。
信頼不要: 中央集権的な関係者に依存せずに計算を確認できます。
Web2統合: 定義上Web2はオンチェーンの統合であり、検証可能な推論はそのデータセットとAI計算をオンチェーンに持ち込むのに役立ち、Web3の採用率を向上させるのに貢献します。
現在のWeb3における検証可能な推論の技術:
zkML: ゼロ知識証明と機械学習を組み合わせ、データとモデルのプライバシー機密性を確保し、基盤となる属性を開示することなく検証可能な計算を許可します。Modulus LabsがZKMLに基づいて発表したAI構築のZK証明器は、AIプロバイダーがチェーン上でアルゴリズムを正しく実行しているかを効果的にチェックします。現在の顧客は基本的にチェーン上のDAppです。
opML:楽観的集約の原則を利用し、争議が発生した時間を検証することで、ML計を向上させる