大規模モデルのトレーニングからの脱却#
- 大規模モデルのトレーニングは上流のプロセスであり、「知識 / データ集約の研究 + トレーニングの計算集約の開発プロセス」です。
- 大規模モデルの適用は下流のプロセスであり、「ドメイン知識に基づく微調整 + 推論の計算集約の運用プロセス」です。
「大規模モデルの作成」からの脱却し、アプリケーションの側に進むと、垂直業界の大規模モデルに加えて、C 端の消費者向けのスケーラブルな機会もあります:AI エージェントの高速道路
分散推論計算力ネットワークは、大規模モデルの実現のための「物流」ネットワークです#
大規模モデルを「貨物」と見なすと、貨物 = モデル + 計算力 + 帯域幅 + ストレージとなります。これらの要素は欠かせません。要素を分解すると:
1. モデル#
パブリックネットワークにおける中央集権型の大規模モデル、企業内でのプライベートデプロイされたモデル、エンドユーザー向けの「小規模」モデルなどが含まれます。
- 中央集権型の大規模モデル:ハードウェアとソフトウェアの一体設計に適しており、専用アーキテクチャをデプロイすることで、推論計算力の要求を低減し、推論速度を向上させ、高速な応答を実現し、運用コストをカバーするためにスケールを利用します。
- 企業内モデル:ローカルネットワークにデプロイすることが適しており、データプライバシーに強い要求があります。
- エンドモデル:携帯端末や家庭の計算力センターにデプロイすることを優先します。
2. 計算力#
主に推論計算力を考慮し、コスト要因を重視します。
- モデル自体は計算力のアーキテクチャの違いを隠蔽します。高性能な計算力カードや汎用 CPU のいずれであっても、「従来の計算力センター」の改造市場が現れます。データセンターに大きな投資を行ってきた企業には、強い要求があります。
- ネットワーク構造自体を考慮すると、計算力センターに近いほど応答速度が速くなります。したがって、分散計算力やエッジ計算力には利点があります。 PCDN プレーヤーは、第 2 の成長曲線を描くチャンスがあります。
3. 帯域幅 + ストレージ#
帯域幅とストレージは簡略化して一緒に考えます。
- IoT / Connected Car / Industrial AI などのアプリケーションは、長いトークンを使用し、帯域幅とストレージの両方に高い要求を持ちます。モデルは第一線にデプロイされることが求められます。
- 基地局は新興の AI 推論センターになる可能性があり、電気通信事業者の役割が増えるかもしれません。AI エージェントの運営者は、自社で大規模モデルを開発する必要はなく、リソースを集中して大規模モデルを運営します。
- 大規模モデルのイテレーション後、更新をエッジに迅速に配信するためには、「高速道路」が必要です。
AI 高速物流ネットワークの利益配分と web3 の深い統合#
大規模モデル時代に参加するさまざまなプレーヤーの役割を示します:
- モデルのオリジナルメーカー:少数の主要な大手企業で、独自のブランドを持つ大規模モデル、オープンソースおよび非オープンソースのモデルが含まれます。
- モデル OEM メーカー:少数の大規模モデルを微調整してパッケージ化するメーカー
- IaaS リソースプロバイダー:データセンター、パーク内の小規模データセンター、個人の計算力センターのオペレーターで、計算力、帯域幅、ストレージを提供するプレーヤー
- モデルキュレーター:モデルアプリケーションをプロモーションする人物で、KOL、パーソナリティ、メディアなどが該当します。
- モデルウィーバー:特定のタスクを達成するために異なるモデルを組み合わせる開発者で、キュレーターと一部重複する場合があります。
これらのプレーヤーが組み合わさり、消費者にサービスを提供し、消費者の支払いから利益を得るためには、合理的かつ安定した利益配分メカニズムを確立する必要があります。
web3 の一部として、パブリックチェーンまたはレイヤー 2 を運営する
- 異なる役割が「入札」によって割り当て比率を動的に決定することができます。これには、「AI コイン」がネットワークの基本通貨として使用されます。
- 異なる役割は、自身のリソースを投入し、自身のプロモーションの機会を購入することもできます。例えば、大規模モデルのオリジナルメーカーのマーケティング費用などです。
- 個人であっても、自宅に特定のモデルをデプロイして近隣にサービスを提供することで利益を得ることができます。
AI のコンテナ化が必要です#
AI のコンテナには、ワークフロー、API URL、収益配分メカニズム、モデルの一意の識別子など、API の編成が含まれます。現在の技術スタックから見ると、Webassembly + Rust + K8s などのソフトウェアの組み合わせが使用される可能性があります。
コンテナ化することで、AI エージェントはスケジュール、ディストリビューション、破棄が容易になります。異なるネットワーク構造、計算力インフラストラクチャ、ソフトウェアの違いがコンテナによって抹消され、最終的には巨大なリソースプールが形成されます。コンテナはブロックチェーン上の標準ブロックに対応することもでき、最終的には収益として決済されます。