sluke

sluke

twitter

建設 AI agents 的高速公路

跳出訓練大模型的殘酷競爭#

  • 訓練大模型是上游生產,是「智力 / 數據密集的科研 + 訓練算力密集的研發工程」
  • 應用大模型是下游消費,是「領域知識密集的微調 + 推理算力密集的運營工程」

從「造大模型」的競爭中跳出來,走到應用一側,除了垂直行業大模型,還有一個面向 C 端消費者的規模化機會:AI agents 的高速公路

分布式的推理算力網絡,是大模型落地的「物流」網絡#

將大模型視為「貨物」,貨物 = 模型 + 算力 + 帶寬 + 存儲,幾個要素缺一不可,分拆要素:

1、模型#

包括公網中心化的大模型、私有化部署的企業級模型、端側「小」模型

  • 中心化大模型:適合軟硬件一體設計,甚至部署專有架構,降低推理算力需求,提高推理速度,獲得高速響應,通過規模覆蓋運營成本
  • 企業級模型:適合局域網中部署,對數據隱私有強要求
  • 端模型:優先考慮手持智能終端和家庭算力中心部署

2、算力#

以推理算力為主,更多考慮成本因素

  • 模型本身會屏蔽算力架構的差異,不管是高端算力卡,還是通用 CPU,出現 **「傳統算力中心」** 的改造市場,以前對數據中心做了大投入的企業,都會有強烈需求
  • 考慮到網絡結構本身,離算力中心越近,響應速度越快,因此分布式算力,或者邊緣端算力會有優勢。PCDN 玩家,有機會做出第二增長曲線

3、帶寬 + 存儲#

帶寬和存儲簡化起來放在一起

  • 物聯網 / 車聯網 / 工業智造等 AI 應用,會是長 Token 的,對帶寬和存儲都有高要求,會要求模型部署在一線
  • 基站可能會是新興的 AI 推理中心,電信運營商的角色可能增加,AI agents 運營商,並不一定需要自己投入研發大模型,而是集中資源運營大模型
  • 大模型迭代後,需要「高速公路」快速更新下發到邊緣端

AI 高速物流網絡的利益分配,與 web3 的深度融合#

列出參與到大模型時代的各玩家角色:

  • 模型原廠:少數核心大廠,有獨立品牌的大模型,包括開源和不開源的
  • 模型 OEM 廠:基於少數大模型做微調包裝的廠商
  • IaaS 資源提供商:數據中心、園區中小機房、個人算力中心運營者,提供算力、帶寬、存儲的玩家
  • 模型策展人:推銷模型應用的,可以是 KOL、主播、媒體等
  • 模型編織者:編織不同模型,達成特定任務的開發者,可能與策展人有部分重合

以上玩家組合起來,服務消費者,從消費者的付費中獲利,需要建立起一個利益分配合理穩定的機制,保證遊戲持續玩下去。

web3 部分,運營一條公鏈或者 layer2

  • 讓不同角色通過競價,動態確定分配比例,「AI coin」作為網絡基礎貨幣
  • 不同角色也可以自己投入資源,購買推銷自己的機會,比如大模型原廠的市場費用
  • 即使是個人,也可以通過在自己家裡部署某些模型,提供給鄰居服務來獲利

AI 需要容器化#

AI 的容器裡,裝的是 API 的編排編織,包括 workflow、API URL、收益分配機制、模型的唯一標識等,從目前的技術棧看,可能會是 Webassembly + Rust + K8s 類軟件的組合。

容器化之後,AI agent 更容易被調度、分發、銷毀,因為不同網絡結構、算力基礎設施、軟件差異,都會被容器抹平,最終形成巨大的資源池。容器也能對應成區塊鏈上的標準區塊,最終結算成收益。

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。