WEEX 唯客博客, 一、引言:AI+Web3的發展 在過去的幾年中,人工智慧(AI)和Web3技術的快速發展引起了全球範圍內的廣泛關注。AI作為一種模擬和模仿人類智能的技術,已經在人臉識別、自然語言處理、機器學習等領域取得了重大突破。AI技術的快速發展為各行各業帶來了巨大的變革和創新。 AI行業的市場規模在2023年達到了2000億美元,OpenAI、Character.AI、Midjourney等行業巨頭和優秀玩家如雨後春筍般湧現,引領了AI熱潮。 與此同時,Web3作為一種新興的網路模式,正在逐步改變著我們對互聯網的認知和使用方式。Web3以去中心化的區塊鏈技術為基礎,通過智能合約、分散式存儲和去中心化身份驗證等功能,實現了數據的共享與可控、用戶的自治和信任機制的建立。Web3的核心理念是將數據從中心化的權威機構手中解放出來,賦予用戶對數據的控制權和數據價值的分享權。 目前Web3行業的市值達到了25萬億,無論是Bitcoin、Ethereum、Solana還是應用層的Uniswap、Stepn等玩家,新的敘事和場景也層出不窮的湧現,吸引著越來越多人加入Web3行業。 容易發現,AI與Web3的結合是東西方的builder和VC都十分關注的領域,如何將兩者很好的融合是一個十分值得探索的問題。 本文將重點探討AI+Web3的發展現狀,探索這種融合所帶來的潛在價值和影響。我們將首先介紹AI和Web3的基本概念和特點,然後探討它們之間的相互關係。隨後,我們將分析當前AI+Web3項目的現狀,並深入討論它們所面臨的局限性和挑戰。通過這樣的研究,我們期望能夠為投資者和相關行業的從業者提供有價值的參考和洞察。 二、AI與Web3交互的方式 AI和Web3的發展就像天平的兩側,AI帶來了生產力的提升,而Web3帶來了生產關係的變革。那麼AI和Web3能碰撞出什麼樣的火花呢?我們接下來會先來分析AI和Web3行業各自面臨的困境和提升空間,然後再探討彼此是怎麼樣幫助解決這些困境。 AI行業面臨的困境和潛在提升空間 Web3行業面臨的困境和潛在提升空間 2.1 AI行業面臨的困境 要想探究AI行業面臨的困境,我們首先來看看AI行業的本質。AI行業的核心離不開三個要素:算力、演算法和數據。 首先是算力:算力指的是進行大規模計算和處理的能力。AI任務通常需要處理大量的數據和進行複雜的計算,例如訓練深度神經網路模型。高強度的計算能力可以加速模型訓練和推理過程,提高AI系統的性能和效率。近年來,隨著硬體技術的發展,如圖形處理器(GPU)和專用AI晶元(如TPU),算力的提升對於AI行業的發展起到了重要的推動作用。近年股票瘋漲的Nvidia就是作為GPU的提供商佔據了大量的市場份額,賺取了高額的利潤。 什麼是演算法:演算法是AI系統的核心組成部分,它們是用於解決問題和實現任務的數學和統計方法。AI演算法可以分為傳統機器學習演算法和深度學習演算法,其中深度學習演算法在近年來取得了重大突破。演算法的選擇和設計對於AI系統的性能和效果至關重要。不斷改進和創新的演算法可以提高AI系統的準確性、魯棒性和泛化能力。不同的演算法會有不同的效果,所以演算法的提升對於完成任務的效果來說也是至關重要的。 數據為什麼重要:AI系統的核心任務是通過學習和訓練來提取數據中的模式和規律。數據是訓練和優化模型的基礎,通過大規模的數據樣本,AI系統可以學習到更準確、更智能的模型。豐富的數據集能夠提供更全面、多樣化的信息,使得模型可以更好地泛化到未見過的數據上,幫助AI系統更好地理解和解決現實世界的問題。 了解當前AI的核心三要素之後,讓我們來看看AI在這三方面遇到的困境和挑戰,首先是算力方面,AI任務通常需要大量的計算資源來進行模型訓練和推理,特別是對於深度學習模型而言。然而,獲取和管理大規模的算力是一個昂貴和複雜的挑戰。高性能計算設備的成本、能耗和維護都是問題。尤其是對於初創企業和個人開發者來說,獲得足夠的算力可能是困難的。 在演算法方面,儘管深度學習演算法在許多領域取得了巨大的成功,但仍然存在一些困境和挑戰。例如,訓練深度神經網路需要大量的數據和計算資源,而且對於某些任務,模型的解釋性和可解釋性可能不足。此外,演算法的魯棒性和泛化能力也是一個重要問題,模型在未見過的數據上的表現可能不穩定。在眾多的演算法中,如何找到最好的演算法提供最好的服務,是一個需要不斷探索的過程。 在數據方面,數據是AI的驅動力,但獲取高質量、多樣化的數據仍然是一個挑戰。有些領域的數據可能很難獲得,例如醫療領域的敏感健康數據。此外,數據的質量、準確性和標註也是問題,不完整或有偏見的數據可能導致模型的錯誤行為或偏差。同時,保護數據的隱私和安全也是一個重要的考慮因素。 此外,還存在著可解釋性和透明度等問題,AI模型的黑盒特性是一個公眾關注的問題。對於某些應用,如金融、醫療和司法等,模型的決策過程需要可解釋和可追溯,而現有的深度學習模型往往缺乏透明度。解釋模型的決策過程和提供可信賴的解釋仍然是一個挑戰。 除此之外,很多AI項目創業的商業模式不是很清晰,這一點也讓許多的AI創業者感到迷茫。 2.2 Web3行業面臨的困境 而在Web3行業方面,目前也存在很多不同方面的困境需要解決,無論是對於Web3的數據分析,還是Web3產品較差的用戶體驗,亦或者是在智能合約代碼漏洞與黑客攻擊的問題,都有很多提升的空間。而AI作為提高生產力的工具,在這些方面也有很多潛在的發揮空間。 首先是數據分析與預測能力方面的提升:AI技術在數據分析和預測方面的應用為Web3行業帶來了巨大的影響。通過AI演算法的智能分析和挖掘,Web3平台可以從海量的數據中提取有價值的信息,並進行更準確的預測和決策。這對於去中心化金融(DeFi)領域中的風險評估、市場預測和資產管理等方面具有重要意義。 此外,也可以實現用戶體驗和個性化服務的改進:AI技術的應用使得Web3平台能夠提供更好的用戶體驗和個性化服務。通過對用戶數據的分析和建模,Web3平台可以為用戶提供個性化的推薦、定製化的服務以及智能化的交互體驗。這有助於提高用戶參與度和滿意度,促進Web3生態系統的發展,例如許多Web3協議接入ChatGPT等AI工具來更好的服務用戶。 在安全性和隱私保護方面,AI的應用對Web3行業也具有深遠的影響。AI技術可以用於檢測和防禦網路攻擊、識別異常行為,並提供更強大的安全保障。同時,AI還可以應用於數據隱私保護,通過數據加密和隱私計算等技術,保護用戶在Web3平台上的個人信息。在智能合約的審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全隱患,AI技術可以用於自動化合約審計和漏洞檢測,提高合約的安全性和可靠性。 可以看出,對於Web3行業面臨的困境和潛在的提升空間里,AI在很多方面都能夠參與和給予助力。 三、AI+Web3項目現狀分析 結合AI和Web3的項目主要從兩個大的方面入手,利用區塊鏈技術提升AI項目的表現,以及利用AI技術來服務於Web3項目的提升。 圍繞著兩個方面,湧現出了一大批項目在這條路上探索,包括Io.net、Gensyn、Ritual等各式各樣的項目,接下來本文將從AI助力web3和Web3助力AI的不同子賽道分析現狀和發展情況。 3.1 Web3助力AI 3.1.1 去中心化算力 從OpenAI在2022年底推出ChatGPT后,就引爆了AI的熱潮,推出后5天,用戶數量就達到了100萬,而之前Instagram花了大約兩個半月才達到100萬下載量。之後,Chatgpt發力也是十分迅猛,2個月內月活用戶數達到了1億,到2023年11月,周活用戶數達到了1億。伴隨著Chatgpt的問世,AI領域也迅速的從一個小眾的賽道爆發成為一個備受關注的行業。 根據Trendforce的報告,ChatGPT需要30000個NVIDIA A100 GPU才能運行,而未來GPT-5將需要更多數量級的計算。這也讓各個AI公司之間開啟了軍備競賽,只有掌握了足夠多的算力,才能夠確定在AI之戰中有足夠的動力和優勢,也因此出現了GPU短缺的現象。 在AI崛起之前,GPU的最大提供商英偉達的客戶都集中在三大雲服務中:AWS、Azure 和 GCP。隨著人工智慧的興起,出現了大量新的買家,包括大科技公司Meta、甲骨文以及其他數據平台和人工智慧初創公司,都加入了囤積 GPU 來訓練人工智慧模型的戰爭中。Meta 和特斯拉等大型科技公司大量增加了定製 AI 模型和內部研究的購買量。Anthropic 這樣的基礎模型公司以及 Snowflake 和 Databricks 這樣的數據平台也購買了更多 GPU,來幫助客戶提供人工智慧服務。 正如去年Semi Analysis提到的「GPU富人和GPU窮人」,少數幾家公司擁有2萬多A100/H100 GPU,團隊成員可以為項目使用100到1000個GPU。這些公司要麼是雲提供商或者是自建LLM,包括OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral等。 然而大部分的公司都屬於GPU窮人,只能在數量少得多的 GPU 上掙扎,花費大量的時間和精力去做較難推動生態系統發展的事情。而且這種情況並不局限於初創公司。一些最知名的人工智慧公司–Hugging Face、Databricks (MosaicML)、Together 甚至 Snowflake的A100/H100 數量都小於 20K。這些公司擁有世界一流的技術人才,卻受限於 GPU的供應數量,相比於大公司在人工智慧中競賽中處於劣勢。 這種短缺並不局限於「GPU窮人」中,甚至在去2023年年底,AI賽道的龍頭OpenAI因為無法獲得足夠的 GPU,不得不關閉付費註冊數周,同時採購更多的 GPU 供應。 可以看出,伴隨著AI高速發展帶來的GPU的需求側和供給側出現了嚴重的不匹配,供不應求的問題迫在眉睫。 為了解決這一問題,一些Web3的項目方開始嘗試結合Web3的技術特點,提供去中心化的算力服務,包括Akash、Render、Gensyn等等。這類項目的共同之處在於,通過代幣來激勵廣大用戶提供閑置的GPU算力,成為了算力的供給側,來為AI客戶提供算力的支持。 供給側畫像主要可以分為三個方面:雲服務商、加密貨幣礦工、企業。 雲服務商包括大型雲服務商(如AWS、Azure、GCP)以及GPU雲服務商(如Coreweave, Lambda, Crusoe等),用戶可以轉售閑置的雲服務商的算力來獲得收入。加密礦工隨著以太坊從PoW轉向PoS,閑置的GPU算力也成為了重要的潛在供給側。此外,像特斯拉、Meta這類因為戰略布局而購買了大量GPU的大型企業,也可以將閑置的GPU算力作為供給側。 目前賽道的玩家大致分為兩類,一類是將去中心化算力用於AI的推理,另一類是將去中心化算力用作AI訓練。前者如Render(雖然聚焦在渲染,但也可用作AI算力的提供)、Akash、Aethir等;後者如io.net(推理和訓練都可以支持)、Gensyn,兩者最大的差異在於算力的要求不同。 先來聊聊前者AI推理的項目,這類項目通過代幣激勵的方式吸引用戶參與算力的提供,再將算力網路服務提供給需求側,從而實現了閑置算力的供需撮合。其中關於這類項目的介紹與分析在我們Ryze Labs之前DePIN的研報中有提到,歡迎查閱。 最核心的點在於通過代幣激勵機制,項目先吸引供給者,然後吸引用戶使用,從而實現了項目的冷啟動和核心運轉機制,從而能夠進一步的擴張和發展起來。在這種循環之下,供給側有了更多更有價值的代幣回報,需求側有了更便宜性價比更高的服務,項目的代幣價值和供需雙方參與者的增長保持一致,隨著代幣價格的上升,吸引更多參與者和投機者參與,形成價值捕獲。 另一類是將去中心化算力用於AI的訓練,如Gensyn、io.net(AI訓練和AI推理都可以支持)。其實這一類項目的運轉邏輯和AI推理類項目並無太大的本質差異,依舊是通過代幣激勵吸引供給側的參與提供算力,供需求側來使用。 其中io.net作為去中心化算力網路,目前GPU數量超過了50萬個,在去中心化算力項目中表現很突出,此外,目前已經也集成了Render和filecoin的算力,開始不斷發展生態項目。 此外, Gensyn是通過智能合約方式可促進機器學習的任務分配和獎勵,來實現AI的訓練。如下圖所示,Gensyn的機器學習訓練工作的每小時成本約在0.4美元,而遠遠低於AWS和GCP超過2美元的成本。 Gensyn的體系中包括四個參與主體:提交者、執行者、驗證者和舉報者。 提交者:需求用戶是任務的消費者,提供將被計算的任務,為AI訓練任務付費 執行者:執行者執行模型訓練的任務,並生成完成了任務的證明來供驗證者的檢查。 驗證者:將非確定性訓練過程與確定性線性計算聯繫起來,將執行者的證明與預期閾值進行比較。 舉報者:檢查驗證者的工作,在發現問題時並提出質疑來獲得收益。 可以看出,Gensyn希望成為一個面向全球深度學習模型的超大規模、經濟高效的計算協議。 但是縱觀這個賽道,為什麼大部分的項目選擇去中心化算力做AI推理而不選擇訓練呢? 在這裡也幫助不了解AI訓練和推理的朋友介紹一下兩者的區別: AI訓練:如果我們把人工智慧比作一個學生,那麼訓練就類似於給人工智慧提供了大量知識、示例也可以理解為我們常說的數據,人工智慧從這些知識示例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。 AI推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或者參加考試,在推理的階段中人工智慧是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。 可以看出兩者的算力需求是差別較大的,關於去中心化算力在AI推理和AI訓練方面的可用性將在後面的挑戰章節進行更深入的剖析。 此外,還有Ritual希望將分散式網路與模型的創建者結合,保持去中心化和安全性。其第一個產品Infernet讓區塊鏈上的智能合約可以在鏈下訪問AI模型,允許此類合約以保持驗證、去中心化和保護隱私的方式訪問AI。 Infernet 的協調器負責管理節點在網路中的行為和響應消費者發出的計算請求。用戶使用infernet時,推理、證明等工作會放在鏈下,輸出結果返回至協調器,並通過合約最終傳給鏈上的消費者。 除了去中心化算力網路之外,也有Grass這類的去中心化帶寬網路,來提升數據傳輸的速度和效率。總的來說,去中心化算力網路的出現,為AI的算力供給側提供了一個新的可能性,推動著AI向更遠的方向前行。 3.1.2 去中心化演算法模型 正如第二章中提到的,AI的三個核心要素為算力、演算法和數據。既然算力可以通過去中心化的方式形成一個供給網路,那麼演算法是否也能有類似的思路,形成一個演算法模型的供給網路呢? 在分析賽道項目之前,首先讓我們一起來了解下去中心化演算法模型的意義,很多人會好奇,既然已經有了OpenAI,為什麼還需要去中心化的演算法網路呢? 本質上,去中心化的演算法網路是一個去中心化的AI演算法服務市場,鏈接了許多不同的AI模型,每個AI模型有自己擅長的知識和技能,當用戶提出問題的時候,市場會挑選出最適合回答問題的AI模型來提供答案。而Chat-GPT是OpenAI 開發的一種AI模型,可以理解和生產類似人類的文本。 簡單來說,ChatGPT像是一個能力很強的學生來幫助解決不同類型的問題,而去中心化的演算法網路像一個有很多學生的學校來幫助解決問題,雖然現在這個學生的能力很強,但拉長周期來看,能招募全球學生加入的學校有非常大的潛力空間。 目前在去中心化演算法模型這個領域,也有一些項目在嘗試和探索中,接下來將以代表性的項目Bittensor作為案例來幫助大家理解這個細分領域的發展情況。 在Bittensor中,演算法模型的供給側(或者說礦工)將他們的機器學習模型貢獻給網路。這些模型可以分析數據與提供見解。模型供給者會因其貢獻而獲得加密貨幣代幣TAO作為獎勵。 為了保證問題答案的質量,Bittensor使用獨特的共識機制來確保網路就最佳答案達成一致。當提出問題時,多個模型礦工會提供答案。然後,網路中的驗證器會開始工作,確定最佳答案,然後將其發送回用戶。 Bittensor的代幣TAO在整個流程中主要發揮兩方面的作用,一方面用作激勵礦工向網路貢獻演算法模型,另一方面用戶需要花費代幣來提問與讓網路完成任務。 由於 Bittensor 是去中心化的,任何有互聯網接入的人都可以加入網路,既可以作為提出問題的用戶,也可以作為提供答案的礦工。這使得更多人能夠使用強大的人工智慧。 總之,以 Bittensor 等網路為例,去中心化的演算法模型領域有可能創造一個更加開放、透明的局面,在這個生態系統中,人工智慧模型可以以安全和分散的方式進行訓練、共享和利用。此外也有像BasedAI這樣的去中心化的演算法模型網路在嘗試類似的事情,當然其更有趣的部分在於通過ZK來保護用戶與模型互動式的數據隱私,這個在第四個小節也會進一步討論。 隨著去中心化演算法模型平台的發展,它們將使小型公司能夠在使用頂尖AI工具方面與大型組織競爭,從而對各個行業產生潛在的重大影響。 3.1.3 去中心化數據收集 對於AI模型的訓練來說,大量的數據供給是必不可少的。然而目前大部分的web2公司仍將用戶的數據佔為己有,例如X、Reddit、TikTok、Snapchat、Instagram、YouTube等平台禁止為人工智慧訓練進行數據收集。對於AI行業的發展來說成為了很大的阻礙。 然而另一方面,一些Web2平台卻向AI公司出售用戶的數據,而沒有分享任何的利潤給到用戶。例如Reddit 與google達成了一項價值 6000 萬美元的協議,讓Google在其帖子上訓練人工智慧模型。從而導致數據的收集權被大資本和大數據方所霸佔,導致行業超資本密集型的方向發展。 面對這樣一種現狀,一些項目結合Web3通過代幣激勵的方式,來實現去中心化的數據收集。 以PublicAI為例,在PublicAI中用戶可以作為兩類角色參與: 一類是AI數據的提供者,用戶可以在X上找到有價值的內容,@PublicAI官方並附上見解,使用#AI或#Web3作為分類標籤,便可以將內容發送到PublicAI數據中心,實現數據收集。 另一類是數據驗證者,用戶可以登錄PublicAI數據中心,為AI訓練選擇最有價值的數據進行投票。 作為回報,用戶可以通過這兩類貢獻獲得代幣激勵,從而促進了數據的貢獻者與人工智慧產業開發之間的攜手共贏的關係。 除了PublicAI這類專門收集數據進行AI訓練的項目之外,還有很多項目也在通過通過代幣激勵進行去中心化的數據收集,例如Ocean通過數據代幣化的方式收集用戶數據來服務於AI,Hivemapper通過用戶的車載攝像頭來收集地圖數據、Dimo收集用戶的汽車數據、WiHi收集天氣數據等等,這類通過去中心化收集數據的項目,也都是潛在的AI訓練的供給側,所以從廣義來說,也可以納入到Web3助力AI的範式中。 3.1.4 ZK保護AI中的用戶隱私 區塊鏈技術帶來的除了去中心化的優勢之外,還有一個很重要的就是零知識證明。通過零知識技術,可以保護…