去中心化 AI 的開源革命會創造核威懾下的和平嗎?

WEEX 唯客博客, 作者: Tom Shaughnessy 、 Michael Rinko 、 Pondering Durian 編譯:思維怪怪,BlockBeats    譯者註:在《廣場與高塔》一書中,作者尼爾·弗格森詳細探討了歷史上權力如何在中心化權力結構(高塔)和去中心化網路(廣場)之間不斷轉移。通過分析歷史事件,弗格森揭示了網路在政治、經濟和社會變革中的重要作用,強調了現代社會中網路力量的增長。 以弗格森的觀點為背景,本期 Delphi 播客圍繞中心化與去中心化 AI 兩種技術發展路徑展開了激烈對話。四位嘉賓首先剖析了信任與隱私在 AI 採用中的重要性,並細緻區分了不同類型的 AI 和其背後的激勵結構。討論進一步觸及了消費者在便捷性與隱私保護之間的選擇權問題,以及中心化權力所帶來的脆弱性和安全隱患。 討論的核心問題之一是如何構建一個去中心化的 AI 競品,特別是在當前高度集中的技術範式下。嘉賓們分析了現有的規模模型及其局限性,並討論了開源解決方案的潛力。他們認為,隨著國家安全的考量和經濟價值捕獲的需求,分散式方法的重要性日益凸顯。 此外,播客還討論了經濟價值捕獲和分銷在 AI 商業模式中的作用,以及大公司與小公司在分銷渠道上的護城河問題。通過對 Open AI 與 Meta 不同商業模式的對比,嘉賓們詳細闡述了去中心化 AI 和加密貨幣的顛覆潛力,特別是在信任和確定性執行方面的優勢。最後,他們展望了 AI 在區塊鏈上的金融化潛力,並指出 AI Agent 的廣泛應用將成為這一領域實現指數級增長的催化劑。 文章很長,建議收藏。 TL ; DR Delphi 研究員 Michael Rinko 認為資本主義為技術發展提供了很好的激勵機制。私營公司通過開發有用且對人們安全的產品來獲得豐厚的回報。因此,把 AI 這項技術交給私營部門並不像人們想象的那樣糟糕。各個私營部門中的競爭對手會為了成為最有用的技術提供者而互相競爭,最終將這些技術以最安全的方式提供給消費者。相反,如果讓這項技術完全開放,有些人會利用這些技術來進行惡意活動,而目前還沒有找到有效的方法來阻止他們。最好的辦法是提供某種受控的訪問,這正是私營部門所能做的。 Gensyn 聯創 Ben Fielding 認為資本主義奏效的前提是可審計性。如果沒有審計機制,公司可能會在追求利潤的過程中做出對世界有害的事情。開源模型則可以在不影響公司開發模型能力的情況下實現可審計性。此外,討論 AI 的危險時不應該涉及它在未來理論上可能做的事情,因為任何可能性都是存在的。 Ambient 聯創 Travis Good 認為大公司將不得不轉向更分散式的 AI 發展範式,以實現規模化。當前的範式成本高昂且難以達到超大規模,他們必須在某個節點上進行轉變,而這種轉變對他們來說是非常昂貴的。模型的擴展本身不會停止,但我們成功管理和部署這些模型的能力會在模型性能下降之前就開始下降。 Delphi 研究員 Pondering Durian 認為,目前資本市場和大公司之間存在一個反身循環。大公司獲得了很多廉價資金,所以有很大的火力去追求規模法則。但大問題在於,大公司是否有足夠的收入來證明持續投資的合理性?如果不能,人們就會停止為它們提供資金, Google 、 Amazon 和 Facebook 都會受到嚴重打擊,它們將無法建立那些 1000 億的集群。 Ben Fielding 認為大模型公司真正的護城河是實際的分發能力。 OpenAI 將試圖提供利用智能進行分發的軟體,但很快,所有擁有分發能力的公司都會想要脫離 OpenAI 。 Meta 認識到他們的護城河是他們將這些模型分發給用戶的能力。他們能夠將這些模型應用於實際的現實世界中,而不僅僅是試圖從模型本身賺錢。所以他們驅動開源模型,不是出於利他主義,而是為了實際的戰略收益。 Michael Rinko 認為加密能為 AI 解決的問題有三點:第一,加密是無信任的。在加密中你不必信任任何人,我認為這對 AI 來說是一個很有吸引力的特性。第二,加密是確定性的。現實世界是隨機的,充滿不確定性,但 AI 不喜歡這種不確定性,它會更喜歡確定性執行,加密提供了這一點。第三, AI 可以通過加密實現超級資本主義。加密可以將任何東西金融化, AI 可以利用這一點來積累資源。 AI Agent 的廣泛應用將成為加密實現指數級增長的催化劑。 Tommy :我是 Delphi Ventures 的創始合伙人 Tommy,很高興今天能主持這場關於加密 AI 與中心化 AI 的討論。我邀請到了四位業內頂尖的專家,讓他們來介紹自己。首先是 Gensyn 的聯合創始人 Ben Fielding。Gensyn 致力於通過去中心化計算推動機器學習的邊界。我們還有 Ambient 的聯合創始人 Travis Good,他們專註於世界級的開源模型,也是我們的投資組合公司。這兩位代表加密 AI 陣營。 Delphi 方面有高級市場分析師 Michael Runco ,他在 2024 年 2 月撰寫了 Delphi 的首份 AI 報告《 The Real Merge 》。還有匿名分析師 PD ,他撰寫了關於中心化與去中心化 AI 的精彩報告《 The Tower & the Square 》。這也是我們今天討論的主題。 讓我們按這個順序做個簡短的自我介紹, Ben 先開始吧。 Ben Fielding :謝謝邀請。我是 Gensyn 的聯合創始人,Gensyn 是一個機器學習計算協議。你可以把我們看作是一個協議層,有點像早期的網路協議,能夠覆蓋具備機器學習能力的硬體,並允許它被用於全球任何機器學習訓練任務。我們的理念是,不再局限於使用 AWS 或谷歌雲這樣的資源來訓練模型,而是可以利用全球任何設備。你可以直接將模型發送到單個設備,或是選擇一部分設備組成任意規模的計算集群。這將機器學習計算變成了一種類似電力的商品,而不是必須從某人那裡租用和預定時間的 GPU。它變成了一種始終可用的交易市場。 Tommy :很有幫助。Travis,輪到你了。 Travis Good :好的,我是 Travis,Ambient 的聯合創始人。我的教育背景是 IT 博士,過去十年一直專註於 AI 相關的行業應用,包括與藥物發現和關鍵基礎設施相關的項目。 Michael Rinko :大家好,我是 Michael,Delphi 的分析師,主要關注市場分析,但也涉及其他領域。正如 Tommy 所說,我幾個月前寫了一份關於 AI 的報告,今天很高興能和大家討論這個話題。PD,你來介紹一下自己吧。 Pondering Durian :大家好,我是 Pondering Durian,Delphi 研究團隊的一員,主要負責研究和投資消費者互聯網、企業軟體和加密領域。很高興能參與這次討論,期待與大家交流。 中心化與去中心化 AI 的對比 Tommy :PD,能不能先介紹一下你的報告內容?這是我們今天討論的起點。 Pondering Durian :好的。報告的標題是《The Tower & the Square》,是對斯坦福歷史學家 Niall Ferguson 的書的致敬,他在書中探討了層級和網路之間的動態關係。我認為過去 30 年是網路崛起的故事,從全球化、自由化、資本主義到互聯網、加密貨幣和社交媒體等,都是網路崛起的表現。然而,在過去五年裡,傳統層級結構又重新顯現,國家和企業重新佔據主導地位。而 AI 的出現似乎在目前的形態下確實是一個相當大的中心化力量。因此,擺在我們面前的真正問題是,未來是少數西海岸巨頭控制的數萬億參數模型,還是各種形態和規模的去中心化模型的世界?兩種觀點都有很好的論據,這就是我們今天要討論的內容。 Tommy :Ben 或 Travis,你們誰先開始?作為更傾向開源陣營的一方,你們的觀點是什麼? Travis Good :好的,我來複述一下 PD 的觀點,看看理解得對不對。你提到我們已經看到這個領域出現了大規模整合,實現了垂直擴展,這給閉源 AI 帶來了明顯的優勢。我基本同意這個判斷。 然後你提出了兩種可能性:我們是要面對閉源陣營推出的萬億參數基礎模型,還是會出現大量不同的模型?我想補充一點,還有第三種可能:開源陣營也可以開發自己的萬億級參數模型,在能力上與閉源模型一較高下。 我可以這樣大致概括你的觀點嗎? Pondering Durian :是的,你說得很好。目前我們看到垂直整合的產品在能力上遙遙領先,但這些模式並沒有證明自己像 Web2 時代那樣具有粘性。所以目前看起來閉源玩家似乎佔據優勢,但未來如何還有待觀察。我認為去中心化 AI 和開源社區有一套可行的方案,可以在大規模模型以及整個技術棧的各個層面提供替代選擇。 Travis Good :完全同意。我認為在這個時候,可能有必要區分什麼是理想的,什麼是可能的。在閉源 AI 的可取性方面,我想和大家一起思考一下,歡迎大家隨時插話。很多人可能聽過這個觀點,我們都是「賽博格」。我們的生活已被計算機深度介入,不斷從各種設備獲取信息。我們已是「增強人類」。我認為 AI 或 AGI 將成為我們未來的「協處理器」,我們會不斷與之互動來提升自己。未來它甚至可能直接與我們的大腦集成。 那麼問題來了:你希望這個「協處理器」值得信賴嗎?我很難相信這些垂直整合的「監視資本家」能提供可靠方案。從個人角度看,讓這些曾濫用用戶和客戶的公司掌控我們的思維,似乎極其危險。我們不接受 NSA 企圖在我們所有加密通信中植入後門的 Clipper 晶元,我們也不應該接受閉源公司試圖介入我們和這個幫助我們思考的思維協處理器之間。 這是我對個人層面的看法。在談社會層面前,我先停下來,聽聽大家的想法。 Ben Fielding :我完全同意這種未來觀。我認為機器學習和 AI 作為人類能力的增強是最明顯的發展方向。 其實,我們已經在經歷這種技術進步了。比如,看看我們如何使用互聯網,以及那些在共享知識庫環境中成長起來的一代人。雖然我沒有具體的參考資料,但有研究表明,我們記憶信息的方式已經發生了變化,現在我們更多的是記住如何通過 Google 等工具獲取信息,而不是信息本身。我認為這種趨勢會繼續,人類會圍繞這種新工具學習,最終與之完全融合。我同意,不應由某個單一實體控制這種工具,我們不希望這個實體擁有對我們大腦中內容的審查能力。 我認為,從激勵系統的角度來看,這些企業並沒有做什麼惡意的事情,它們只是追求利潤,這是我們對企業的期望,也是系統設計的初衷。但我們現在需要思考的是,如何在保留這種激勵機制的同時,通過小的調整,避免過多的權力集中在一個地方。歷史上我們已經看到了壟斷的負面影響,尤其是在某些領域,這種影響是非常嚴重的。而在 AI 領域,這種影響可能會被進一步放大,因為它直接影響到人們的思維。你可以說,這種情況在社交媒體上已經發生了,而 AI 將是這種影響的更深一層。因此,我完全同意你所說的觀點,這也是我們對未來世界的看法。 Michael Rinko : 我想從另一個角度提出一些觀點,扮演一下「反方辯手」的角色。 我認為關於這個話題的一個挑戰是,大家討論的具體是什麼類型的 AI ?我們是在談論現在的 AI ,比如聊天機器人或 ChatGPT ,還是未來幾年可能出現的通用人工智慧( AGI ),或者是能夠統治世界、殖民銀河系的人工超級智能呢? 不同類型的 AI 所面臨的權衡和激勵機制是不同的。我認為最容易理解的是現在我們面臨的情況:如何利用當前的技術構建一個儘可能安全的世界。毫無疑問,當前閉源 AI 可能是我們管理這項技術的最安全方式,並且對於可預見的未來來說也是如此。我會列出幾個觀點,希望聽聽你們的反應。我認為,當你提到激勵機制時,這引起了我的一些思考。 實際上,我認為資本主義和我們當前的經濟體制提供了很好的激勵機制。公司通過開發有用且對人們安全的產品來獲得豐厚的回報。如果你開發的產品不夠有用,或者對人們造成了傷害,你就賺不到很多錢。換句話說,從根本上講,當前的激勵機制似乎是有效的。我們每年創造了大量財富,不平等現象有所下降,這些指標總體上顯示世界在不斷進步,我認為這很大程度上歸功於資本主義,通過這種獎勵機制,鼓勵人們以安全的方式解決問題。 我看不出 AI 會使資本主義失效。所以,我認為把這項技術交給私營部門並不像人們想象的那樣糟糕,因為這只是信任資本主義能夠發揮作用。各個私營部門中的競爭對手會為了成為最有用的技術提供者而互相競爭,最終將這些技術以最安全的方式提供給消費者。如果你相信這一基本原則,那麼通常來說,就會出現以最安全的方式提供的最佳解決方案,這就是一個良好的未來。 相反,如果讓這項技術完全開放,任何有電腦和互聯網的人都可以創建和傳播這些 AI 。那麼,雖然可能不是現在,但在未來的某個時刻,這些 AI 可能會造成重大損害和傷害。世界上有些人會利用這些技術來進行惡意活動,而我們目前還沒有找到有效的方法來阻止他們。我認為,最好的辦法可能是某種受控的訪問,這正是私營部門所能提供的。 AI 採納中的消費者偏好與安全問題 Pondering Durian : 我可以插一句嗎?我想補充一點,因為我認為關於資本主義和安全的論點很好,但我也想提到,隨著時間的推移,每一代消費者基本上都選擇了便利而不是理想的隱私解決方案。所以,實際上,在接下來的三到五年裡,我更擔心的是,每個消費者的口袋裡都有一部蘋果 iPhone,大家都在使用 Google,他們有這個美妙的 Google 套件,這個套件將與 AI 集成在一起。如果認為這些由大公司運營的協處理器不會自動通過最簡單的方式被消費者所接受,並逐漸成為默認解決方案,實在有點過於理想化了。 這些產品會非常好,正如 Michael 所說的那樣。因此,你可能會滑向一個危險的坡道,因為這些自然優勢,用戶會傾向於選擇這些產品,即使從社會層面來看,這些產品並不理想。這是我想補充的一點。 Ben Fielding : 是的,我同意這種發展趨勢,特別是對用戶而言,僅靠意識形態理由來推動某種產品的採用在大規模應用中並不奏效,這可能只會吸引一小部分用戶,但不會廣泛傳播。我的上一家初創公司專註於消費者隱私,我非常明確地學習到了這個教訓,而且學得很辛苦。 但回到 Michael 的觀點,當你提出另一種選擇的危險性時,你的論點是基於當前的現實,但很快就跳到了未來可能發生的事情。我認為,每當我們討論 AI 的危險時,總是會涉及它在未來理論上可能做的事情,我們進入了一個無限的可能性空間。如果我們現在考慮這個系統實際能做的危險,而不是未來的假設能力,這樣的討論會更有意義。否則,我們會失去反駁的能力,因為任何可能性都是存在的。 關於資本主義解決這些負面影響的問題,我同意,前提是要有審計性。如果沒有審計性,如果公司可以在追求利潤的過程中做出對世界有害的事情,而這種行為從未影響到它的利潤,我認為作為一個經濟理性行為者,這家公司可能會這樣做。因此,我們必須在系統中引入某種審計機制,以發現這些問題。 你可以從政府監管的角度來解決這個問題,或者可以採用另一種方式,即開放開發某些技術。我認為後者對世界更好,因為我們可以在不影響公司開發模型能力的情況下實現審計性。特別是,當模型的價值並不完全體現在它的架構上,而是在其他地方時,這一點尤為重要。目前我們仍在探索機器學習模型的真正價值所在。我個人認為,價值在於分發能力,但實際上我們在這個問題上一直在探索和調整。我認為模型的架構本身可以是開放的,但在數據和應用等其他領域可能存在專有價值。 Travis Good : 我想插話,補充一下你的觀點,同時也稍微表達一下不同的看法。我在做一些筆記,Michael,你首先談到了激勵機制以及它們的良好效果。我認為普通消費者可能會不同意你的看法。 Cory Doctorow 談到了互聯網的「大衰退」,任何使用過 Google 的人都知道,與過去相比,它的用戶體驗變得很糟糕。對企業來說,廣告體驗也是很差的。衰退發生在去中介化的參與者,比如 Google ,開始過多地佔據了蛋糕的一部分。我們從對 Google 的訴訟中了解到,它實際上操控了遊戲規則,使廣告價格上漲,對用戶提供了很難找到有用結果的體驗。而且,他們對此並沒有受到實際的懲罰。我們需要更深入地探討原因,或許是因為公司行為的不當監管或缺乏監管,可能是因為慣性,但最終我們得出的情況遠未達到資本主義的最優狀態。 我們實際上得到了一個所謂的「寡頭最優」狀態,監控資本主義者獲得了豐厚的回報,而幾乎所有其他商業類型都受到了影響。例如,我不認為新聞媒體對 Facebook 多年來的處理方式感到滿意。所以,我認為,要了解未來的趨勢,只需看看過去的經歷。例如,看看青少年抑鬱症的上升,以及 Facebook 演算法的操控,所有這些濫用行為都可以作為借鑒。 Michael Rinko : 我認為你提出了一些很好的觀點,Travis,我會回應其中的一些。我們可能只是觀點不同,我對技術的發展持非常樂觀的態度。我認為,縱觀人類歷史,技術的進步總體上改善了人們的生活。如果你把一百年前的人帶到今天,他們會發現能夠即時發送簡訊、視頻通話、叫車到家門口、點餐送上門,簡直就是純粹的魔法。 所以,雖然青少年抑鬱等副作用確實存在,但這些問題相比技術帶來的巨大好處,只是一個小部分。 AI 也不會例外。此外,關於未來可能的危險,我承認這確實是一個問題。 AI 特別難以理解,即使是頂尖實驗室也無法完全理解為什麼模型會做出某些行為。 而且,如果你看看歷史上那些雙重用途或具有危險性的技術,比如原子彈,你可以通過測試來判斷它的危險性。如果它爆炸了,那顯然是危險的,不應該被釋放;如果不爆炸,那它就不起作用,也不危險。而對於這些模型,我們無法明確界定它們的作用範圍,所以是否應該發布它們的問題非常模糊。這使得監管機構或頂尖專家很難設定安全措施。我想知道你們對此有何看法。 Travis Good : Ben,你要先回應嗎? Ben Fielding : 簡單回應一下,你提到了樂觀主義,但我們不知道這些技術將來會如何呈現自己,所以假設它們會帶來負面的情況。當然,樂觀的立場是它們目前沒有負面影響。我們不知道未來是否會有不好的結果,但樂觀地看,應該沒問題。然而,當涉及到模型本身及其未來的表現時,樂觀態度就變得悲觀了。 Tommy : PD,我也想聽聽你的看法。 Pondering Durian : 對,回到 Travis 的觀點,不可否認的是,市場集中度在過去幾十年裡急劇上升。消費者因為難以找到所需的信息,而需要某種形式的內容策劃。這實際上就是 Ben Thompson 在過去近二十年裡所主張的,如果你在線上聚合需求,那麼供應就會隨之而來。因此,圍繞這些「圍牆花園」形成了網路效應,因為它們的策劃能力很強。 這些公司通過其特權位置,形成了數據壟斷和現金流壟斷,賦予了它們巨大的市場權力,隨著時間的推移,這些權力逐漸變得更具剝削性,而不是網路初期的增長階段。由於 AI 更像是一種延續性的技術而非顛覆性技術,它實際上進一步鞏固了這些市場權力,除非我們有不同的解決方案。 要成為主導的基礎模型,現在的關鍵因素是人才、數據分佈和資本。從主導 Web2 時代產生的網路效應和用戶來看,這些實體在 AI 新…

Previous:

Next: