爲什麼我支持隱私

進階4/18/2025, 2:51:38 AM
Vitalik 新作,一篇關於數字隱私價值的系統論述,探討隱私如何支撐自由、秩序與技術進步,是 AI 與區塊鏈時代的重要思想文獻。

特別感謝Balvi志願者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu和Luozhu Zhang的討論和反饋。

最近,我越來越關注改善以太坊生態系統中的隱私狀況。隱私是去中心化的重要保障:誰掌握信息,誰就擁有權力,因此我們需要避免信息的集中控制。當現實世界中的人們對中心化運營的技術基礎設施表示擔憂時,這種擔憂有時是關於運營者意外更改規則或取消平台用戶,但同樣多的是關於數據收集。雖然加密貨幣空間起源於像Chaumian Ecash這樣的項目,它將數字金融隱私的保護置於中心位置,但最近它卻低估了隱私,原因最終是錯誤的:在ZK-SNARKs之前,我們沒有辦法以去中心化的方式提供隱私,因此我們對其輕描淡寫,轉而專注於當時我們可以提供的其他保障。

然而,今天隱私已無法再被忽視。人工智能大大增強了集中式數據收集和分析的能力,同時也大大擴展了我們自願分享的數據範圍。在未來,像腦機接口這樣的新技術帶來了更多挑戰:我們可能真的是在談論AI讀取我們的思想。與此同時,我們擁有比1990年代的密碼朋克所能想象的更強大的隱私保護工具:高效的零知識證明(ZK-SNARKs)可以保護我們的身份,同時揭示足夠的信息證明我們是可信的,全同態加密(FHE)可以讓我們在不查看數據的情況下進行計算,混淆技術可能很快提供更多選擇。

隱私不是與世隔絕,而是共同站立

在這個時候,值得退一步重新審視這個問題:我們爲什麼要隱私?每個人的答案都不同。在這篇文章中,我將給出我自己的答案,並將其分爲三部分:

  • 隱私是自由:隱私給我們提供了空間,讓我們以符合我們需求的方式生活,而不必時刻擔心我們的行爲在各種政治和社會遊戲中如何被看待。
  • 隱私是秩序:許多支撐社會基本運作的機制依賴於隱私才能正常運作。
  • 隱私是進步:如果我們能夠在保護信息免於濫用的同時,以選擇性地分享信息的方式,我們就能解鎖大量價值,推動技術和社會進步。

隱私是自由

在2000年代初,類似David Brin在1998年出版的《透明社會》一書所表達的觀點曾廣爲流傳:技術將使世界各地的信息更加透明,雖然這會帶來一些負面影響並需要適應,但總體來說,這是件非常好的事,而且我們可以通過確保人民也能監視(或更確切地說,”監視“)政府來實現公平。1999年,Sun Microsystems的CEO Scott McNealy著名地喊道:“隱私已經死了,接受它吧!”這種心態在Facebook的早期構思和發展中也很常見,該平台禁止使用化名身份。我個人記得在2015年深圳的華爲活動上,曾聽到一位(西方)演講者隨口提到“隱私已經結束”,那時這種心態仍在尾聲階段。

《透明社會》代表了“隱私已死”意識形態中最光輝燦爛的一面:它承諾通過透明的力量保持政府的問責,而不是壓迫個體和少數羣體,從而創造一個更好、更公正、更公平的世界。然而,回頭看,這種方法顯然是那個時代的產物,寫於全球合作與和平的熱情高峯期,以及“歷史的終結”之時,並依賴於一些過於樂觀的人性假設。主要有以下幾點:

  1. 全球政治的高級層面通常是善意和理智的,從而使得縱向隱私(即不向強大的人和機構透露信息)變得越來越不必要。權力濫用一般是局部化的,因此反對這些濫用的最好方式是將其公之於衆。
  2. 文化將不斷改善,直到橫向隱私(即不向其他公衆成員透露信息)變得不再必要。極客、同性戀者,最終每個人都能不再躲在櫃子裏,因爲社會不再對人們的獨特特徵抱有苛刻和批判的態度,而是變得寬容和接納。

今天,沒有哪個主要國家廣泛認爲第一個假設是正確的,而許多國家普遍認爲它是錯誤的。在第二個方面,文化寬容度也在迅速退步——僅僅在Twitter上搜索諸如“欺凌是好事”這樣的詞組,就能發現一絲證據,當然,更多的例子也很容易找到。

我個人不幸地定期遭遇“透明社會”的負面影響,因爲我在外面所做的每一件事都有可能在意外情況下成爲公衆媒體的故事。

最嚴重的一次是,有人在清邁拍下我用電腦工作的一段一分鍾視頻,並將其發布到小紅書上,結果立刻獲得了數千個點贊和轉發。當然,我的處境遠非普通人的常態——但這一直是隱私問題的核心所在:對生活處境較爲正常的人來說,隱私的需求較少;而對那些生活狀況偏離常態的人來說,無論偏離方向如何,隱私的需求都更大。而一旦你將所有可能影響隱私的偏離情況加總起來,真正需要隱私的人數其實非常多——而你永遠不知道自己什麼時候會成爲其中之一。這也是隱私常被低估的一大原因:它不僅關乎你當前的處境和信息,還關乎那些“未知的未知”——這些信息未來會發生什麼變化,以及它們將如何影響你,都是不可預知的。

來自企業定價機制的隱私問題,在今天仍然是個相對小衆的關注點,即便是在 AI 倡導者之間也是如此。但隨着 AI 分析工具的興起,這一問題很可能會越來越突出:企業對你的了解越多,它就越能向你提供一個最能榨取你支付意願的個性化價格。

我可以用一句話來表達我對隱私即自由的基本觀點:

隱私賦予你以符合自身目標和需求的方式生活的自由,而無需在每一個行爲上都小心權衡“私人遊戲”(你的自身需求)與“公共遊戲”(各種人——通過社交媒體連鎖反應、商業激勵、政治、制度等機制介入後——會如何看待並回應你的行爲)。

沒有隱私,一切都變成了“別人(包括機器人)會怎麼看我”的持續拉鋸戰——無論是有權勢者、公司、同輩,還是現在與未來的人。而有了隱私,我們就能維持一種平衡。如今,這種平衡正在迅速被侵蝕,尤其是在物理世界中;而現代技術資本主義的默認路徑,是不斷侵蝕這種平衡,以追求那些無需明確向用戶收費、卻能最大化價值提取的商業模式(即便是極其敏感的領域,比如我們的大腦)。因此,我們必須反向推動這種趨勢,更加明確地支持隱私,尤其是在我們最有能力實踐的領域:數字世界。

但爲什麼不能允許政府設立後門呢?

有一個常見的回應是:上述所描述的隱私劣勢,大多是因爲公衆過度了解我們私人生活所導致的,就算涉及權力濫用,也主要是企業、老板和政客知道得太多的問題。但如果我們不讓公衆、企業、老板和政客掌握這些數據,而是只讓一小部分經過嚴格訓練和審查的執法人員訪問街頭監控、網絡電纜和聊天應用上的數據,同時設置嚴格的問責機制,確保其他人無法接觸這些信息,不就沒問題了嗎?

這是一個廣泛但隱性的觀點,因此需要明確回應。即便以高標準、善意地執行,這種策略本身也具有不穩定性,原因有以下幾點:

  1. 實際上,能訪問數據的往往不僅是政府,還有各種質量參差不齊的企業實體。在傳統金融體系中,KYC 和支付信息掌握在支付機構、銀行和各種中介手中。郵箱服務商掌握大量各類數據,電信公司知道你的定位,並且經常非法出售這些信息。要對這些實體實施足夠嚴格的監管,使其真正嚴謹地保護用戶數據,對監管方和被監管方來說都極其高成本,可能根本無法與維護自由競爭市場共存。
  2. 擁有訪問權限的個體總會受到濫用誘惑(包括賣給第三方)。2019 年,幾名 Twitter 員工因將異見人士的個人信息出售給沙特阿拉伯而被起訴最終定罪
  3. 數據總有被黑的風險。2024 年,美國電信公司依法收集的數據被據稱與中國政府有關的黑客入侵;2025 年,烏克蘭政府掌握的大量敏感個人數據被俄羅斯黑客竊取。反過來,中國的高度敏感政府和企業數據庫也被黑,包括被美國政府攻擊
  4. 政權會更迭。一個今天值得信任的政府,明天可能就不再值得信任。今天掌權的人,未來可能成爲被迫害者。一個今天恪守禮儀與尊重的警察機構,十年後可能墮落爲各種冷酷無情的行徑。

對個體來說,如果數據被收集了,他們無法預知未來是否會被濫用。最安全的做法是:盡可能不集中收集這些數據。數據應盡可能由用戶自己掌握,並通過加密手段在不泄露隱私的前提下實現有用的統計匯總。

認爲“政府有權憑借法院授權訪問一切數據”是理所當然的觀點,忽略了一個關鍵事實:歷史上,通過法院授權可獲取的信息量遠小於今天——即便在最強隱私保護措施全面實施的網絡環境中,政府可獲取的數據也遠超以往。19 世紀時,絕大多數對話只是口頭發生一次,從未被記錄。因此,所謂“信息走向黑暗”的道德恐慌其實是違反歷史的:無論是對話還是財務交易,完全私人、不可追溯的狀態才是數千年來的常態。

1950 年的一場普通對話:整段談話中一個字都沒有被記錄、監聽、依法截取、AI 分析,或以任何形式被任何人看到,除了正在對話的當事人。

另一個必須盡量減少集中數據收集的重要原因是,全球通信和經濟活動中有很大一部分本質上是跨國的。如果所有人都在同一個國家,那麼“政府應有權訪問數據”這一觀點至少在邏輯上是連貫的。但如果人們身處不同國家呢?原則上你可以嘗試構建一個復雜機制,將每個人的數據映射到某個對其負有管轄權的合法訪問實體上——但即使如此,你仍然要面對大量涉及多方數據的邊緣案例。而且,就算這種機制理論上可行,它也不是現實中可能自動形成的結果。政府後門的現實默認結果是:數據集中於少數幾個掌握主流應用的中心法域,這些法域因控制應用而掌握全球數據,本質上形成了技術霸權。強隱私,才是最穩定的替代方案。

隱私即秩序

一個多世紀以來,人們早已認識到民主制度得以運作的一個關鍵技術要素是祕密投票:沒有人知道你投給了誰,而且即使你願意,你也無法向他人證明你投給了誰。如果祕密投票不是默認機制,選民將不可避免地受到各種額外激勵的幹擾,比如賄賂、事後承諾的回報、社會壓力、威脅等。

可以用一個簡單的數學邏輯說明這些額外激勵會如何徹底破壞民主:在一次有 N 人參與的選舉中,你左右結果的概率大約只有 1/N,因此有關候選人優劣的考慮本質上都會被 N 稀釋。但“邊緣博弈”(例如選民賄賂、脅迫、社會壓力)直接作用於你的行爲(即你投誰),而不是整個投票的結果,所以不會被 N 稀釋。因此,除非對邊緣博弈加以嚴格限制,它們將默認主導整個過程,使得選民無法基於政策優劣做出理性判斷。

這種情況不僅適用於國家層面的民主理論,幾乎所有的公司或政府中的委托-代理問題也都會面臨同樣的風險:

  • 一位法官在判案時的決定
  • 一個政府官員決定將合約或撥款分配給哪家公司
  • 移民官員是否批準籤證申請
  • 社交媒體公司的員工在內容審核決策中的立場
  • 公司員工在做出業務決策(如選定供應商)時的傾向

所有這些情境中,核心問題是一樣的:如果代理人選擇誠信行事,他們只能分得其決定爲組織帶來效益中的一小部分;但如果他們選擇參與邊緣博弈,他們將能獲得該行爲所帶來的全部利益。因此,即使是在今天,我們仍然在依賴大量的道德自律來維系制度的正常運作,以防整個社會陷入一層又一層的邊緣博弈循環之中。如果隱私進一步被削弱,這些邊緣博弈的激勵將變得更強大,而維系社會運行所需的道德自律將達到幾乎無法承受的程度。

社會系統能否被重新設計,從而避免這個問題?遺憾的是,博弈論幾乎明確表示這是不可能的(唯一的例外是徹底的獨裁)。在以個體選擇爲核心的博弈論版本中——也就是假設每個參與者獨立決策,且不考慮代理人結盟互利的可能性時——機制設計者擁有極大的空間來“設計”博弈機制,以實現各種特定結果。實際上,數學上已經證明,任何博弈至少存在一個穩定的納什均衡,因此這類博弈是可以被系統分析的。但在允許代理人結盟合作(即“勾結”)的博弈論版本中,也就是所謂的合作博弈論,我們可以證明存在大量博弈根本沒有任何穩定結果(即“核心)”爲空)。在這些博弈中,無論當前的狀態如何,總有某個聯盟可以從偏離現狀中獲利。

如果我們認真對待這些數學原理,就會得出一個結論:建立穩定社會結構的唯一方式,就是限制參與者之間的協作程度——而這就意味着需要強隱私(包括可否認性)。即使不從數學推理出發,只要觀察現實世界,或至少思考前文提到的一些委托代理場景在被“副本遊戲”佔據後會變成什麼樣,也能得出相同結論。

這也進一步說明了爲何政府“後門”是危險的。如果每個人都能無限制地與他人就一切事情進行協調,結果就是混亂。而如果只有少數人能做到這一點,僅因爲他們擁有對信息的特權訪問權,結果則是他們將主導一切。如果某個政黨擁有另一個政黨通信內容的後門訪問權限,那就極可能終結多黨制的可行性。

另一個高度依賴“限制串通”才能正常運作的社會秩序,是知識與文化活動。知識與文化活動本質上是一種出於內在動機、服務公共利益的任務:很難通過外在激勵機制去直接引導人們做出對社會有益的正向貢獻,因爲這些活動本身就在探討什麼才是“有益的行爲”。我們可以建立一些粗略的商業或社會激勵體系,引導方向接近正確,但它們仍需依賴大量內在動機來補充。而這也意味着,這類活動極易被錯配的外部激勵(特別是社交壓力與強制行爲等副本遊戲)所擾亂。爲了限制這些錯配激勵的影響,隱私再一次成爲必要條件。

隱私是進步

想象一個沒有公鑰加密和對稱加密的世界。在這個世界中,遠距離安全傳遞消息會變得非常困難——不是不可能,但確實很難。這會極大地阻礙國際合作,導致更多交流只能依賴線下、面對面的方式進行。這樣的世界將更加貧窮,也更加不平等。

我認爲,我們今天的處境,正好就像相對於一個假想中的未來世界——在那個世界中,更強大的加密形式被廣泛使用,尤其是可編程加密技術,並輔以更強大的全棧安全機制和形式化驗證,以確保這些加密技術的正確使用,從而提供強有力的保障。

埃及神協議:三種強大且高度通用的構建,可以讓我們在保護數據隱私的同時對數據進行計算。

一個很好的例子來源於醫療保健。如果你和任何在長壽、抗疫或其他健康領域工作的人交談,他們都會普遍告訴你,未來的治療和預防將是個性化的,而有效的應對高度依賴於高質量的數據,包括關於個人的數據和關於環境的數據。有效保護人們免受空氣傳播疾病的侵害需要了解哪裏空氣質量更高或更低,以及哪些區域在任何時候都有病原體的出現。最先進的長壽診所都會根據關於你身體、食物偏好和生活方式的數據,提供定制的建議和治療。

然而,所有這些同時也帶來了巨大的隱私風險。我個人知道一個事件,某個空氣監測器被發給了一名員工,並且該監測器會將數據“上報”給公司,收集的數據足以確定該員工何時進行性生活。正因爲有這樣的情況,我預計默認情況下,許多最有價值的數據將根本不會被收集,正是因爲人們擔心隱私後果。即使數據被收集,它通常也不會廣泛共享或提供給研究人員——部分是出於商業原因,但更多的原因是涉及到隱私問題。

同樣的模式在其他領域也有重復。我們自己行爲中有大量的信息存在於我們寫的文件、通過各種應用發送的消息以及在社交媒體上的各種行動中,這些都可以用來更有效地預測和提供我們日常生活中所需的東西。我們如何與物理環境互動,也有大量非醫療相關的信息。今天,我們缺乏有效使用這些信息的工具,而不導致反烏托邦式的隱私噩夢。明天,我們可能會擁有這些工具。

解決這些挑戰的最佳方法是使用強加密技術,它可以讓我們在不帶來負面後果的情況下分享數據。包括個人數據在內的數據訪問需求,在人工智能時代只會變得更加重要,因爲能夠基於我們偏好的高保真度近似值本地訓練和運行“數字雙胞胎”,從而代我們做出決策,具有很大的價值。最終,這也將涉及使用腦-機接口(BCI)技術,讀取我們大腦的高帶寬輸入。爲了避免這一切導致高度集中的全球霸權,我們需要確保在尊重強隱私的前提下進行這一切。可編程加密技術是最值得信賴的解決方案。

我的AirValent空氣質量監測器。想象一下這樣的設備,它收集空氣質量數據,將匯總統計信息公開在一個開放數據地圖上,並通過獎勵你提供的數據——同時使用可編程加密技術來避免泄露你的個人位置信息,並驗證數據的真實性。

隱私可以促進社會安全

可編程加密技術,如零知識證明,非常強大,因爲它們就像信息流的樂高積木。它們可以精確控制誰能看到哪些信息,並且通常更重要的是,控制哪些信息根本不可以被看到。例如,我可以證明我擁有一張加拿大護照,顯示我已滿18歲,而不透露任何關於我個人的其他信息。這使得各種有趣的組合成爲可能。我可以舉幾個例子:

  • 個人身份的零知識證明:證明你是唯一的個體(通過各種形式的身份驗證:護照生物特徵、去中心化社交圖譜等),而不透露你是哪個具體的人。這可以用於“不是機器人證明”、各種“每個人最大N次使用”案例等,同時保持除證明規則未被破壞外的完全隱私。
  • 隱私池,一種金融隱私解決方案,可以排除不良行爲者而無需後門。當消費時,用戶可以證明他們的幣來源於非公開已知的黑客和盜竊列表中的來源;只有黑客和盜賊自己無法生成這樣的證明,因此他們無法隱藏。Railgunprivacypools.com目前已上線並使用這種方案。 \
    設備端反欺詐掃描:這不依賴於零知識證明,但感覺它屬於這一類別。你可以使用設備端過濾器(包括大型語言模型)檢查傳入的信息,自動識別潛在的虛假信息和詐騙。如果在設備端進行,這不會妥協用戶的隱私,並且可以以一種賦能用戶的方式進行,讓每個用戶選擇訂閱哪些過濾器。
  • 實物的溯源證明:通過區塊鏈和零知識證明的結合,可以跟蹤物品在其制造鏈中的各種屬性。例如,這可以允許對環境外部性定價,而不公開供應鏈。


隱私池的示意圖


臺灣的消息檢查器應用程序,用戶可以選擇打開或關閉多個過濾器,從上到下依次爲:URL檢查、加密貨幣地址檢查、謠言檢查。

隱私與AI

最近,ChatGPT宣布將開始將你的過往對話作爲上下文輸入AI,以供未來對話使用。這一趨勢不可避免地會朝這個方向發展:AI回顧你的過往對話並從中提取見解,根本上是非常有用的。在不久的將來,我們可能會看到一些AI產品對隱私進行更深層次的侵犯:被動收集你的互聯網瀏覽模式、電子郵件和聊天記錄、生物特徵數據等。

理論上,你的數據應該對你保持私密。實際上,這似乎並非總是如此。

“哇!ChatGPT 有一個 bug,導致其他人提問的問題推送給我!這真是一個巨大的隱私泄露。我提了一個問題,發生了錯誤,然後點擊‘重試’生成了一個我絕對不會提的問題並回答了它。”

隱私保護在此情況下可能正常工作,而 AI 在此情況下產生了一個 Bruce 根本沒有提過的問題並回答了它,但我們無法驗證。類似地,也無法驗證我們的對話是否被用來進行訓練。

這一切都令人深感擔憂。更令人不安的是明確的 AI 監控用例,其中(物理和數字)數據正在大規模收集和分析,且沒有人們的同意。面部識別已經幫助專制政權大規模打壓政治異見。最令人擔憂的是 AI 數據收集和分析的最終前沿:人類大腦。

原則上,大腦-計算機接口技術具有極大的潛力,可以提升人類潛能。以 Noland Arbaugh 的故事爲例,他是 Neuralink 去年開始的首位病人:

這個實驗設備讓 Arbaugh(現在 30 歲)感到更獨立。在此之前,使用口杆需要有人將他擺放正位。如果他掉了口杆,還需要別人撿起來。而且他不能長時間使用口杆,否則會得傷口。有了 Neuralink 設備,他幾乎能完全控制計算機。他可以隨時上網、玩遊戲,Neuralink 還表示他已經創下了使用 BCI 控制光標的人的紀錄

如今,這些設備足夠強大,能夠賦能傷者和病人。明天,它們將足夠強大,給予完全健康的人與計算機合作的機會,並能進行心靈感應式交流(!!),這種效率對我們來說似乎是不可想象的。但實際上,解讀大腦信號以實現這種通信的能力需要 AI。

隨着這些趨勢的交匯,可能會出現一個黑暗的未來,我們會有硅基超級代理,可以吸收並分析每個人的信息,包括他們如何寫作、行動和思考。但也有一個更光明的未來,在這個未來裏,我們可以在保護隱私的同時,享受這些技術的好處。

這可以通過幾種技術的組合來實現:

  • 盡可能在本地進行計算——許多任務(例如,基本的圖像分析、翻譯、轉錄、BCI 的基本腦波分析)足夠簡單,可以完全在本地進行計算。事實上,本地計算還可以減少延遲並提高可驗證性。如果某些計算可以在本地完成,就應該在本地完成。這包括那些涉及訪問互聯網、登入社交媒體帳戶等的中間步驟的計算。
  • 使用加密技術使遠程計算完全私密——全同態加密(FHE)可以用來執行 AI 計算,而不讓遠程服務器看到數據或結果。歷史上,FHE 曾經非常昂貴,但(i)最近它在效率上有了快速提升,(ii)LLM 是一種結構獨特的計算形式,幾乎所有計算都是線性操作,使其可能非常適合超高效的 FHE 實現。涉及多個方的私人數據的計算可以通過多方計算來完成;兩個方的常見情況可以通過像加密電路這樣的技術高效處理。
  • 使用硬件驗證將保證擴展到物理世界——我們可以堅持要求能夠讀取我們大腦的硬件(無論是從頭骨內部還是外部)必須是開放和可驗證的,並使用 IRIS 等技術來驗證它。我們還可以在其他領域這樣做:例如,我們可以擁有安保攝像頭,只有在本地 LLM 標記爲身體暴力或醫療緊急情況時才保存並轉發視頻流,在其他情況下刪除視頻,並通過社區驅動的隨機檢查來驗證攝像頭是否正確實施。

未來的不完美

2008年,自由主義哲學家David Friedman寫了一本名爲《Future Imperfect》的書,書中他描繪了一系列關於新技術可能帶來的社會變化的草圖,其中並非所有變化都對他有利(或對我們有利)。在其中的一部分內容中,他描述了一個潛在的未來,我們將在其中看到隱私與監控之間復雜的互動,數字隱私的增長與現實世界監控的增長相互制衡:

如果牆上有一只視頻蚊子在看我打字,那麼對我的電子郵件使用強加密是沒有意義的。因此,在透明的社會中實現強隱私需要某種方式來保護我與虛擬空間之間的接口……一種低技術解決方案是戴着罩子打字。一種高技術解決方案是建立一種大腦與機器之間的連接,避免通過手指——或者任何外部觀察者可見的其他東西。24

現實空間的透明性與虛擬空間隱私之間的衝突同樣存在……我的口袋計算機使用你的公鑰加密我的信息並將其傳輸到你的口袋計算機,後者解密信息並通過你的VR眼鏡顯示它。爲了確保沒有人從你肩膀上窺視眼鏡,護目鏡不是通過屏幕顯示圖像,而是通過使用微型激光將圖像寫在你的視網膜上。幸運的話,你眼球的內部仍然是私密空間。

我們可能最終會生活在一個物理行爲完全公開、信息交易完全私密的世界裏。這有一些吸引人的特點。私人公民仍然可以利用強隱私僱傭殺手,但僱傭殺手的費用可能比他們願意支付的還要高,因爲在一個充分透明的世界裏,所有的謀殺都會被偵測到。每個殺手完成一個任務後會直接入獄。

這些技術與數據處理之間的互動又如何呢?一方面,正是現代數據處理使得透明社會成爲如此巨大的威脅——沒有數據處理,這些錄像不重要,因爲沒有人能夠在每天生產的數百萬英裏視頻中找到他們想要的特定六英寸錄像。另一方面,支持強隱私的技術爲在擁有現代數據處理的世界中恢復隱私提供了可能,通過確保有關交易的信息從未泄露給除你以外的任何人。

這樣的世界可能會是所有可能世界中最好的:如果一切順利,我們將看到一個未來,物理暴力極少,但同時保留我們在線上的自由,並確保政治、民間、文化和知識過程的基本運作,這些過程依賴於某種程度的信息透明度限制,以保持其持續運作。

即使它不是理想的,它也比那個物理與數字隱私徹底消失的版本要好,最終包括我們自己思想的隱私,在2050年代中期,我們會看到一些思考文章論述,理所當然地認爲,無法思考不受合法監聽的思想是不現實的,而對這些文章的回應將是連結到最近發生的一次事件,其中一家公司AI的LLM漏洞導致三千萬人私密內心獨白被泄露到整個互聯網。

社會一直依賴於隱私與透明度之間的平衡。在某些情況下,我也支持對隱私的限制。舉個與通常人們給出的論點完全無關的例子,我支持美國政府禁止合同中的非競爭條款,這主要不是因爲它們對工人的直接影響,而是因爲它們是迫使公司的隱性領域知識部分開源的方式。迫使公司比它們願意的更開放是對隱私的限制——但我認爲這是一個淨受益的限制。但從宏觀角度來看,未來技術最緊迫的風險是隱私將接近歷史最低點,並且這種趨勢將高度失衡,最有權力的個人和國家將獲取關於每個人的大量數據,而其他人幾乎一無所知。因此,支持每個人的隱私,並確保必要的工具是開源的、普及的、可靠的、安全的,是我們時代的重要挑戰之一。

聲明:

  1. 本文轉載自 [Vitalik]。所有版權歸原作者 [Vitalik] 所有。若對本次轉載有異議,請聯系 Gate Learn 團隊,他們將及時處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 本文的其他語言翻譯由 Gate Learn 團隊完成。除非另有說明,否則禁止復制、分發或抄襲翻譯文章。

爲什麼我支持隱私

進階4/18/2025, 2:51:38 AM
Vitalik 新作,一篇關於數字隱私價值的系統論述,探討隱私如何支撐自由、秩序與技術進步,是 AI 與區塊鏈時代的重要思想文獻。

特別感謝Balvi志願者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu和Luozhu Zhang的討論和反饋。

最近,我越來越關注改善以太坊生態系統中的隱私狀況。隱私是去中心化的重要保障:誰掌握信息,誰就擁有權力,因此我們需要避免信息的集中控制。當現實世界中的人們對中心化運營的技術基礎設施表示擔憂時,這種擔憂有時是關於運營者意外更改規則或取消平台用戶,但同樣多的是關於數據收集。雖然加密貨幣空間起源於像Chaumian Ecash這樣的項目,它將數字金融隱私的保護置於中心位置,但最近它卻低估了隱私,原因最終是錯誤的:在ZK-SNARKs之前,我們沒有辦法以去中心化的方式提供隱私,因此我們對其輕描淡寫,轉而專注於當時我們可以提供的其他保障。

然而,今天隱私已無法再被忽視。人工智能大大增強了集中式數據收集和分析的能力,同時也大大擴展了我們自願分享的數據範圍。在未來,像腦機接口這樣的新技術帶來了更多挑戰:我們可能真的是在談論AI讀取我們的思想。與此同時,我們擁有比1990年代的密碼朋克所能想象的更強大的隱私保護工具:高效的零知識證明(ZK-SNARKs)可以保護我們的身份,同時揭示足夠的信息證明我們是可信的,全同態加密(FHE)可以讓我們在不查看數據的情況下進行計算,混淆技術可能很快提供更多選擇。

隱私不是與世隔絕,而是共同站立

在這個時候,值得退一步重新審視這個問題:我們爲什麼要隱私?每個人的答案都不同。在這篇文章中,我將給出我自己的答案,並將其分爲三部分:

  • 隱私是自由:隱私給我們提供了空間,讓我們以符合我們需求的方式生活,而不必時刻擔心我們的行爲在各種政治和社會遊戲中如何被看待。
  • 隱私是秩序:許多支撐社會基本運作的機制依賴於隱私才能正常運作。
  • 隱私是進步:如果我們能夠在保護信息免於濫用的同時,以選擇性地分享信息的方式,我們就能解鎖大量價值,推動技術和社會進步。

隱私是自由

在2000年代初,類似David Brin在1998年出版的《透明社會》一書所表達的觀點曾廣爲流傳:技術將使世界各地的信息更加透明,雖然這會帶來一些負面影響並需要適應,但總體來說,這是件非常好的事,而且我們可以通過確保人民也能監視(或更確切地說,”監視“)政府來實現公平。1999年,Sun Microsystems的CEO Scott McNealy著名地喊道:“隱私已經死了,接受它吧!”這種心態在Facebook的早期構思和發展中也很常見,該平台禁止使用化名身份。我個人記得在2015年深圳的華爲活動上,曾聽到一位(西方)演講者隨口提到“隱私已經結束”,那時這種心態仍在尾聲階段。

《透明社會》代表了“隱私已死”意識形態中最光輝燦爛的一面:它承諾通過透明的力量保持政府的問責,而不是壓迫個體和少數羣體,從而創造一個更好、更公正、更公平的世界。然而,回頭看,這種方法顯然是那個時代的產物,寫於全球合作與和平的熱情高峯期,以及“歷史的終結”之時,並依賴於一些過於樂觀的人性假設。主要有以下幾點:

  1. 全球政治的高級層面通常是善意和理智的,從而使得縱向隱私(即不向強大的人和機構透露信息)變得越來越不必要。權力濫用一般是局部化的,因此反對這些濫用的最好方式是將其公之於衆。
  2. 文化將不斷改善,直到橫向隱私(即不向其他公衆成員透露信息)變得不再必要。極客、同性戀者,最終每個人都能不再躲在櫃子裏,因爲社會不再對人們的獨特特徵抱有苛刻和批判的態度,而是變得寬容和接納。

今天,沒有哪個主要國家廣泛認爲第一個假設是正確的,而許多國家普遍認爲它是錯誤的。在第二個方面,文化寬容度也在迅速退步——僅僅在Twitter上搜索諸如“欺凌是好事”這樣的詞組,就能發現一絲證據,當然,更多的例子也很容易找到。

我個人不幸地定期遭遇“透明社會”的負面影響,因爲我在外面所做的每一件事都有可能在意外情況下成爲公衆媒體的故事。

最嚴重的一次是,有人在清邁拍下我用電腦工作的一段一分鍾視頻,並將其發布到小紅書上,結果立刻獲得了數千個點贊和轉發。當然,我的處境遠非普通人的常態——但這一直是隱私問題的核心所在:對生活處境較爲正常的人來說,隱私的需求較少;而對那些生活狀況偏離常態的人來說,無論偏離方向如何,隱私的需求都更大。而一旦你將所有可能影響隱私的偏離情況加總起來,真正需要隱私的人數其實非常多——而你永遠不知道自己什麼時候會成爲其中之一。這也是隱私常被低估的一大原因:它不僅關乎你當前的處境和信息,還關乎那些“未知的未知”——這些信息未來會發生什麼變化,以及它們將如何影響你,都是不可預知的。

來自企業定價機制的隱私問題,在今天仍然是個相對小衆的關注點,即便是在 AI 倡導者之間也是如此。但隨着 AI 分析工具的興起,這一問題很可能會越來越突出:企業對你的了解越多,它就越能向你提供一個最能榨取你支付意願的個性化價格。

我可以用一句話來表達我對隱私即自由的基本觀點:

隱私賦予你以符合自身目標和需求的方式生活的自由,而無需在每一個行爲上都小心權衡“私人遊戲”(你的自身需求)與“公共遊戲”(各種人——通過社交媒體連鎖反應、商業激勵、政治、制度等機制介入後——會如何看待並回應你的行爲)。

沒有隱私,一切都變成了“別人(包括機器人)會怎麼看我”的持續拉鋸戰——無論是有權勢者、公司、同輩,還是現在與未來的人。而有了隱私,我們就能維持一種平衡。如今,這種平衡正在迅速被侵蝕,尤其是在物理世界中;而現代技術資本主義的默認路徑,是不斷侵蝕這種平衡,以追求那些無需明確向用戶收費、卻能最大化價值提取的商業模式(即便是極其敏感的領域,比如我們的大腦)。因此,我們必須反向推動這種趨勢,更加明確地支持隱私,尤其是在我們最有能力實踐的領域:數字世界。

但爲什麼不能允許政府設立後門呢?

有一個常見的回應是:上述所描述的隱私劣勢,大多是因爲公衆過度了解我們私人生活所導致的,就算涉及權力濫用,也主要是企業、老板和政客知道得太多的問題。但如果我們不讓公衆、企業、老板和政客掌握這些數據,而是只讓一小部分經過嚴格訓練和審查的執法人員訪問街頭監控、網絡電纜和聊天應用上的數據,同時設置嚴格的問責機制,確保其他人無法接觸這些信息,不就沒問題了嗎?

這是一個廣泛但隱性的觀點,因此需要明確回應。即便以高標準、善意地執行,這種策略本身也具有不穩定性,原因有以下幾點:

  1. 實際上,能訪問數據的往往不僅是政府,還有各種質量參差不齊的企業實體。在傳統金融體系中,KYC 和支付信息掌握在支付機構、銀行和各種中介手中。郵箱服務商掌握大量各類數據,電信公司知道你的定位,並且經常非法出售這些信息。要對這些實體實施足夠嚴格的監管,使其真正嚴謹地保護用戶數據,對監管方和被監管方來說都極其高成本,可能根本無法與維護自由競爭市場共存。
  2. 擁有訪問權限的個體總會受到濫用誘惑(包括賣給第三方)。2019 年,幾名 Twitter 員工因將異見人士的個人信息出售給沙特阿拉伯而被起訴最終定罪
  3. 數據總有被黑的風險。2024 年,美國電信公司依法收集的數據被據稱與中國政府有關的黑客入侵;2025 年,烏克蘭政府掌握的大量敏感個人數據被俄羅斯黑客竊取。反過來,中國的高度敏感政府和企業數據庫也被黑,包括被美國政府攻擊
  4. 政權會更迭。一個今天值得信任的政府,明天可能就不再值得信任。今天掌權的人,未來可能成爲被迫害者。一個今天恪守禮儀與尊重的警察機構,十年後可能墮落爲各種冷酷無情的行徑。

對個體來說,如果數據被收集了,他們無法預知未來是否會被濫用。最安全的做法是:盡可能不集中收集這些數據。數據應盡可能由用戶自己掌握,並通過加密手段在不泄露隱私的前提下實現有用的統計匯總。

認爲“政府有權憑借法院授權訪問一切數據”是理所當然的觀點,忽略了一個關鍵事實:歷史上,通過法院授權可獲取的信息量遠小於今天——即便在最強隱私保護措施全面實施的網絡環境中,政府可獲取的數據也遠超以往。19 世紀時,絕大多數對話只是口頭發生一次,從未被記錄。因此,所謂“信息走向黑暗”的道德恐慌其實是違反歷史的:無論是對話還是財務交易,完全私人、不可追溯的狀態才是數千年來的常態。

1950 年的一場普通對話:整段談話中一個字都沒有被記錄、監聽、依法截取、AI 分析,或以任何形式被任何人看到,除了正在對話的當事人。

另一個必須盡量減少集中數據收集的重要原因是,全球通信和經濟活動中有很大一部分本質上是跨國的。如果所有人都在同一個國家,那麼“政府應有權訪問數據”這一觀點至少在邏輯上是連貫的。但如果人們身處不同國家呢?原則上你可以嘗試構建一個復雜機制,將每個人的數據映射到某個對其負有管轄權的合法訪問實體上——但即使如此,你仍然要面對大量涉及多方數據的邊緣案例。而且,就算這種機制理論上可行,它也不是現實中可能自動形成的結果。政府後門的現實默認結果是:數據集中於少數幾個掌握主流應用的中心法域,這些法域因控制應用而掌握全球數據,本質上形成了技術霸權。強隱私,才是最穩定的替代方案。

隱私即秩序

一個多世紀以來,人們早已認識到民主制度得以運作的一個關鍵技術要素是祕密投票:沒有人知道你投給了誰,而且即使你願意,你也無法向他人證明你投給了誰。如果祕密投票不是默認機制,選民將不可避免地受到各種額外激勵的幹擾,比如賄賂、事後承諾的回報、社會壓力、威脅等。

可以用一個簡單的數學邏輯說明這些額外激勵會如何徹底破壞民主:在一次有 N 人參與的選舉中,你左右結果的概率大約只有 1/N,因此有關候選人優劣的考慮本質上都會被 N 稀釋。但“邊緣博弈”(例如選民賄賂、脅迫、社會壓力)直接作用於你的行爲(即你投誰),而不是整個投票的結果,所以不會被 N 稀釋。因此,除非對邊緣博弈加以嚴格限制,它們將默認主導整個過程,使得選民無法基於政策優劣做出理性判斷。

這種情況不僅適用於國家層面的民主理論,幾乎所有的公司或政府中的委托-代理問題也都會面臨同樣的風險:

  • 一位法官在判案時的決定
  • 一個政府官員決定將合約或撥款分配給哪家公司
  • 移民官員是否批準籤證申請
  • 社交媒體公司的員工在內容審核決策中的立場
  • 公司員工在做出業務決策(如選定供應商)時的傾向

所有這些情境中,核心問題是一樣的:如果代理人選擇誠信行事,他們只能分得其決定爲組織帶來效益中的一小部分;但如果他們選擇參與邊緣博弈,他們將能獲得該行爲所帶來的全部利益。因此,即使是在今天,我們仍然在依賴大量的道德自律來維系制度的正常運作,以防整個社會陷入一層又一層的邊緣博弈循環之中。如果隱私進一步被削弱,這些邊緣博弈的激勵將變得更強大,而維系社會運行所需的道德自律將達到幾乎無法承受的程度。

社會系統能否被重新設計,從而避免這個問題?遺憾的是,博弈論幾乎明確表示這是不可能的(唯一的例外是徹底的獨裁)。在以個體選擇爲核心的博弈論版本中——也就是假設每個參與者獨立決策,且不考慮代理人結盟互利的可能性時——機制設計者擁有極大的空間來“設計”博弈機制,以實現各種特定結果。實際上,數學上已經證明,任何博弈至少存在一個穩定的納什均衡,因此這類博弈是可以被系統分析的。但在允許代理人結盟合作(即“勾結”)的博弈論版本中,也就是所謂的合作博弈論,我們可以證明存在大量博弈根本沒有任何穩定結果(即“核心)”爲空)。在這些博弈中,無論當前的狀態如何,總有某個聯盟可以從偏離現狀中獲利。

如果我們認真對待這些數學原理,就會得出一個結論:建立穩定社會結構的唯一方式,就是限制參與者之間的協作程度——而這就意味着需要強隱私(包括可否認性)。即使不從數學推理出發,只要觀察現實世界,或至少思考前文提到的一些委托代理場景在被“副本遊戲”佔據後會變成什麼樣,也能得出相同結論。

這也進一步說明了爲何政府“後門”是危險的。如果每個人都能無限制地與他人就一切事情進行協調,結果就是混亂。而如果只有少數人能做到這一點,僅因爲他們擁有對信息的特權訪問權,結果則是他們將主導一切。如果某個政黨擁有另一個政黨通信內容的後門訪問權限,那就極可能終結多黨制的可行性。

另一個高度依賴“限制串通”才能正常運作的社會秩序,是知識與文化活動。知識與文化活動本質上是一種出於內在動機、服務公共利益的任務:很難通過外在激勵機制去直接引導人們做出對社會有益的正向貢獻,因爲這些活動本身就在探討什麼才是“有益的行爲”。我們可以建立一些粗略的商業或社會激勵體系,引導方向接近正確,但它們仍需依賴大量內在動機來補充。而這也意味着,這類活動極易被錯配的外部激勵(特別是社交壓力與強制行爲等副本遊戲)所擾亂。爲了限制這些錯配激勵的影響,隱私再一次成爲必要條件。

隱私是進步

想象一個沒有公鑰加密和對稱加密的世界。在這個世界中,遠距離安全傳遞消息會變得非常困難——不是不可能,但確實很難。這會極大地阻礙國際合作,導致更多交流只能依賴線下、面對面的方式進行。這樣的世界將更加貧窮,也更加不平等。

我認爲,我們今天的處境,正好就像相對於一個假想中的未來世界——在那個世界中,更強大的加密形式被廣泛使用,尤其是可編程加密技術,並輔以更強大的全棧安全機制和形式化驗證,以確保這些加密技術的正確使用,從而提供強有力的保障。

埃及神協議:三種強大且高度通用的構建,可以讓我們在保護數據隱私的同時對數據進行計算。

一個很好的例子來源於醫療保健。如果你和任何在長壽、抗疫或其他健康領域工作的人交談,他們都會普遍告訴你,未來的治療和預防將是個性化的,而有效的應對高度依賴於高質量的數據,包括關於個人的數據和關於環境的數據。有效保護人們免受空氣傳播疾病的侵害需要了解哪裏空氣質量更高或更低,以及哪些區域在任何時候都有病原體的出現。最先進的長壽診所都會根據關於你身體、食物偏好和生活方式的數據,提供定制的建議和治療。

然而,所有這些同時也帶來了巨大的隱私風險。我個人知道一個事件,某個空氣監測器被發給了一名員工,並且該監測器會將數據“上報”給公司,收集的數據足以確定該員工何時進行性生活。正因爲有這樣的情況,我預計默認情況下,許多最有價值的數據將根本不會被收集,正是因爲人們擔心隱私後果。即使數據被收集,它通常也不會廣泛共享或提供給研究人員——部分是出於商業原因,但更多的原因是涉及到隱私問題。

同樣的模式在其他領域也有重復。我們自己行爲中有大量的信息存在於我們寫的文件、通過各種應用發送的消息以及在社交媒體上的各種行動中,這些都可以用來更有效地預測和提供我們日常生活中所需的東西。我們如何與物理環境互動,也有大量非醫療相關的信息。今天,我們缺乏有效使用這些信息的工具,而不導致反烏托邦式的隱私噩夢。明天,我們可能會擁有這些工具。

解決這些挑戰的最佳方法是使用強加密技術,它可以讓我們在不帶來負面後果的情況下分享數據。包括個人數據在內的數據訪問需求,在人工智能時代只會變得更加重要,因爲能夠基於我們偏好的高保真度近似值本地訓練和運行“數字雙胞胎”,從而代我們做出決策,具有很大的價值。最終,這也將涉及使用腦-機接口(BCI)技術,讀取我們大腦的高帶寬輸入。爲了避免這一切導致高度集中的全球霸權,我們需要確保在尊重強隱私的前提下進行這一切。可編程加密技術是最值得信賴的解決方案。

我的AirValent空氣質量監測器。想象一下這樣的設備,它收集空氣質量數據,將匯總統計信息公開在一個開放數據地圖上,並通過獎勵你提供的數據——同時使用可編程加密技術來避免泄露你的個人位置信息,並驗證數據的真實性。

隱私可以促進社會安全

可編程加密技術,如零知識證明,非常強大,因爲它們就像信息流的樂高積木。它們可以精確控制誰能看到哪些信息,並且通常更重要的是,控制哪些信息根本不可以被看到。例如,我可以證明我擁有一張加拿大護照,顯示我已滿18歲,而不透露任何關於我個人的其他信息。這使得各種有趣的組合成爲可能。我可以舉幾個例子:

  • 個人身份的零知識證明:證明你是唯一的個體(通過各種形式的身份驗證:護照生物特徵、去中心化社交圖譜等),而不透露你是哪個具體的人。這可以用於“不是機器人證明”、各種“每個人最大N次使用”案例等,同時保持除證明規則未被破壞外的完全隱私。
  • 隱私池,一種金融隱私解決方案,可以排除不良行爲者而無需後門。當消費時,用戶可以證明他們的幣來源於非公開已知的黑客和盜竊列表中的來源;只有黑客和盜賊自己無法生成這樣的證明,因此他們無法隱藏。Railgunprivacypools.com目前已上線並使用這種方案。 \
    設備端反欺詐掃描:這不依賴於零知識證明,但感覺它屬於這一類別。你可以使用設備端過濾器(包括大型語言模型)檢查傳入的信息,自動識別潛在的虛假信息和詐騙。如果在設備端進行,這不會妥協用戶的隱私,並且可以以一種賦能用戶的方式進行,讓每個用戶選擇訂閱哪些過濾器。
  • 實物的溯源證明:通過區塊鏈和零知識證明的結合,可以跟蹤物品在其制造鏈中的各種屬性。例如,這可以允許對環境外部性定價,而不公開供應鏈。


隱私池的示意圖


臺灣的消息檢查器應用程序,用戶可以選擇打開或關閉多個過濾器,從上到下依次爲:URL檢查、加密貨幣地址檢查、謠言檢查。

隱私與AI

最近,ChatGPT宣布將開始將你的過往對話作爲上下文輸入AI,以供未來對話使用。這一趨勢不可避免地會朝這個方向發展:AI回顧你的過往對話並從中提取見解,根本上是非常有用的。在不久的將來,我們可能會看到一些AI產品對隱私進行更深層次的侵犯:被動收集你的互聯網瀏覽模式、電子郵件和聊天記錄、生物特徵數據等。

理論上,你的數據應該對你保持私密。實際上,這似乎並非總是如此。

“哇!ChatGPT 有一個 bug,導致其他人提問的問題推送給我!這真是一個巨大的隱私泄露。我提了一個問題,發生了錯誤,然後點擊‘重試’生成了一個我絕對不會提的問題並回答了它。”

隱私保護在此情況下可能正常工作,而 AI 在此情況下產生了一個 Bruce 根本沒有提過的問題並回答了它,但我們無法驗證。類似地,也無法驗證我們的對話是否被用來進行訓練。

這一切都令人深感擔憂。更令人不安的是明確的 AI 監控用例,其中(物理和數字)數據正在大規模收集和分析,且沒有人們的同意。面部識別已經幫助專制政權大規模打壓政治異見。最令人擔憂的是 AI 數據收集和分析的最終前沿:人類大腦。

原則上,大腦-計算機接口技術具有極大的潛力,可以提升人類潛能。以 Noland Arbaugh 的故事爲例,他是 Neuralink 去年開始的首位病人:

這個實驗設備讓 Arbaugh(現在 30 歲)感到更獨立。在此之前,使用口杆需要有人將他擺放正位。如果他掉了口杆,還需要別人撿起來。而且他不能長時間使用口杆,否則會得傷口。有了 Neuralink 設備,他幾乎能完全控制計算機。他可以隨時上網、玩遊戲,Neuralink 還表示他已經創下了使用 BCI 控制光標的人的紀錄

如今,這些設備足夠強大,能夠賦能傷者和病人。明天,它們將足夠強大,給予完全健康的人與計算機合作的機會,並能進行心靈感應式交流(!!),這種效率對我們來說似乎是不可想象的。但實際上,解讀大腦信號以實現這種通信的能力需要 AI。

隨着這些趨勢的交匯,可能會出現一個黑暗的未來,我們會有硅基超級代理,可以吸收並分析每個人的信息,包括他們如何寫作、行動和思考。但也有一個更光明的未來,在這個未來裏,我們可以在保護隱私的同時,享受這些技術的好處。

這可以通過幾種技術的組合來實現:

  • 盡可能在本地進行計算——許多任務(例如,基本的圖像分析、翻譯、轉錄、BCI 的基本腦波分析)足夠簡單,可以完全在本地進行計算。事實上,本地計算還可以減少延遲並提高可驗證性。如果某些計算可以在本地完成,就應該在本地完成。這包括那些涉及訪問互聯網、登入社交媒體帳戶等的中間步驟的計算。
  • 使用加密技術使遠程計算完全私密——全同態加密(FHE)可以用來執行 AI 計算,而不讓遠程服務器看到數據或結果。歷史上,FHE 曾經非常昂貴,但(i)最近它在效率上有了快速提升,(ii)LLM 是一種結構獨特的計算形式,幾乎所有計算都是線性操作,使其可能非常適合超高效的 FHE 實現。涉及多個方的私人數據的計算可以通過多方計算來完成;兩個方的常見情況可以通過像加密電路這樣的技術高效處理。
  • 使用硬件驗證將保證擴展到物理世界——我們可以堅持要求能夠讀取我們大腦的硬件(無論是從頭骨內部還是外部)必須是開放和可驗證的,並使用 IRIS 等技術來驗證它。我們還可以在其他領域這樣做:例如,我們可以擁有安保攝像頭,只有在本地 LLM 標記爲身體暴力或醫療緊急情況時才保存並轉發視頻流,在其他情況下刪除視頻,並通過社區驅動的隨機檢查來驗證攝像頭是否正確實施。

未來的不完美

2008年,自由主義哲學家David Friedman寫了一本名爲《Future Imperfect》的書,書中他描繪了一系列關於新技術可能帶來的社會變化的草圖,其中並非所有變化都對他有利(或對我們有利)。在其中的一部分內容中,他描述了一個潛在的未來,我們將在其中看到隱私與監控之間復雜的互動,數字隱私的增長與現實世界監控的增長相互制衡:

如果牆上有一只視頻蚊子在看我打字,那麼對我的電子郵件使用強加密是沒有意義的。因此,在透明的社會中實現強隱私需要某種方式來保護我與虛擬空間之間的接口……一種低技術解決方案是戴着罩子打字。一種高技術解決方案是建立一種大腦與機器之間的連接,避免通過手指——或者任何外部觀察者可見的其他東西。24

現實空間的透明性與虛擬空間隱私之間的衝突同樣存在……我的口袋計算機使用你的公鑰加密我的信息並將其傳輸到你的口袋計算機,後者解密信息並通過你的VR眼鏡顯示它。爲了確保沒有人從你肩膀上窺視眼鏡,護目鏡不是通過屏幕顯示圖像,而是通過使用微型激光將圖像寫在你的視網膜上。幸運的話,你眼球的內部仍然是私密空間。

我們可能最終會生活在一個物理行爲完全公開、信息交易完全私密的世界裏。這有一些吸引人的特點。私人公民仍然可以利用強隱私僱傭殺手,但僱傭殺手的費用可能比他們願意支付的還要高,因爲在一個充分透明的世界裏,所有的謀殺都會被偵測到。每個殺手完成一個任務後會直接入獄。

這些技術與數據處理之間的互動又如何呢?一方面,正是現代數據處理使得透明社會成爲如此巨大的威脅——沒有數據處理,這些錄像不重要,因爲沒有人能夠在每天生產的數百萬英裏視頻中找到他們想要的特定六英寸錄像。另一方面,支持強隱私的技術爲在擁有現代數據處理的世界中恢復隱私提供了可能,通過確保有關交易的信息從未泄露給除你以外的任何人。

這樣的世界可能會是所有可能世界中最好的:如果一切順利,我們將看到一個未來,物理暴力極少,但同時保留我們在線上的自由,並確保政治、民間、文化和知識過程的基本運作,這些過程依賴於某種程度的信息透明度限制,以保持其持續運作。

即使它不是理想的,它也比那個物理與數字隱私徹底消失的版本要好,最終包括我們自己思想的隱私,在2050年代中期,我們會看到一些思考文章論述,理所當然地認爲,無法思考不受合法監聽的思想是不現實的,而對這些文章的回應將是連結到最近發生的一次事件,其中一家公司AI的LLM漏洞導致三千萬人私密內心獨白被泄露到整個互聯網。

社會一直依賴於隱私與透明度之間的平衡。在某些情況下,我也支持對隱私的限制。舉個與通常人們給出的論點完全無關的例子,我支持美國政府禁止合同中的非競爭條款,這主要不是因爲它們對工人的直接影響,而是因爲它們是迫使公司的隱性領域知識部分開源的方式。迫使公司比它們願意的更開放是對隱私的限制——但我認爲這是一個淨受益的限制。但從宏觀角度來看,未來技術最緊迫的風險是隱私將接近歷史最低點,並且這種趨勢將高度失衡,最有權力的個人和國家將獲取關於每個人的大量數據,而其他人幾乎一無所知。因此,支持每個人的隱私,並確保必要的工具是開源的、普及的、可靠的、安全的,是我們時代的重要挑戰之一。

聲明:

  1. 本文轉載自 [Vitalik]。所有版權歸原作者 [Vitalik] 所有。若對本次轉載有異議,請聯系 Gate Learn 團隊,他們將及時處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 本文的其他語言翻譯由 Gate Learn 團隊完成。除非另有說明,否則禁止復制、分發或抄襲翻譯文章。
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!
It seems that you are attempting to access our services from a Restricted Location where Gate is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Thailand, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.