暫停巨型 AI 實驗:一封公開信
“大量研究[1]表明並得到頂級 AI 實驗室的認可,具有人類競爭智能的 AI 系統可能對社會和人類構成深遠的風險。[2]正如廣泛認可的Asilomar AI 原則中所述,高級 AI 可能代表地球生命史上的深刻變化,應以相應的關懷和資源進行規劃和管理。不幸的是,這種級別的規劃和管理並沒有發生,儘管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至他們的創造者——都無法理解,預測,或可靠地控制。
當代人工智能係統現在在一般任務上變得與人類具有競爭力,[3]我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道? 我們應該自動化所有的工作,包括令人滿意的工作嗎?我們是否應該 發展最終可能超過我們、超越我們、過時並取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?不得將此類決定委託給未經選舉產生的技術領導者。 只有當我們確信它們的影響是積極的並且它們的風險是可控的時候,才應該開發強大的人工智能係統。這種信心必須有充分的理由,並隨著系統潛在影響的大小而增加。OpenAI最近關於通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統之前進行獨立審查可能很重要,並且對於最先進的努力來說,同意限制用於創建新系統的計算增長率楷模。” 我們同意。那一點就是現在。
因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的訓練比 GPT-4 更強大的 AI 系統。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並暫停。
人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,無可置疑。[4]這並不意味著總體上暫停 AI 開發,只是從危險的競賽中倒退到具有突顯現性的更大的不可預測的黑盒模型。
人工智能研究和開發應該重新聚焦於使當今強大的、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。
與此同時,AI 開發人員必須與政策制定者合作,以顯著加快開發強大的 AI 治理系統。這些至少應包括:專門負責 AI 的新的和有能力的監管機構;監督和跟踪高性能人工智能係統和大量計算能力;出處和水印系統,以幫助區分真實與合成並跟踪模型洩漏;強大的審計和認證生態系統;人工智能造成的傷害的責任;為技術人工智能安全研究提供強大的公共資金;以及資源充足的機構來應對人工智能將造成的巨大的經濟和政治破壞(尤其是對民主的破壞)。
人類可以享受人工智能帶來的繁榮未來。成功創建強大的 AI 系統後,我們現在可以享受“AI 之夏”,收穫回報,設計這些系統以造福所有人,並為社會提供適應的機會。社會已經暫停其他可能對社會造成災難性影響的技術。[5] 我們可以在這裡這樣做。讓我們享受一個漫長的 AI 夏天,而不是毫無準備地陷入秋天。"
簽字人
Yoshua Bengio,Mila 創始人兼科學總監,圖靈獎得主,蒙特利爾大學教授
Stuart Russell,伯克利,計算機科學教授,智能係統中心主任,標準教科書“人工智能:現代方法”的合著者
Elon Musk,SpaceX、Tesla 和 Twitter 的首席執行官
Steve Wozniak,蘋果聯合創始人