
(台泰時報11月29日電)在全球人工智慧(AI)技術快速推進之際,矽谷部分研究者與科技企業創辦人開始表達對未來風險的憂慮。多位開發者指出,若人工一般智慧(AGI)大幅超越人類能力,可能造成不可預期的安全挑戰,使部分科技圈人士開始討論建立所謂的「末日避難碉堡」,以因應可能出現的極端情境。
報導指出,這股擔憂在 2023 年已有跡象。OpenAI 共同創辦人前研究主管蘇茨克弗(Ilya Sutskever)曾在會議中提到,在真正發布 AGI 之前,團隊必須先確保有足夠安全的避難設施。他強調,若 AI 能力突破臨界點,可能對全球權力結構、資安環境與關鍵基礎設施帶來衝擊。當時的發言雖引發疑問,但反映出部分研究者對技術快速演進的高度戒備。
AGI 指人工智慧具備與人類相當甚至更高的多面向能力,能在不同領域自主分析與行動。科技界部分人士認為,一旦 AGI 出現,可能引發技術競賽升溫、跨國竊取機密、網路攻擊強化等風險,甚至在極端情境下造成 AI 將人類視為限制因素,使全球安全形勢更加複雜。
這類討論也擴散至矽谷企業家與高資產族群。例如,社群平台創辦人查克柏格(Mark Zuckerberg)於夏威夷私人土地興建大型建築群,設施設計包含地下空間;另一位科技投資者霍夫曼(Reid Hoffman)則提到,部分富裕人士已購置海外物業作為危機備援。美國高端地產市場也出現地下避難設施需求增加的趨勢。
對於技術風險的討論並非首次在科技界浮現。OpenAI 2023 年的人事爭議部分源自研究團隊與管理層對安全評估的不同看法,其中蘇茦克弗等研究者認為開發節奏需更審慎,避免技術超越監管能力範圍。時任執行長阿爾特曼(Sam Altman)最終雖重返職位,但相關爭議反映 AI 在快速成長下的治理挑戰。
而近期美國政府發布「Genesis Mission」政策,使外界進一步關注技術競賽的方向。該政策旨在提升 AI 發展策略,被解讀為規模類似過去的戰略性科技計畫。部分評論指出,若管理不當,可能增加各方對 AGI 發展的焦慮。
然而,也有專家持較為審慎的觀點。科技公司 Cognizant 技術長霍賈特(Babak Hodjat)分析,目前的 AI 能力仍需依賴大量資料輸入,與人類透過感知與經驗累積知識的方式不同。他指出,現階段的大型語言模型(LLM)尚不具備「後設認知」能力,即無法理解自身知識的界線,也不具備類似人類「自我覺察」的思考模式。
霍賈特表示,若未來要達到與人類智慧相近的複雜性,仍需在基礎技術上取得多項突破。他認為,雖然社會必須為科技進展制定安全框架,但目前 AI 與人類認知能力仍有明顯差距,相關風險評估需基於技術現狀進行。
整體而言,AGI 的前景仍處於未知階段。專家普遍認為,如何在推動創新與確保安全之間取得平衡,將成為全球科技治理的重要課題。隨著更多政策與標準逐步建立,相關討論仍將持續。
圖片來源:Bangkok Biz
