當DeepSeek這匹「黑馬」驚艷全球,世界目光聚焦中國AI實力的突破,一個更深層的問題浮出水面:站在AI浪潮的浪尖,中國如何看待這把「雙刃劍」,又該採取什麼行動?在近日舉行的巴黎AI行動峰會上,中國前外交部副部長傅瑩拋出了答案:AI治理不該被地緣政治綁架,中美更應該「破冰」合作,攜手應對AI帶來的全球性挑戰。

傅瑩在巴黎人工智能行動峰會參加小組討論。鳳凰網圖片
巴黎人工智能行動峰會2025年2月10-11日舉行,之前開展了一系列的預熱邊會活動。據《南華早報》報道,傅瑩應邀在「推進人工智能安全科學」一節擔任嘉賓,其他同台嘉賓包括蒙特利爾大學教授、Mila人工智能研究院創始人約書亞·本吉奧(Yoshua Bengio)和普林斯頓高等研究院教授阿隆德拉·納爾遜(Alondra Nelson),大家進行了嚴肅而不失幽默的熱烈討論。傅瑩還與其他國家代表會見,參加了隨後的閉門晚宴,與各方開展積極交流。
傅瑩在小組討論中的發言非常精彩,對於坊間許多疑問一一進行了解答,我們不妨一齊回顧下。
中國人怎麼看AI安全問題,為何沒有建立「人工智能安全研究所(AISI)」?
傅瑩說,中國業界已經在政府支持下成立了對應國際上的AISI的「中國人工智能發展與安全研究網絡」。 在中國AI技術應用和安全治理領域存在一個多元化和多樣化的生態環境,有多個政府部門和機構、企業在關注和投入安全治理問題。網絡的建立讓大家都參加進來,共同參與和分享知識、信息,增強自身能力建設,同時也要排除干擾,積極參加國際對話合作。中方參加了倫敦的布萊切利峰會,一直在關注各國AISI進程的發展,中國的科技界也與各國科技界保持密切溝通。
中方怎麼看人工智能技術的發展和應用帶來的風險問題?
傅瑩說,中方對風險的認知主要關注兩個層面。
一個是應用中的風險。中國政府早在2017年制定《新一代AI發展規劃》,提出AI安全、可控和可持續發展。目前中國AI技術應用處於全面爆發階段,在經濟、金融、城市管理、醫療和科研等領域都有廣泛應用, 各行業從中獲益匪淺。當然風險和挑戰也同時出現,對政府的管控需求和對相關應對技術的需求都很迫切。中國政府在網絡管理法律法規的實踐基礎上,就AI管理陸續出台法律和規範性文件,基本思路是在鼓勵創新和防範、管控風險之間保持平衡。同時,一批從事應對AI安全問題的技術創新企業也應運而生,不斷測試和發佈風險應對技術。
第二個層面是對未來風險的關注和國際合作。中國2023年10月發佈了《全球AI治理倡議》,強調智能向善,主張建立風險等級測試評估體系。中方簽署了《布萊切利宣言》。2024年7月1日,第78屆聯合國大會期間,中國提出的加強人工智能能力建設國際合作決議獲得協商一致通過,有140多個國家支持。中方對AGI風險的理論和技術探討有很高的興趣和關注。傅瑩表示,從自己參加過的相關學術討論中觀察到,中國科技界領銜人物與英、歐和美、亞洲等國際同行關係密切,認識上基本同步。
如何看待中美關係,兩國如何在AI上開展合作?
傅瑩表示:「現實地看,很多人對中美AI合作不持樂觀態度,科技界越來越多地受到地緣政治的干擾。記得2019年基辛格與埃里克·斯密特(Eric Schmidt,谷歌前首席執行官)在北京參加我們舉辦的AI安全討論會時,他憂心忡忡地問我怎麼看AI安全問題,我說,只要中美兩國能合作,人類共同努力,總能找到辦法管控機器,如果各國互不相容,甚至各自用智慧的機器與對方爭,機器贏的概率恐怕就大了。
過去幾年美國對中國的科技封鎖和打壓毒化了人類科技合作的氣氛和環境。如果將21世紀第三個十年的世界形勢繪製成一幅平面圖,可以看到科技創新指數級上揚的曲線,也可以看到中美兩國關係下行的坡線,這兩條線不斷延伸導致其很不應該卻不可避免地形成了交叉。在這個科技大爆發的時代,人類最需要動員全部的智慧與能量合作之際,主要國家卻試圖關閉合作平台。
這也導致兩個平行的動態趨勢。一是美國前沿技術公司和科技人員在AI的虛擬世界快速創新發展的領先趨勢,另一個是中國在AI技術垂直應用領域的領先趨勢。這兩股力量都有很強的衝勁兒,前者擁有巨額的資本支撐,後者擁有強大的製造業和廣闊的市場支撐。從人類技術發展的歷史進程可以自然地預期,這兩股力量的結合是未來AI乃至AGI技術安全、負責任應用的最佳出路。然而,從過去幾年的情況看,很多人認為看不到這樣的前景。因此,地緣政治的干擾可以被認為是對AI安全需要關注的第三個層面。
中國對中美合作和全球治理採取相對冷靜的態度,習近平主席與特朗普通話時強調中美兩國間擁有廣泛共同利益和廣闊合作空間,主張在分歧問題上尊重彼此核心利益和重大關切,找到解決辦法,重申雙方要堅持相互尊重、和平共處、合作共贏原則。」
圍繞國際上對AI技術發展的開源和閉源兩種路徑問題,傅瑩與約書亞表達了不同見解。
傅瑩說,中國企業選擇開源是與中國發展AI技術為了造福人民的理念相契合的。開源確實也存在風險,在實踐中,開源使得科學家和工程師們能夠盡快發現安全漏洞,及時改進技術。相比之下,目前一些大公司的大模型完全不透明反而讓人擔憂。約書亞則認為,開放源代碼的AI技術會被不法分子濫用。不過,他也承認,從AI安全的角度來看,採用開源架構更容易發現潛在問題。傅瑩提到,不久前約書亞領銜發表的300頁《人工智能安全》報告在中國得到許多關注。其中提到,「最終,社會和政府在如何應對這種不確定性方面做出的決策,將決定我們走向何方」,值得深思。
毛拍手
** 博客文章文責自負,不代表本公司立場 **