人工智能安全與治理

  點擊數:142  發布時間:2020-04-23 11:36
人工智能作為引領未來的戰略性技術,近年來隨著海量可用數據的產生、算力提高與算法的優化,其在理論前沿、技術研發和產業落地均有不小的突破。隨之而來的是,人工智能在國家安全、政治秩序、經濟發展、國際格局、社會治理等各個領域的影響愈發強烈,治理與安全議題的重要性日益提升。
關鍵詞:人工智能安全 ,人工智能 ,網絡空間安全

人工智能作為引領未來的戰略性技術,近年來隨著海量可用數據的產生、算力提高與算法的優化,其在理論前沿、技術研發和產業落地均有不小的突破。隨之而來的是,人工智能在國家安全、政治秩序、經濟發展、國際格局、社會治理等各個領域的影響愈發強烈,治理與安全議題的重要性日益提升。

作為顛覆性新興技術的代表,人工智能的“雙刃劍”影響是其與生俱來的特性,擁有廣泛可期的發展前景,并革新了人類發展理念和路徑,同時也帶來了復雜泛化的風險挑戰。因此,為保證人工智能健康發展, 應對技術進步的外溢風險,搶占未來科技高地,必須兼顧發展與安全,加強安全與治理的前瞻性研究,才能在人工智能發展浪潮和競爭格局中贏得主動。

本期專題匯集了上海“新一代人工智能治理準則”專家研討會的主要成果,通過剖析我國人工智能安全與治理方面存在主要問題,對美、英、歐、日等主要國家在人工智能安全領域政策發展的對比、戰略傾向的作出研判,解讀我國人工智能安全與治理發展模式應有的要素和關切,并從頂層布局、制度機制、未來法治、原則標準、技術發展等不同視域對我國推進人工智能安全與治理工作進行了思考和探索。

目錄

重視人工智能發展中的安全與治理

人工智能與未來法治構建

各國人工智能安全政策研判

中國人工智能治理準則的幾點思考

人工智能技術與網絡空間安全

01 重視人工智能發展中的安全與治理

內容概要:

1 中國人工智能安全與治理存在的主要問題

1.1 中國人工智能發展在治理、安全、倫理和法治建設相對滯后

1.2 已有的倡議和聲音難以形成較強的社會共識

1.3 人工智能發展存在方向不明、技術濫用、資源浪費等問題

2 我國推進人工智能安全與治理工作的幾點思考

2.1 頂層布局:人工智能安全與治理需要頂層設計、系統規劃和全方位考慮

2.2 機制建設 : 建立人工智能安全與治理的協調機制和決策咨詢機制

2.3 原則標準 : 構建通用性治理準則與產業落地相結合的規范框架

2.4 國際交流:積極推進上海在人工智能安全與治理領域的國際交流

2.5 產業發展:推動我國人工智能產業安全、融合發展

2.6 人才培養:培養人工智能安全與治理復合型人才

2.7 社會共識:形成中國強有力的人工智能安全與治理共識

人工智能作為一項新興的使能技術,其技術的產生和應用的發展對一國的經濟結構、社會秩序、道德倫理、價值觀等都會產生相當大的沖擊。因此,我國應當重視人工智能發展對國家安全和社會治理的影響,重視人工智能安全與治理議題。

1 中國人工智能安全與治理存在的主要問題

1.1 中國人工智能發展在治理、安全、倫理和法治建設相對滯后

理論研究、治理原則和規制規范等配套性制度的推進速度,相較于產業而言存在相當的滯后性,使得對于人工智能發展中暴露出的各類治理、安全問題難以形成通用性的應對方式和解決措施,人工智能的使能作用難以發揮到最大,加劇了輿論情緒對于人工智能過度的擔憂。

1.2 已有的倡議和聲音難以形成較強的社會共識

我國已有的人工智能發展國家戰略或行業發展倡議,相較于美歐處于后發階段,且牽涉主體繁多、領域廣泛、問題復雜,各方理解參差不齊,國內大眾對于人工智能的理解面臨信息和技術壁壘,難以形成較強的社會共識,在國際層面缺少話語權和影響力。

1.3 人工智能發展存在方向不明、技術濫用、資源浪費等問題

在缺少整體性戰略指引情況下,我國目前的人工智能發展存在方向不明、盲目迷信、技術濫用、資源浪費、經效低下等現象,在各層面治理與安全問題不斷爆發、各方擔憂不斷加劇的情況下,將可能成為制約我國人工智能進一步發展的制約性因素,使得人工智能安全風險和治理態勢進一步惡化。

2 我國推進人工智能安全與治理工作的幾點思考

2.1 頂層布局:人工智能安全與治理需要頂層設計、系統規劃和全方位考慮

2.1.1 中國需要探索人工智能治理模式

我國目前由科技部指導成立了“新一代人工智能治理專業委員會”,正在加緊推進中國國家層面的人工智能治理準則的出臺,上海也在去年世界人工智能大會上布局了關于法治和安全領域的倡議。在人工智能風險不斷泛化、與其他風險疊加擴大的背景下,我們要重視治理理念,拓展范圍更廣的安全概念,對于人工智能帶來的問題要分層次、輕重、緩急進行全局性思考、研究和應對,立足頂層戰略,探索一條更具包容性和開放性的中國特色治理模式和工作路徑,治理模式應當包括人工智能發展、安全、倫理、法治等各個方面。

2.1.2 人工智能發展要結合特殊的國情

我國目前處于經濟轉型的關鍵節點,人工智能發展要緊扣國家戰略、社會需求和區域規劃,能夠為中國經濟高質量發展的提供技術支持,服務公共民生,減小貧富分化,提升智能城市治理,同時要重視結構性失業等外溢影響。

2.1.3 人工智能發展要結合新興技術的階段性

深化對人工智能技術的理解,堅持技術中立原則,避免對人工智能的過高依賴、迷信和數據崇拜,減少應用中的技術濫用和發展中的資源浪費,明確人工智能的發展應當考慮到經濟效益、轉化成本和應用群體,走集約型發展路線。

人工智能發展應是包括深度學習、仿生神經等復合型多樣性路線的發展,要結合數學、心理學、神經科學等不同學科,形成符合科學與技術發展規律的人工智能發展技術路線。

2.1.4 人工智能發展要結合現階段特定歷史時機

在中美貿易戰不斷加劇,美國對我國“科技冷戰”政策日趨明朗的國際形勢下,我國的人工智能安全和治理模式要具備國際視野,強調開放和合作的基本立場,重視人工智能安全與治理領域的國際合作,擴大我國在國際上治理規則制定領域的影響力和話語權。

2.1.5 重視人工智能于安全的兩面性

人工智能技術發展帶來了巨大挑戰,但也能為我國傳統安全升級和網絡安全發展賦能。我國在構建人工智能安全與治理模式時,既要防范人工智能的安全問題,也要積極探索其在特大城市風險防范、關鍵基礎設施保護、網絡輿情治理等國家和公共安全場景下的創新應用。

2.2 機制建設 : 建立人工智能安全與治理的協調機制和決策咨詢機制

目前,美國已經建立了國家層面直接對白宮負責的人工智能安全委員會,我國要加強在頂層理論設計下的機制支撐,未來需要進一步建立國家層級的人工智能治理與安全的統籌協調機制,統籌政府各職能方立場,匯聚產、學、研、用多領域資源,形成群策群力,構建人工智能安全發展的治理模式和生態。

同時,我國也要重視長期性、持續性、多學科、跨部門的前沿和基礎理論研究,形成我國人工智能安全與治理的專家庫和理論庫,建立能為我國人工智能長遠發展的智力咨詢體系。

2.3 原則標準 : 構建通用性治理準則與產業落地相結合的規范框架

2.3.1 提出中國通用性人工智能治理與安全準則

目前,美歐等國在人工智能發展、倫理原則上都各有發聲,我國也要加緊相關方面的工作,綜合時代國際背景、國家戰略需求、技術發展趨勢和中國實踐應用,明確提出中國通用性人工智能治理準則。準則應當包括闡述國際性共識原則、明確我方在國家戰略和社會治理等領域立場,以及對國際上其他聲音的回應等方面。

2.3.2 準則結合產業落地,形成我國人工智能安全與治理的規范框架

人工智能安全與治理最終是要實現人工智能產業的安全健康發展,因此,人工智能準則要能夠與產業推進政策和監管框架充分對接,切實服務于我國《新一代人工智能發展規劃》國家戰略,服務于我國搶抓人工智能發展的重大戰略機遇,構筑我國人工智能發展的先發優勢,加快建設創新型國家和世界科技強國的總體規劃。

2.4 國際交流:積極推進國家在人工智能安全與治理領域的國際交流

在美國不斷推動對華“科技冷戰”政策和人工智能日益成為國際競爭重要議題的情況下,我國依舊要堅持對外開放和平等合作,在人工智能安全和治理上要具備國際視野,積極搭建各類平臺,加強與國際組織、國外企業的合作,共同研究制定人工智能治理、安全、倫理、法律、標準等,加強我國在人工智能安全領域的話語權,為世界提供中國人工智能治理模式借鑒。以舉辦世界人工智能大會等為契機,打造主場優勢,對接國外主要人工智能安全機構,探索建立人工智能安全發展國際規則和合作機制,積極引導全球人工智能安全治理的發展進程。

2.5 產業發展:推動我國人工智能產業安全、融合發展

2.5.1 重視人工智能科研與產業協同融合發展

人工智能的發展需要由學術界和產業界共同驅動,需要產學研融合實現協同創新。目前,我國人工智能學術研究承載機構以高校和研究機構為主,企業參與少,技術突破與應用落地的結合程度較弱,高校和科研機構的科研成果與企業的實際需求結合不夠緊密,導致技術轉化率低,成本偏高。對此,我國要構建人工智能發展的產學研用生態,真正推動人工智能科研與產業協同融合發展。

2.5.2 重視人工智能安全產業發展和在安全與治理場景的應用

大力發展人工智能在數據采集和算法設計等基礎技術、產品開發、平臺支撐性技術、場景應用中配套的安全產品與安全服務,切實實現發展內嵌安全;在前期充分評估基礎上,建立人工智能在城市治理、社會治理、公共安全等領域可以優先發展的應用場景白名單,發揮人工智能基礎使能技術作用,助力傳統網絡安全企業創新提高。

2.5.3 明確企業主體責任,形成行業自律

明確在人工智能發展中企業主體的安全責任和社會義務,引導有條件的企業內部形成標準守則,發揮企業能動性,形成行業自律。

2.6 人才培養:培養人工智能安全與治理復合型人才

人工智能安全與治理是涉及多專業背景的跨學界研究領域,倡導有條件的高校中設立哲學、政治學、行政管理、法學、網絡安全等不同學科基礎上拓寬人工智能專業教學內容,重視人工智能與其他各學科的交叉融合,培育一批具備不同專業素養并熟悉人工智能技術原理的復合型高峰人才;同時,也要推進高等院校、科研機構與人工智能企業對接合作,加強對人工智能一線研究、開發人員的安全與治理培訓,提高人工智能實務工作人員的安全意識。

2.7 社會共識:形成中國強有力的人工智能安全與治理共識

人工智能具備一定的專業知識和理解門檻,要加強對黨政機關、企事業單位、社會大眾的宣傳普及,消除信息和技術壁壘,切實凝聚成廣泛的我國人工智能安全與治理社會共識,為我國人工智能安全與治理工作推進形成良好社會輿論氛圍。

作者 >>>

何積豐,中國科學院院士,主要從事計算機軟件理論及其應用研究,包括軟件的復雜性、正確性、可靠性、程序設計理論及其應用等。

02 人工智能與未來法治構建

內容概要:

1 人工智能與未來法治構建的理念框架

2 規范保障人工智能發展的法治路徑

3 加強人工智能法律領域的教育研究與實踐

4 推動人工智能未來法治的國際交流與合作

隨著人工智能在社會各個領域的不斷深度融合與快速發展,對法律體系、經濟發展、社會穩定乃至全球治理都會產生深遠影響,其豐富潛能帶來的無限可能性也引發了各界擔憂,如何將人工智能納入人類可控的發展軌跡,趨利避害,共享成果,逐漸成為各界聚焦的熱點議題。總體而言,人工智能對法治既有挑戰,亦有機遇。人工智能不僅在知識產權體系、法律責任認定與歸屬等現行法律典型應用場景下遭遇各種新生問題,而且進一步引發了對包括法律主體概念等法治基本問題的追問和人工智能未來解構人類既有法治秩序的擔憂。同時,人工智能在法治領域又有著廣闊的應用前景,并且已經開啟重塑法律運行機制和實踐方式的漸進之旅。因此,亟待從提前布局未來法治建設這一戰略高度,深刻認識導入人工智能這一顛覆性技術的同時同步構建未來法治的必要性、重要性。對此,我們發起“人工智能與未來法治構建上海倡議”,希望能夠圍繞如何應對人工智能可能帶來的風險挑戰,構建人工智能未來法治體系,促進、規范、保障人工智能健康持續發展,服務人工智能國家戰略實施,促進人類社會福祉等主題形成普遍共識。

1 人工智能與未來法治構建的理念框架

堅持發展是“人工智能與未來法治構建上海倡議”基本的出發點。人工智能技術作為信息時代前沿趨勢技術,需要社會保持開放、積極的態度,從發展的角度看待人工智能治理與安全,看待人工智能法治體系的構建。因此,要“面向全球、面向未來、面向和平”,堅持以人為本、向善安全、創新發展、共享成果、可靠可控、規范有序六項基本價值原則,構建人工智能未來法治體系,將人工智能發展應用納入法治的軌道。

與此同時,在面對人工智能發展帶來的風險挑戰時,要加強前瞻性研究預判和約束性引導規則的制定,開展人工智能與法治的基礎理論研究,為人工智能的安全、可靠、可控發展提供制度支撐、配套體系和智力供給。

2 規范保障人工智能發展的法治路徑

目前,人工智能融合發展、跨界發展的趨勢日益凸顯,風險和挑戰也隨之變得更趨復雜和廣泛。因此,需要在國家戰略層面探索建立人工智能規范發展與風險防控研究體系,加強人工智能法治體系的頂層設計和統一部署,統籌規劃和指導布局研究的方向與重點。在深入研究的基礎上,建立與人工智能創新發展相適應的立法規范、法律體系、政策體系和倫理規范,形成人工智能安全評估、風險防控法律機制,提升技術規則、應用規則的管控能力,努力使人工智能配套的法治體系更具針對性、系統性、權威性。

在人工智能法治體系中,需要在包括人工智能的算法設計構建、數據采集運算、產品研發推廣、行業領域應用等各個環節都有相應的法制規范,尤其是要有人工智能在執法司法領域應用的規范和標準。具體而言,在法律主體界定這一法治體系基礎概念上,我們提倡法治體系保持開放性和包容性,鼓勵學界和實務部門以審慎、科學的態度進行理論研究和實踐探索,在規制人工智能安全發展和釋放人工智能創造力之間保持平衡。如,在人工智能的技術設計階段,需要制定相關的法律規范,通過規則設定促進人工智能算法的公正、透明、安全,避免算法歧視,杜絕有悖倫理價值及公序良俗的技術應用;在人工智能的數據挖掘收集方面,要構建數據權益體系,形成數據分享的安全機制、利益機制、追責機制,保證數據合法安全的開放、流通、使用,并規制數據的過度采集乃至濫用;在人工智能的產品研發上,要加強人工智能知識產權研究,健全人工智能領域技術創新、知識產權保護與標準化互動支撐機制,保證人工智能發展有足夠的創新驅動力;在人工智能的行業領域應用階段,要積極開展對人工智能應用場景的法律研究,建立人工智能復雜場景下風險防范與應對機制。我們應清醒地認識到技術的中立性,人工智能對現實社會影響的利弊在很大程度上取決于技術背后的設計者、使用者,因此要高度重視開展預防和懲治涉人工智能違法犯罪的相關研究,避免人工智能被應用于違法犯罪活動,并在具體實踐中探索可行的治理之道和司法實踐。

3 加強人工智能法律領域的教育研究與實踐

人工智能總體還處于技術成長和發展階段,人類要把握未來發展的方向必須有可信賴的青年人才隊伍,因此特別有必要強調“人工智能時代的青年責任”。我們呼吁青年要有應然的時代使命和責任感,社會要加強對青年的教育與培訓,倡導在人工智能研發教育中增加必要的倫理、法治內容,法學教育應當在法學學科基礎上拓寬人工智能等專業教學內容,重視人工智能與法學教育的交叉融合,培育一批具備法學素養并熟悉人工智能技術原理的復合型高峰人才;同時,推進“政產學研用”合作,整合高等院校、科研機構、黨政機關、企事業單位研究資源,共享智慧與經驗,合力推動人工智能與未來法治構建。

人才的成長必須投入實踐才有可能和意義。我們要充分把握人工智能給法治體系的發展帶來的機遇,在實踐中大量培養人工智能法治人才隊伍,推動人工智能在法治領域的融合發展,準確把握法治規律與人工智能技術特點的結合,實現人工智能在執法、司法領域的深度應用,加快智慧法治建設,使人工智能更好地服務、賦能法治,推進法治實踐智能化。

4 推動人工智能未來法治的國際交流與合作

當下,以美歐為代表的西方主要國家都提出了人工智能倫理原則、價值指導等,在這一領域,中國不應也不能缺席。我國在人工智能的技術研發、產業發展等應用端發展成績亮眼,但是在理論研究、國際話語權等基礎軟實力方面還有很大的提升空間,因此,我們倡議積極推動人工智能發展應用的國際交流與合作,主動履行大國責任、搭建人工智能與法治國際合作平臺,更好地為世界提供人工智能法治的中國方案,可靠守護人類社會的安全與福祉。在此過程中,完整表達我國共同探討、共推發展、共護安全、共享成果的立場,倡導國際社會攜手反對與防止智能霸權,促進人工智能的和平、充分、有效利用,共創人類社會美好未來。

作者 >>>

施偉東, 上海市法學會專職副會長,主要從事政法理論和政策研究。

03 各國人工智能安全政策研判

內容概要:

1 全球人工智能安全的趨勢研判

1.1 重視人工智能發展內嵌安全的觀念

1.2 重視人工智能在安全領域的兩面性

1.3 重視人工智能的治理規范

2 主要政治體人工智能安全政策及特點

2.1 美國:人工智能安全立足美國的國際領導力和國家安全戰略

2.2 歐盟(德、法):重視西方政治價值與人工智能的協調

2.3 英國

2.4 日本、韓國、新加坡

人工智能作為引領新一代信息技術發展的“頭雁”技術,是推動我國實現高質量發展、創造高品質生活、提升國際核心競爭力的重要引擎。然而,作為全新的基礎性使能技術體系,人工智能的雙刃劍效應也尤為明顯,對經濟、社會、國家乃至全人類的安全發展都帶來極為復雜的挑戰,如何確保人工智能高質量安全發展尤為關鍵。對此,黨中央多次強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。

1 全球人工智能安全的趨勢研判

1.1 重視人工智能發展內嵌安全的觀念

人工智能安全問題存在于技術發展的各個階段。美、英、德、法、日等各國都在不同的戰略政策中強調安全問題貫穿人工智能的數據采集、算法設計、產品開發、產業應用等全生命周期中。

1.2 重視人工智能在安全領域的兩面性

人工智能技術發展給社會帶來巨大的安全挑戰,但也能為傳統安全賦能。美、法、日都將國防和公共安全列為人工智能技術重點應用的領域之一,美國從保持全球領導力,基于國家安全的戰略高度,強調人工智能對軍事、情報和國家競爭力的作用,不僅拓展人工智能技術在傳統安全領域的應用,也特別注意防范人工智能對國家安全的沖擊。

1.3 重視人工智能的治理規范

人工智能治理規范不僅體現在宏觀層面,如人類安全、倫理、價值觀、信任、可靠等原則,更體現在具體的應用場景中的法律監管和技術標準,如智能機器人、自動駕駛等,也包括相關通用性的算法追責等規范。美、歐、英、日等結合各自人工智能技術發展能力以及社會治理傳統經驗,在治理規范上提出符合自身利益訴求的原則倡議或規范標準,但也注重強調占據社會道德制高點,在爭奪人工智能安全領域的話語權。

2 主要政治體人工智能安全政策及特

2.1 美國:人工智能安全立足美國的國際領導力和國家安全戰略

美國人工智能安全政策主要特點:(1)成立國家層面的人工智能安全委員會,直接向白宮和國會負責,統籌應對人工智能在安全領域的挑戰,推進人工智能的發展;(2)強調人工智能發展和應用對于美國國防、軍事、情報等傳統安全領域的意義,重視人工智能在國防軍事和情報領域的應用;(3)將人工智能納入國際博弈和國家戰略議題,視人工智能作為確保美國全球領導力、競爭力未來核心能力之一,并將人工智能列入限制對中國等國出口的關鍵技術;(4)國會、聯邦政府、州政府等國家機構共同構建規范人工智能在算法安全和自動駕駛等發展、應用方面的法律監管體系;(5)包括微軟、谷歌等科技巨頭,還有IEEE、ITI 等行業協會,阿西洛馬人工智能原則、OpenAI 公共智庫等不斷在人工智能治理原則、倫理規范和安全標準上發力。

2.2 歐盟(德、法):重視西方政治價值與人工智能的協調

歐盟層面高度重視人工智能對現有的政治秩序、政治價值和倫理道德的沖擊,設立歐盟委員會直屬的歐盟人工智能高級別專家組,致力于將西方的人權、自由等政治價值內嵌到人工智能倫理體系中,并謀求在人工智能安全、倫理范疇的話語權和規則制定權。在德、法等成員國層面則以人工智能產業安全發展、監管規制的法律制定為主要側重點。

2.3 英國

英國重視機器人、智能系統、自動駕駛等人工智能深度應用的場景下的數據隱私、技術倫理和安全問題。

2.4 日本、韓國、新加坡

日本、韓國和新加坡更多是從制造業智能化轉型和新興技術應用等發展的角度來看待人工智能,安全方面側重不多。其中日、新對于人工智能的倫理原則和治理規范關注較多,韓國則更強調在智能機器人等產業場景下的人工安全問題。

作者 >>>

惠志斌,研究員、管理理學博士,上海社會科學院互聯網研究中心主任,賽博研究院院長、首席研究員,主要研究領域為網絡安全、數字經濟、互聯網等領域的政策和產業研究。

04 中國人工智能治理準則的幾點思考

內容概要:

首先,筆者認為我國應當認識到人工智能對社會治理和國際秩序帶來的挑戰和沖擊。

其次,我們也要看到中國在人工智能發展上面臨的巨大機遇。

再次,我們依舊要看到中國在人工智能發展尚存在的不足。

最后,筆者對于中國人工智能治理準則提出幾點思考建議。

人工智能的不斷發展,給政治、經濟、社會各領域的理念和秩序可能帶來深刻的變遷,人工智能治理議題也日益成為各國熱切討論的話題。中國應該構建怎樣的人工智能治理準則,值得各界進行深入的思考。

首先,筆者認為我國應當認識到人工智能對社會治理和國際秩序帶來的挑戰和沖擊。在社會治理方面,人工智能尤其是強人工智能將在人性價值和道德倫理上產生顛覆性的影響,對人類中心主體地位的擔憂不再是杞人憂天;其次,人工智能大規模應用可能帶來結構性失業、全面性失業和“就業失重”現象,沖擊現有的社會秩序和結構,導致群體心理異化;最后,人工智能作為新興科技“賽維坦”的典型代表,在算法、數據、隱私、確責等各個方面都使得現行法律制度和監管規則應對乏力。

而在國際秩序方面,也不能忽視人工智能帶來的變化。第一,人工智能的發展需要海量的數據、高素質的人才和雄厚的資本集聚,在當今的國際格局中,以美歐為代表的發達國家和互聯網科技巨頭毫無疑問會在未來擁有很大的優勢,而發展中國家以傳統勞動力為主的制造業喪失在國際分工中的相對優勢,人工智能的發展可能會加劇國際秩序的不平等,發展中國家面臨“永久邊緣化”的風險;第二,在人工智能發展原則的研究和建構領域中,美歐等國家依舊占據著主導地位,內嵌著西方所謂普世政治價值的人工智能倫理框架仍是其他國家在進行相應領域探索的主要參考。

其次,我們也要看到中國在人工智能發展上面臨的巨大機遇。第一,中國擁有不俗的人工智能發展基礎和潛能,在視覺、語音識別、自然語言處理和機器人等領域上擁有一批具備全球技術優勢的企業,統一的市場、活躍的資本、高素質人才和國家戰略支持使得中國人工智能的發展前景可期;第二,中國始終將自身定位為“最大的發展中國家”,在過去十年來中國經濟發展模式在國際社會產生了巨大反響,相信中國在人工智能發展模式、治理原則的探索上,依舊能夠為世界提供一種不同于西方的中國人工智能治理道路。

再次,我們依舊要看到中國在人工智能發展尚存在的不足。目前,我國國家層面的人工智能準則尚未公布,缺少頂層理論設計和研究方向指引,使得在治理準則、倫理規范領域屢屢失聲,5 月 16 日科技部部長王志剛表示人工智能治理準則已在加緊研究,將于近期公布,說明國家已逐漸意識到在這方面的不足,正在重點布局;此外,在人工智能發展中,普遍出現重應用輕理論、重技術輕人文、重產業輕規則的現象,甚至很多人文、社會學者也因為學科壁壘產生一些偏見,這與強調跨界發展、融合發展、泛化影響的人工智能是相矛盾的;再者,人工智能技術的發展已經進入了某些科技領域的“無人區”,但是相應的風險防控制度和規則制定相對滯后,不可控的預期與擔憂使得人工智能在創新上面臨巨大的壓力。因此,社會科學在其中的作用會更加顯著,人工智能要得到充分的發展,不僅需要智能科學與工程的學科建設和努力,還需要智能社會科學的保駕護航。

最后,筆者對于中國人工智能治理準則提出幾點思考建議。第一,強調人的核心主體地位。目前各方的人工智能準則中都存在類似的內容,強調普世性道德準則,我國應當更好地去表達自身的看法,重視中國敘事和中國邏輯,以中國話語的方式去呈現通用性的準則;第二,突出人工智能本身的安全,包括算法、數據、隱私、安全、透明、責任等等,兼收并蓄,博采眾長,結合中國實踐和科學規律去制定準則;第三,人工智能發展應當建設性地促進公平公正,技術發展具有中立性和映射性,原有不公平的秩序不應在人工智能時代被復制放大,相反,應當利用人工智能技術推動整個國際秩序和社會結構向更合理的方向變革;第四,人工智能的發展應注重和諧共生、協同發展,鼓勵與人工智能相關的不同學科間的跨領域合作,加強不同主體之間的協調,共同推進人工智能健康發展的制度體系。同時,消除因信息、專業帶來的門檻和壁壘,加強對不同受眾的教育和培訓,加強各方之間的溝通和協調,提升公眾對現狀的了解。

作者 >>>

高奇琦,現任華東政法大學教授、政治學研究院院長,主要研究方向為比較政治研究、比較政治學理論等,近幾年關注人工智能人文領域研究。

05 人工智能技術與網絡空間安全

內容概要:

1 人工智能技術概述

1.1 概念

1.2 人工智能發展沿革

1.3 人工智能技術的典型代表

2 人工智能時代網絡空間安全發展趨勢

2.1 網絡空間安全威脅趨向智能

2.2 網絡空間安全邊界開放擴張

2.3 網絡空間安全人力面臨不足

2.4 網絡空間安全防御趨向主動

3 人工智能在網絡空間安全的應用優勢

3.1 網絡空間安全的內涵

3.2 人工智能技術在網絡空間安全應用的優勢

4 展望

4.1 人工智能安全將成為產業發展最大藍海

4.2 人工智能本體安全決定安全應用進程

4.3 “人工”+“智能”將長期主導安全實踐

4.4 人工智能技術路線豐富將改善安全困境

4.5 網絡空間安全將驅動人工智能國際合作

人工智能時代,網絡空間安全威脅全面泛化,利用人工智能思想和技術應對各類安全威脅,成為網絡安全創新發展新的方向。本文從人工智能技術邏輯的視域,分析了人工智能賦能網絡空間安全(AI+ 安全)的優勢,認為人工智能安全將成為人工智能產業發展最大藍海,人工智能的本體安全決定安全應用的發展進程,“人工”+“智能”將長期主導安全實踐,人工智能技術路線豐富將改善安全困境,網絡空間安全將驅動人工智能國際合作。

1 人工智能技術概述

1.1 概念

一般而言,人工智能(Artificial Intelligence,簡稱 AI)是指人造機器所表現出來的智能,關于人工智能學科可被認為是研究、開發用于模擬、延伸和擴展智能的可行性、理論、方法、技術、應用系統及倫理等等一門新的科學和工程學科。這其中,核心在于“智能”,由于人類目前唯一認知的高等智能是人類本身,因此,人工智能企圖通過探索人類智能的實質,制造出一種“像人一樣思考或行動”的機器系統,前者解決的是邏輯、推理和尋找最優解等問題,后者則是可以通過認知、計劃、推理、學習、溝通、決策等行動實現任務目標。

對于人工智能確切的定義,尚未有普遍可以接受的共識,從中也可以看出人工智能發展初期的階段性特點。一是總體而言,人工智能理論建構尚遠不成熟、技術突破也在探索突破的發力期,原因在于人類對智能本身運作的機理和構成要素了解較少;二是技術應用領先于概念理論,在不同的方向和子領域,存在一定的壁壘,且目前尚看不出人工智能的主流技術路線,原因在于人工智能是涉及計算機、通信、數學、神經、認知、心理、哲學等等各種生物、工程、技術、人文學科復雜交叉,不同學科背景的研究者進行人工智能研究時面對不低的溝通成本。

1.2 人工智能發展沿革

人工智能概念自 1956 年首次提出以來,經歷了長期而又波折的算法演進和應用檢驗,直至近 20 年隨著計算技術和大數據技術的高速發展,人工智能得到超強算力和海量數據的支持,才獲得了越來越廣泛的應用驗證,無論是技術本身的演進還是應用領域的擴展,都取得了跨越式發展。迄今為止,人工智能的發展經歷了三個階段:

模式識別(Pattern Recognition)階段:最初的模式識別階段大致從 20 世紀 50 年代前后延續至 20 世紀 80 年代,此時期的人工智能技術主要集中在模式識別類技術的研發和應用上,包括沿用至今的語音識別和圖像識別技術均發軔于此。模式識別主要是指模仿人類識讀符號的認知過程從而實現智能系統。

機器學習(Machine Learning)階段:機器學習最早可追溯至人工智能誕生不久時,但實際取得突破性進展是在 20 世紀 80 年代及以后。彼時的人工智能以應用仿生學為主要特點,受人腦學習知識主要是通過神經元間突觸的形成與變化的啟發,計算機也可用來模擬神經元工作,因此也稱為神經元發展階段,今天廣泛應用的人工神 經 網 絡(ANN,Artificial Neural Networks)、支 持 向 量 機 (SVM, Support Vector Machine) 技 術均來源于此,SVM 可謂這一時期的最頂峰成果,它實現了高效的歸納學習,具有數據樣本有限情況下精確分類的優勢。

深度學習(Deep Learning)階段:2006 年,隨著深度學習模型的提出,人工智能引入了層次化學習的概念,通過構建較簡單的概念來學習更深、更復雜的概念,真正意義上實現了自我訓練的機器學習。深度學習可從大數據中發現復雜結構,具有強大的推理能力和極高的靈活性,由此揭開了嶄新人工智能時代的序幕。在人工智能第三波發展熱潮中,深度學習逐漸實現了在機器視覺、語音識別、機器翻譯等多個領域的普遍應用,也催生了強化學習、遷移學習、生成對抗網絡等新型算法和技術方向。

 1.3 人工智能技術的典型代表

(1)機器學習 (ML, Machine Learning): 是當前人工智能的關鍵技術,通過設定模型,輸入數據進行訓練,改善自身性能,重在歸納、聚合而非演繹。

(2)專家系統(ES, Expert System):專家系統主要是將規則和邏輯引入 AI 系統,幫助和執行自動化決策。

(3)過程自動化 (AT, Automation ):采用自動化腳本的方法,實現任務自動化代替或協助人類員工。

(4) 深 度 學 習(DL, Deep Learning): 深度學習是機器學習中一種基于對數據進行表征學習的方法,使用特定的表示方法從實例中更容易學習新的任務。

(5)自然語言處理(NLP, Natural Language Processing):讓計算機處理并理解人類所使用的各類語言,廣義定義還包含讓計算機正確運用人類語言自如地與人進行多種形式的溝通。

(6)計算機視覺 (CV, Computer Vision):研究讓計算機如何“看”世界,常見的有對圖像進行分析的圖像處理技術(IP, Image Processing)、從動態視頻獲取有效信息的視頻分析技術 (VA, Video Analysis) 等,還有支持 AR 和 VR 等的虛

擬智能技術(VI, Virtual Intelligence)等新興技術。

(7)模式識別 (PR, Pattern Recognition):對信息進行整合與智能分析,對由環境和客體組成的模式進行自動處理和判讀,技術實現可分為有監督的分類(Supervised Classification)和無監督的分類 (Unsupervised Classification) 兩種。

(8)情緒識別(ER, Emotion Recognition):綜合多種技術感知人類的情緒狀態。

(9)AI 建模(DT, Digital Twin/AI Modeling):通過軟件來溝通物理系統與數字世界,這也是物理與虛擬世界的交界面。

(10)機器人技術 (RB, Robotics): 機器人有著廣闊的應用,形態也各異,常見的有無人駕駛、無人機等。

(11)虛擬代理 (VA, Virtual Agents):復合多項技術,能 夠 與 人 類 進 行 交 互 的 計 算 機 代理 或 程 序, 目 前 常 被 用 于 客 戶 服 務 或 語 音助理。

2 人工智能時代網絡空間安全發展趨勢

2.1 網絡空間安全威脅趨向智能

隨著網絡信息技術全面普及以及數據價值的持續增長,網絡空間安全威脅持續嚴峻,且呈現出智能化、隱匿性、規模化的特點,網絡空間安全的防御、檢測和響應面臨更大的挑戰。采用人工智能的網絡威脅手段已經被廣泛應用于網絡犯罪,包括漏洞自動挖掘、惡意軟件智能生成、智能化網絡攻擊等,網絡攻擊方式的智能化升級打破了攻防兩端的平衡。魔高一尺,道高一丈,網絡安全攻防不對稱要求網絡空間安全防御方采取更加智能化的思想與手段予以應對。

2.2 網絡空間安全邊界開放擴張

智能互聯時代,網絡空間安全的邊界不斷擴展。一方面,傳統基于網絡系統和設備等物理邊界的網絡安全防御邊界日趨泛化,網絡安全攻擊范圍被全面打開。另一方面,網絡空間治理全面滲透在政治、經濟、社會等各個領域,網絡空間安全影響領域全面泛化。邊界的開放擴張要求積極將各類智能化技術應用于全業務流程的安全防御。

2.3 網絡空間安全人力面臨不足

網絡空間安全威脅形勢日趨嚴峻,與之對應的是安全人員面臨嚴重短缺,根據邁克菲調查顯示,企業普遍認為他們需要增加 24% 的安全人員才能有效應對面臨的網絡威脅。網絡空間不斷延展、移動設備增加、多云端服務正在使安全人員的工作變得越來越復雜,而安全人員的短缺更是加劇了安全風險問題。利用人工智能等技術推動網絡防御系統的自主性和自動化,降低安全人員風險分析和處理壓力,輔助其更加高效地進行網絡安全運維與監控迫在眉睫。

2.4 網絡空間安全防御趨向主動

針對層出不窮、花樣翻新、破壞加劇的惡意代碼、漏洞后門、拒絕服務攻擊、APT 攻擊等安全威脅,現有被動防御的安全策略顯得力不從心。智能時代,網絡空間安全從被動防御趨向主動防御,人工智能驅動的自動化防御能夠更快更好地識別威脅,縮短響應時間,是網絡空間安全發展的必然方向和破解之道。

3 人工智能在網絡空間安全的應用優勢

3.1 網絡空間安全的內涵

網絡空間的概念是指由現代信息技術革命產生的,由通信線路和設備、計算機、軟件、數據、用戶以及任何接入網絡的物體等要素交互形成的全新空間,涵蓋物理設施、用戶和內容邏輯等多個層面,它將生物、物體和自然空間之間建立起智能聯系,是人類社會活動和財富創造的全新領域。

網絡空間安全是網絡空間中所有要素和活動免受來自各種威脅的狀態。隨著信息技術的不斷創新發展,網絡空間安全的范疇正不斷擴大,成為非傳統安全的重要組成部分,并與國家、政治、社會、經濟領域的安全密不可分。從網絡信息技術的發展歷程以及技術邏輯來看,網絡空間安全可分為三大領域,分別為網絡系統安全、網絡內容安全和物理網絡系統安全。其中,網絡系統安全包括信息基礎設施、計算機系統、網絡連接、用戶數據等設備和信息的安全保障,需要抵御各種惡意攻擊對信息和網絡系統的入侵、滲透、中斷、破壞,以及對用戶數據的泄露、竊取,網絡系統安全是保障全球網絡和計算機系統穩定運行,保護用戶數據和隱私的基礎。網絡內容安全是指在網絡環境中產生和流轉的信息內容是否合法、準確和健康,是否會對政治、經濟、社會和文化產生不良影響和危害。物理網絡系統安全包括網絡空間中任何與網絡連接的物、人等物理要素的安全,隨著物聯網、腦機接口、機器人等技術的迅猛發展,網絡空間的威脅已延伸到物理空間和現實世界,由此產生對資產、人身以及自然環境等要素的潛在安全威脅。網絡系統安全、網絡內容安全和物理網絡系統安全相互影響和融合交織,構成了本報告網絡空間安全的基本內涵。

3.2 人工智能技術在網絡空間安全應用的優勢

人工智能是令機器學會從認識物理世界到自主決策的過程,其內在邏輯是通過數據輸入理解世界,或通過傳感器感知環境,然后運用模式識別實現數據的分類、聚類、回歸等分析,并據此做出最優的決策推薦。當人工智能運用到安全領域,機器自動化和機器學習技術能有效且高效地幫助人類預測、感知和識別安全風險,快速檢測定位危險來源,分析安全問題產生的原因和危害方式,綜合智慧大腦的知識庫判斷并選擇最優策略,采取緩解措施或抵抗威脅,甚至提供進一步緩解和修復的建議。這個過程不僅將人們從繁重、耗時、復雜的任務中解放出來,且面對不斷變化的風險環境、異常的攻擊威脅形態比人更快、更準確,綜合分析的靈活性和效率也更高。因此,人工智能的“思考和行動”邏輯與安全防護的邏輯從本質上是自洽的,網絡空間安全天然是人工智能技術大顯身手的領域。

3.2.1 基于大數據分析的高效威脅識別

大數據為機器學習和深度學習算法提供源源動能,使人工智能保持良好的自我學習能力,升級的安全分析引擎,具有動態適應各種不確定環境的能力,有助于更好地針對大量模糊、非線性、異構數據做出因地制宜的聚合、分類、序列化等分析處理,甚至實現了對行為及動因的分析,大幅提升檢測、識別已知和未知網絡空間安全威脅的效率,升級精準度和自動化程度。

3.2.2 基于深度學習的精準關聯分析

人工智能的深度學習算法在發掘海量數據中的復雜關聯方面表現突出,擅長綜合定量分析相關安全性,有助于全面感知內外部安全威脅。人工智能技術對各種網絡安全要素和百千級維度的安全風險數據進行歸并融合、關聯分析,經過深度學習的綜合理解、評估后對安全威脅的發展趨勢做出預測,還能夠自主設立安全基線達到精細度量網絡安全性的效果,從而構建立體、動態、精準和自適應的的網絡安全威脅態勢感知體系。

3.2.3 基于自主優化的快速應急響應

人工智能展現出強大的學習、思考和進化能力,能夠從容應對未知、變化、激增的攻擊行為,并結合當前威脅情報和現有安全策略形成適應性極高的安全智慧,主動快速選擇調整安全防護策略,并付諸實施,最終幫助構建全面感知、適應協同、智能防護、優化演進的主動安全防御體系。

3.2.4 基于廣域治理的持續進化賦能

隨著網絡空間內涵外延的不斷擴展,人類面臨的安全威脅無論從數量、來源、形態、程度和修復性上都在超出原本行之有效的分工和應對能力,有可能處于失控邊緣,人工智能對人的最高智慧的極限探索,也將拓展網絡治理的理念和方式,實現安全治理的突破性創新。人工智能不僅能解決當下的安全難題,而且通過在安全場景的深化應用和檢驗,發現人工智能的缺陷和不足,為下一階段的人工智能發展和應用奠定基礎,指明方向,推動人工智能技術的持續變革及其更廣域的賦能。

4 展望

4.1 人工智能安全將成為產業發展最大藍海

可以預見的是,智慧城市、工業互聯網、自動駕駛等將在未來十年全面普及,安全將成為各類智能創新應用最核心的痛點需求,也是人工智能技術最重要的應用領域。為此,各國都會全面加大人工智能在安全領域的應用,如智慧城市建設中的安防領域,其產出的海量數據和其防護邏輯與 AI 技術邏輯的高度自洽,使AI 技術能夠天然應用于安全。

4.2 人工智能本體安全決定安全應用進程

人工智能在助力解決各領域安全問題的同時,其自身的安全性也越來越重要。如何保障合理的運用 AI 技術一直是人類面臨的難題。算法、數據、物理載體的安全性決定著 AI 的本體安全,是 AI 助力網絡空間安全的基本前提。因此,AI 技術助力安全的發展如同 DNA 的兩條單鏈,一條單鏈是在人工智能技術不斷與更多產業融合下,人工智能保障安全需求迅速增長,第二條單鏈則為對保障人工智能本體安全的需求增長。兩條單鏈相互催生,構成了人工智能技術助力安全的螺旋式發展。

4.3 “人工”+“智能”將長期主導安全實踐

長期來看,人工智能技術只是輔助而非替代人類的關鍵判斷,其中安全決策尤為復雜,更是人工智能無法完全替代的領域,因此人類決策與機器智能將長期并存。例如,Facebook對網絡新聞的真假判斷仍然是在機器學習對信息進行降級處理后進行人工審查作出最終判斷在網絡謠言治理領域,人工智能應用依然主要采用機器 + 專家審核模式。因此,基于人工智能對于復雜的社會關系、情感識別、價值判斷的能力依然不足,智能和人工結合的人工智能模式將長期主導應用實踐。

4.4 人工智能技術路線豐富將改善安全困境

機器學習、深度學習等人工智能技術高度依賴海量數據的“喂養”,但是,數據采集與隱私保護之間已經形成囚徒困境。因此,隨著人工智能技術路線的不斷豐富和發展,可以根據用戶需求和應用場景,有針對性地選擇人工智能技術,可以避免智能應用對數據資源的過度依賴,更好地保障網絡空間安全。

4.5 網絡空間安全將驅動人工智能國際合作

面對共同的威脅是國際合作的重要前提。人工智能時代,無論是在應對網絡犯罪、網絡攻擊等安全威脅,或是無人駕駛、智慧城市的安全保障,都需要各國技術標準、信息資源、應對機制等方面的匹配協同。其中,面對技術規范、行業標準、法律法規尚未健全的人工智能新領域,制定統一的安全監測標準、安全防范架構、安全評估體系需要各國參與共同協調,網絡空間安全成為人工智能國際間合作的重要領域。

作者 >>>

賽博研究院

來源:信息安全與通信保密雜志社

相關文章


熱點新聞
推薦產品
 
喜乐彩基本走势图