首頁 資訊正文

“AI 向善”需要“標本兼治”

作為引領第四次科技革命的重要技術之一,人工智能(AI)給社會建設和經濟發展帶來了重大而深遠的影響。人工智能在技術層面是價值中立的,但在實際應用中兼具創造性和破壞性。數據隱私、算法偏見、技術濫用等安全問題正給社會公共治理與產業智能化轉型帶來嚴峻挑戰。這些挑戰有哪些應對之策?在近日舉辦的全球數字經濟大會人工智能產業治理論壇上能找到一些答案。

創新與治理雙輪驅動

“人工智能與信息系統在安全上有顯著區別。信息系統安全主要是軟件設計中的漏洞,容易解決。而第二代人工智能的安全問題主要來自深度學習算法本身的不安全。”中國科學院院士、清華大學人工智能研究院名譽院長、瑞萊智慧首席科學家張鈸在主旨演講中表示。他認為,對人工智能進行治理,防止它被誤用和濫用,一方面需要從法律法規、倫理規范、行業共識等不同層面去“治標”,另一方面應從技術創新層面發力去“治本”。他呼吁發展第三代人工智能技術,即融合了第一代知識驅動和第二代數據驅動的人工智能,利用知識、數據、算法和算力四個要素,建立新的可解釋和魯棒性的人工智能理論與方法,發展安全、可信、可靠和可擴展的人工智能技術。

中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員、聯合國教科文組織人工智能倫理特設專家組專家曾毅認為,人工智能的治理并不存在“發展優先還是治理先行”的矛盾,人工智能穩健發展的兩大前提是可持續發展和人工智能的善治,兩者深度協同。如何實現人工智能的可持續發展?他建議,在人工智能產品設計、研究、開發、部署、使用全生命周期嵌入倫理與治理,形成政府、學術界、企業、公民、媒體、用戶、服務提供商等多方主動共治的良性生態,使穩健發展的人工智能賦能全球可持續發展目標的實現。他表示,本次宣言的發布對企業具有重要參考作用并具有初步的實操建議,將推動政產學研各界加快形成多方共治體系,穩步推進構建“負責任、可持續”的人工智能生態,賦能人類與生態的可持續發展。

中國社科院科技哲學研究室主任、科學技術和社會研究中心主任段偉文在演講中重點談到了數字時代的社會信任危機與重建。他表示,數字技術與人工智能產業發展的倫理風險帶來了諸多社會信任問題,面對數字治理趨勢,人工智能企業應直面社會許可的挑戰,認真感知公眾對科技企業的認知和評價。他建議,人工智能企業不應回避社會監督,而是不斷思考、重塑科技的社會印象,技術改進和倫理設計要齊頭并進,攜手走向共建性的人工智能倫理治理。

多方攜手推動“AI向善”

人工智能離不開海量數據的支撐,因此,數據治理是“AI向善”的重要內容。對此,在監管層面,我國已經邁出了腳步。早在2015年,國務院出臺了《促進大數據發展行動綱要》。今年9月1日起即將施行的《數據安全法》與人工智能發展密切相關。中倫律師事務所合伙人陳際紅表示,該法建立起數據安全的標準化體系,設定一個數據安全的檢測評估和認證的管理體制。重要的還是數據分類分級制度,重要數據和核心數據的清單與管理制度,預警處理機制和數據活動的國家安全審查,數據處理活動和國家安全密切相關,數據交易和數據的準入與監管,以及數據跨境流動的監管規則。

在行業共識方面,國內首個《人工智能產業擔當宣言》近日推出,此舉將為積極探索國內人工智能治理的新路徑提供有益經驗。在行業踐行方面,宣言也給出了具體實現路徑,倡導企業積極參與探索和構建開源開放協作共享機制和平臺,建立深度合作伙伴關系,推動良好的產業生態形成。此外,企業還應采取成立人工智能治理委員會或工作組、設立倫理研究院崗位或通過外部技術支持等多種方式積極履行責任,從業者要具有高度社會責任感和自律意識,將人工智能倫理與治理原則、實踐貫穿于產品和服務的全生命周期。

現在,人工智能產業化已經從點到面滲透到更多行業的特定場景,這也為相應的風險治理和安全能力建設提出了新的要求。因此,除了政策和產業層面,技術層面的治理也是一條新路徑。在科技向善的共同愿景下,眾多人工智能企業也在積極探索科技治理的新路徑。

多家企業一致表示,在技術能力方面,要最大限度確保人工智能系統安全可信,提高魯棒性及抗干擾性,增強算法透明性和可解釋性,同時保障各方權利和隱私,為用戶數據提供充分的安全保障。

北京瑞萊智慧科技有限公司CEO田天表示,讓人工智能更好地服務于人類,是行業共同的目標,當整個社會重新審視技術的價值,科技從業者更應感受到科技治理的緊迫性和使命感,應當積極主動開展自治工作,同時開放共享,共舉科技擔當,將科技力量打造成為人工智能創新治理體系中的核心支撐。

可見,在推動人工智能創新發展的道路上,只有從技術、倫理、法律三個維度“三管齊下”,才能實現安全治理的高效能。只有創新發展與安全治理深度協同,人工智能才能真正成為助力社會發展的有力工具,增進人類福祉。

責任編輯:藺弦弦

分享:
可以触碰你的深处吗开车视频