過去十幾年里,人工智能技術取得了長足進步,應用到各行各業之中,并帶來生產力的大幅提升。不過,在具體實踐中,人工智能的應用也暴露出侵犯數據隱私、制造“信息繭房”等種種倫理風險。
人工智能發展帶來的倫理風險需要也正在被越來越多的國家重視。我們要警惕技術帶來的哪些風險?需要采取什么樣的措施未雨綢繆呢?就此,阿里研究院韓冰意、蘇中撰文進行了專門的論述。
人工智能帶來的倫理挑戰
信息繭房:用戶被算法圈住,受困于狹窄的信息視野:
過濾氣泡(Filter Bubble):即根據用戶喜好提供展示內容,網站內嵌的推薦算法會透過使用者所在地區、先前活動記錄或是搜尋歷史,推薦相關內容。社交媒體網站從千百萬用戶那里獲得的使用數據,會構成無數個過濾氣泡的小循環。
回聲室效應(Echo Chamber):在社交媒體所構建的社群中,用戶往往和與自己意見相近的人聚集在一起。因為處于一個封閉的社交環境中,這些相近意見和觀點會不斷被重復、加強。
數據隱私:數據隱私引發的人工智能倫理問題,今天已經讓用戶非常頭疼。例如,盡管很多國家政府出臺過相關法案、措施保護健康隱私,但隨著人工智能技術的進步,即便計步器、智能手機或手表搜集的個人身體活動數據已經去除身份信息,通過使用機器學習技術,也可以重新識別出個人信息并將其與人口統計數據相關聯。
算法透明性與信息對稱:用戶被區別對待的“大數據殺熟”屢次被媒體曝光。在社交網站擁有較多粉絲的“大V”,其高影響力等同于高級別會員,在客服人員處理其投訴時往往被快速識別,并因此得到更好地響應。消費頻率高的老顧客,在網上所看到產品或服務的定價,反而要高于消費頻率低或從未消費過的新顧客。
歧視與偏見:人工智能技術在提供分析預測時,也曾發生過針對用戶的性別歧視或是種族歧視的案例。曾經有企業使用人工智能招聘。一段時間后,招聘部門發現,對于軟件開發等技術職位,人工智能推薦結果更青睞男性求職者。
深度偽造(Deepfake):通過深度偽造技術,可以實現視頻/圖像內容中人臉的替換,甚至能夠通過算法來操縱替換人臉的面部表情。如果結合個性化語音合成技術的應用,生成的換臉視頻幾乎可以達到以假亂真的程度。目前利用深度偽造技術制作假新聞、假視頻所帶來的社會問題越來越多。
全球人工智能倫理法律體系建設
現階段,全球范圍內許多國家都認識到制定人工智能治理框架的必要性,但這一框架的制定也面臨著以國家間文化多樣性為基礎的道德多元化的挑戰。
(一)人工智能倫理設置原則
牛津大學學者Luciano Floridi和Josh Cowls在2019年哈佛數據科學評論雜志上發表的文章中提出了如今被學術界廣為認可的AI倫理五原則:行善、不傷害、自治、正義以及算法可解釋性。其中,前四項由傳統的生物倫理原則沿用而來,最后一項則是針對人工智能算法而提出的新原則。五項總體AI核心原則后來又被衍生出更多細化的分支。
近年來,技術界也越來越關注AI倫理問題。全球人工智能頂會IJCAI、NeurIPS、AAAI上出現了越來越多的AI倫理論文,話題范圍涉及AI可解釋性,安全AI,隱私與數據收集,公平與偏見等。而在近20年以來各個大型AI會議上提及倫理關鍵字的論文標題的數量都在逐年增加。
(二)歐盟,人工智能倫理立法先驅
2015年1月,歐盟議會法律事務委員會(JURI)成立專門工作小組,開始研究機器人和人工智能發展相關的法律問題;2019年4月,歐盟委員會發布了正式版的人工智能道德準則《可信賴人工智能的倫理準則》,提出了實現可信賴人工智能(Trustworthy AI)全生命周期的框架。該準則提出,可信賴AI需滿足3個基本條件:合法的(lawful), 即系統應該遵守所有適用的法律法規;合倫理的(ethical),即系統應該與倫理準則和價值觀相一致;穩健的(robust),不管從技術還是社會的角度來看,AI系統都可能會造成傷害。所以系統中的每個組件都應該滿足可信賴AI的要求。
對于AI從業者,該準則包含四項道德原則,確保AI從業者以值得信賴的方式開發、部署和使用人工智能系統:
尊重人的自主性:人類與人工智能系統之間的功能分配應遵循以人為本的設計原則,并為人類選擇留下有意義的機會。
預防傷害:人工智能系統及其運行的環境必須安全可靠,確保不會被惡意使用。弱勢群體應得到更多關注。還必須特別注意人工智能系統可能由于權利或信息不對稱而導致或加劇不利影響的情況。
公平性:人工智能系統的開發、部署和使用必須是公平的,公平體現既有實質性的也有程序性的。
可解釋性:可解釋性對于建立和維護用戶對AI 系統的信任至關重要,流程需要透明、人工智能系統的能力和目的需要公開溝通、并且決策(在可能的范圍內)可以向直接和間接受影響的人解釋。有時候,解釋為什么一個模型產生了一個特定的輸出或決策并不總是可能的。這些情況被稱為“黑盒”算法,在這些情況下,需要其他可解釋性措施,例如,系統功能的可追溯性、可審計性和透明通信等。
之后,歐盟又陸續頒布了更多的數據相關法案。2020年2月歐盟發布《數據戰略》,帶來數據治理的整體規劃,按照其規劃,又相繼于2021年末至2022年初密集發布了一系列數據法案,包括《數據治理法案(DGA)》、《數據服務法案(DSA)》、《數據法案(DA)》、《數據市場法案(DMA)》等。
中國人工智能倫理立法穩步推進
2017年7月,我國發布了《新一代人工智能發展規劃》。規劃呼吁,不僅要重視人工智能的社會倫理影響,而且要制定倫理框架和倫理規范,以確保人工智能安全、可靠、可控發展。
2018年1月,在國家人工智能標準化總體組的成立大會上發布了《人工智能標準化白皮書2018》。白皮書論述了人工智能的安全、倫理和隱私問題,認為人工智能技術需遵循的倫理要求設定要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識上,并遵循一些共識原則。
2019年2月,科技部在北京召開新一代人工智能發展規劃暨重大科技項目啟動會,成立了新一代人工智能治理專業委員會。同年6月,國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則》?!吨卫碓瓌t》提出,為發展負責任的人工智能,人工智能發展相關各方應遵循以下原則:和諧友好,公平公正,包容共享,尊重隱私,安全可控,共擔責任,開放協作以及敏捷治理。9月,專委會正式發布《新一代人工智能倫理規范》(以下簡稱《倫理規范》),細化落實《新一代人工智能治理原則》,將倫理道德融入人工智能全生命周期,為人工智能應用的相關活動提供倫理指引。這是中國發布的第一套人工智能倫理規范。
相比于2019年《治理原則》中針對人工智能發展需遵循的原則,2021年發布的《倫理規范》中提出了更加細化與嚴謹的6項基本倫理要求:
一是增進人類福祉。堅持以人為本,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守國家或地區倫理道德。堅持公共利益優先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經濟、社會及生態可持續發展,共建人類命運共同體。
二是促進公平公正。堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。
三是保護隱私安全。充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。
四是確??煽乜尚?。保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下。
五是強化責任擔當。堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。
六是提升倫理素養。積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應對能力。
展望未來:人工智能應如何約束?
(一)平衡治理監管與產業協調發展
盡管歐盟在規范AI倫理問題上下手早,但其過度監管也給相關市場的發展帶來了限制,造成歐盟在數字產業的發展上全面落后于全球。在全球技術主權激烈競爭的背景下,立法與監管政策需要保持謹慎思考,在治理與發展之間做好平衡,在方便企業滿足AI倫理風險的同時,為企業、行業以及相關產業提供充分的發展空間。
(二)針對人工智能倫理的高風險場景特別立法
為了降低人工智能倫理執法的難度,一些國家針對特定部門和高風險應用場景單獨立法。如許多國家把人工智能系統在醫療領域中應用列為需要關注的場景,在這些領域中,算法產生的結果將直接關乎人類的生命福祉。按照針對不同風險等級制定不同嚴苛程度的管理思路,可以通過分場景監管,做到有收有放,進而實現治理與發展的平衡。
(三)提升科研機構和企業對人工智能倫理的認知及自律
在規避人工智能可能產生的倫理風險上,科研機構和企業更容易在相關實踐中獲得第一手信息,也更應該承擔起構建安全人工智能技術的主要責任。
(四)提高全社會科技倫理意識
倫理問題涉及到社會行為準則與規范,而治理倫理問題則需從公共管理的角度出發,在充分了解人工智能技術所帶來的潛在社會影響,找到相對應的解決辦法,并形成社會對人工智能倫理的共識。建議利用各種渠道廣泛的進行科技倫理宣傳、活動與交流,提升公眾的科技倫理意識,進而加強全社會對人工智能倫理的廣泛監督。
隨時隨地了解最新ICT產業資訊,請掃描二維碼,或搜索"chnsourcing",關注中國外包網官方微信。
編輯:崔蕾