以下內(nèi)容整理自清華大學(xué)《數(shù)智安全與標(biāo)準(zhǔn)化》課程大作業(yè)期末報(bào)告同學(xué)的匯報(bào)內(nèi)容。
我們主要從分析問(wèn)題、解決問(wèn)題、效果評(píng)估和實(shí)際驗(yàn)證四方面,推動(dòng)這一課題的研究,并形成相應(yīng)的研究成果。
【資料圖】
第一部分:AI算法透明概述
第一部分,AI算法透明概述,主要凝練了當(dāng)前AI算法透明性存在的挑戰(zhàn)。
近年來(lái),人工智能技術(shù)的發(fā)展使得其透明性問(wèn)題日益凸顯,為保障用戶(hù)對(duì)算法知情,實(shí)現(xiàn)監(jiān)管機(jī)構(gòu)對(duì)算法進(jìn)行有效規(guī)范治理與問(wèn)責(zé),算法透明性必不可少。
然而,算法透明性更類(lèi)似于原則性的提議,具體如何落實(shí)透明性要求,并對(duì)其進(jìn)行有效評(píng)估,尚未形成共識(shí)。
因此,我們對(duì)AI算法透明當(dāng)前存在的諸多挑戰(zhàn)進(jìn)行了總結(jié),主要涉及三個(gè)維度:技術(shù)、評(píng)估和制度。
技術(shù)上,很難處理AI算法的黑箱問(wèn)題;
評(píng)估上,對(duì)透明程度的要求很難把握尺度;
制度上,算法問(wèn)責(zé)機(jī)制仍然模糊。
為有效應(yīng)對(duì)這些挑戰(zhàn),我們首先給出算法透明性實(shí)現(xiàn)路徑,解決技術(shù)和制度問(wèn)題,之后提出算法透明評(píng)估清單應(yīng)對(duì)評(píng)估問(wèn)題,最終在推薦系統(tǒng)下進(jìn)行實(shí)踐與應(yīng)用。
第二部分:實(shí)現(xiàn)AI算法透明
宏觀上,我們首先需要AI算法透明性治理范式,針對(duì)當(dāng)前在算法監(jiān)管立法等多個(gè)層面的挑戰(zhàn)。我們希望打破透明性中耦合的機(jī)制主義和管理主義,形成一種以法律規(guī)制為主導(dǎo),技術(shù)適配為基礎(chǔ)的多元一體、多方協(xié)作的AI算法透明性治理范式。
微觀上,這一范式的實(shí)施措施落實(shí)到學(xué)術(shù)、法律、技術(shù)和場(chǎng)景四方面。
學(xué)術(shù)上,國(guó)內(nèi)外學(xué)者研究主要從多方視角相關(guān)主體出發(fā),提出了若干在法律規(guī)制和技術(shù)適配方面的思考。
法律上,鑒于算法透明,是實(shí)現(xiàn)算法問(wèn)責(zé)的重要機(jī)制。主要可以總結(jié)為兩種實(shí)現(xiàn)AI算法透明的模式:賦權(quán)模式和行為規(guī)范模式。賦權(quán)模式屬于事后救濟(jì),而行為規(guī)范模式屬于事前預(yù)防和事中約束。
這里我們具體對(duì)比了不同國(guó)家地區(qū)的法律,發(fā)現(xiàn)各國(guó)都采取健全算法問(wèn)責(zé)機(jī)制等措施。此外,我們也注意到歐盟還強(qiáng)調(diào)對(duì)算法參數(shù)的公開(kāi)。
技術(shù)上,我們聚焦于實(shí)現(xiàn)從不透明模型向可詮釋模型、可理解模型轉(zhuǎn)變的可解釋技術(shù),該技術(shù)具體分為事前解釋、事后解釋和可詮釋模型。針對(duì)不同的應(yīng)用實(shí)例,又會(huì)有更為細(xì)致的方法。
不同的應(yīng)用場(chǎng)景,對(duì)AI算法透明體現(xiàn)出不同的場(chǎng)景需求。我們也分別在自動(dòng)駕駛、材料化學(xué)、智能教育和建筑設(shè)計(jì),四個(gè)細(xì)分領(lǐng)域內(nèi)進(jìn)行了需求分析和方法探索。
第三部分:評(píng)估AI算法透明
鑒于現(xiàn)有法律規(guī)制大多在宏觀層面強(qiáng)調(diào)算法透明監(jiān)管原則,卻鮮小有具體措施。因此,我們提出一套相對(duì)詳細(xì)、可實(shí)施的評(píng)估標(biāo)準(zhǔn),以細(xì)化并落實(shí)算法透明度合規(guī)要求。
首先,面向算法使用者的AI透明度評(píng)估清單的設(shè)計(jì)目標(biāo),在于保障知情權(quán)。內(nèi)容主要分為算法概述與技術(shù)信息,要求算法開(kāi)發(fā)方對(duì)這些內(nèi)容進(jìn)行說(shuō)明。
算法使用者的AI透明度評(píng)估清單相較于面向用戶(hù)的清單,由于監(jiān)管方需要根據(jù)算法評(píng)估內(nèi)容進(jìn)行等級(jí)評(píng)估,所以該技能較為嚴(yán)格,需要說(shuō)明的內(nèi)容也更為復(fù)雜。
為配合透明度評(píng)估清單的使用,我們還提出了透明度評(píng)估等級(jí)表。面向不同使用場(chǎng)景的算法分為五個(gè)等級(jí)進(jìn)行評(píng)估,不同等級(jí)對(duì)于算法開(kāi)發(fā)者應(yīng)當(dāng)達(dá)到的透明度有不同要求,且逐步加強(qiáng)。
具體這個(gè)清單是如何工作的呢?如左圖所示,評(píng)估流程有助于監(jiān)管方對(duì)算法開(kāi)發(fā)者在事前、事中和事后階段做出責(zé)任分配。
在開(kāi)發(fā)方與使用者方面,開(kāi)發(fā)方遵照透明度用戶(hù)指南向算法使用者提供算法的透明度指南。之后,使用者需要閱讀指南,以此確立兩方權(quán)責(zé)分配并獲得知情。
第四部分:AI算法透明實(shí)踐
我們選擇推薦系統(tǒng)作為典型實(shí)例,也是因?yàn)橥扑]系統(tǒng)最能體現(xiàn)AI算法透明的要求。如果能讓外界理解為什么信息被推薦給乙方,其實(shí)就達(dá)到了這個(gè)場(chǎng)景下的透明度要求。
通過(guò)實(shí)現(xiàn)推薦系統(tǒng)的透明性,也能提升用戶(hù)對(duì)系統(tǒng)的信任程度,使系統(tǒng)推薦結(jié)果得到檢驗(yàn),同時(shí)受到有關(guān)方面的監(jiān)管。
考慮到推薦系統(tǒng)目前采用的AI推薦算法眾多,所以我們?cè)O(shè)計(jì)了一個(gè)推薦系統(tǒng)外的解釋系統(tǒng)或算法,用于對(duì)推薦系統(tǒng)進(jìn)行解釋或直接作為一個(gè)整體對(duì)外提供具有解釋性質(zhì)的推薦。
其核心算法是采用知識(shí)圖譜與強(qiáng)化學(xué)習(xí)的技術(shù),充分挖掘推薦系統(tǒng)中的可解釋模型,以此進(jìn)行相關(guān)的路徑挖掘,并利用解釋路徑對(duì)推薦系統(tǒng)行為加以解釋。
這里我們采用一九年一個(gè)公開(kāi)的購(gòu)物網(wǎng)站公布數(shù)據(jù)進(jìn)行結(jié)果演示,在利用上述算法完成解釋系統(tǒng)后,對(duì)數(shù)據(jù)集進(jìn)行路徑挖掘,得到左圖所示的結(jié)論。
基于上述深層的推理路徑,對(duì)推薦系統(tǒng)的多個(gè)推薦實(shí)例進(jìn)行解釋。結(jié)果表明,方法不僅能夠幫助推薦系統(tǒng)獲得有希望的推薦結(jié)果,而且能夠有效為推薦系統(tǒng)找到不同的用于推薦解釋的推理路徑。
之后,我們分別將未加入和加入這一解釋算法的推薦系統(tǒng),按照前一章節(jié)設(shè)計(jì)的流程進(jìn)行算法評(píng)估。結(jié)果表明,融入解釋算法后的推薦系統(tǒng),在透明度上有明顯提升,但監(jiān)管方也注意到,新的具有解釋性質(zhì)的推薦系統(tǒng),在技術(shù)和社會(huì)風(fēng)險(xiǎn)上處理方法上有缺,要求對(duì)當(dāng)前算法做進(jìn)一步改進(jìn),并對(duì)提交的材料進(jìn)行補(bǔ)充。
感謝各位的聆聽(tīng)!以上就是我們小組要匯報(bào)的全部?jī)?nèi)容。
編輯整理:陳龍關(guān)鍵詞: 推薦系統(tǒng) 結(jié)果表明
品牌