新聞專題 > 節(jié)會(huì)類 > 正文

拒絕“刻板印象”,算法的透明化何以成為可能?

2019-07-03 22:10 責(zé)任編輯:王勇 來源:騰訊體育
分享到:

關(guān)鍵詞算法

信息智能推薦算法是人工智能技術(shù)在信息傳播領(lǐng)域的應(yīng)用,它極大地提高了信息的生產(chǎn)和傳播效率,帶來了傳播方式和傳播活動(dòng)的深刻變革,同時(shí)也引發(fā)了監(jiān)管部門和用戶對(duì)這一新技術(shù)運(yùn)用中出現(xiàn)的算法黑箱和信息繭房風(fēng)險(xiǎn)等多方面的關(guān)切和疑慮。

算法黑箱,難道是潘多拉的盒子?我們?nèi)绾螌?shí)現(xiàn)算法的透明化?

學(xué)界進(jìn)行了持續(xù)研究分析,互聯(lián)網(wǎng)信息平臺(tái)不斷探索問題的解決和風(fēng)險(xiǎn)的防控,推動(dòng)智能推薦技術(shù)的優(yōu)化創(chuàng)新,以期把握算法的特點(diǎn)、價(jià)值和規(guī)律,促進(jìn)人工智能時(shí)代信息傳播的健康發(fā)展、安全發(fā)展。

《社會(huì)科學(xué)報(bào)》于近期推送字節(jié)跳動(dòng)公共政策研究院“算法促進(jìn)人工智能時(shí)代的信息傳播”系列三講,這是第二篇。歡迎各位讀者持續(xù)關(guān)注!

第一篇在這:算法,信息時(shí)代社會(huì)價(jià)值弱化的罪魁?

原文:《算法促進(jìn)人工智能時(shí)代的信息傳播》

作者 |字節(jié)跳動(dòng)公共政策研究院袁祥王一

圖片 |網(wǎng)絡(luò)

防范算法黑箱的潛在風(fēng)險(xiǎn),促進(jìn)透明化

▌算法黑箱有哪些潛在風(fēng)險(xiǎn)?

基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),將抓取的數(shù)據(jù)分為數(shù)以千萬計(jì)的變量來自動(dòng)加權(quán)計(jì)算,并輸出結(jié)果,對(duì)于其中極其復(fù)雜的計(jì)算過程,人們依據(jù)現(xiàn)有的科學(xué)知識(shí)和原理難以理解。因此,一些信息智能推薦算法也可能產(chǎn)生算法黑箱問題,這是信息傳播領(lǐng)域的新現(xiàn)象。由深度學(xué)習(xí)自動(dòng)生成的算法,不但對(duì)廣大普通用戶來說其中的很多細(xì)節(jié)難以理解,就是對(duì)專業(yè)的技術(shù)人員也難以分析和解釋。

由于智能算法的不透明性,加之其實(shí)時(shí)動(dòng)態(tài)的變化,可能使其在產(chǎn)生問題時(shí)難以及時(shí)被發(fā)現(xiàn)和監(jiān)督,而算法來自于社會(huì)上大數(shù)據(jù)的訓(xùn)練,機(jī)器很容易習(xí)得既有的偏見,甚至滋生對(duì)輸出結(jié)果的惡意利用,將負(fù)面的效應(yīng)放大。特別是類型化、標(biāo)簽化是算法設(shè)計(jì)中的一個(gè)重要思想,在“人以群分”中就很容易固化社會(huì)偏見,如基于性別、種族、年齡對(duì)職業(yè)發(fā)展能力、犯罪概率做出預(yù)測(cè),經(jīng)由算法對(duì)社會(huì)“刻板印象”的清晰化和固化,就很容易對(duì)群體中的個(gè)體作出誤判和傷害。

例如,一些社交網(wǎng)絡(luò)為了減少對(duì)用戶體驗(yàn)的干擾,在一定階段內(nèi)對(duì)信息流廣告的數(shù)量有所控制,在一定時(shí)期內(nèi)只選取比較高端的廣告品牌,并基于智能算法的分析只對(duì)高端用戶定推,這一做法還一度在網(wǎng)上成為網(wǎng)民的討論熱點(diǎn),能看到推送廣告的以自己“高端”而自得,沒看到廣告的自嘲自己是“低端用戶”,還有自認(rèn)為是高端用戶的人抱怨為什么沒有看到廣告推送。

這雖然只是網(wǎng)民的自我調(diào)侃,但也反映了推薦算法的分類思想可能帶來的一些偏差。相比之下,基于算法的差別化定價(jià)就是一種價(jià)格歧視,這不限于實(shí)物商品,在信息付費(fèi)、知識(shí)付費(fèi)的時(shí)代,推薦算法對(duì)內(nèi)容產(chǎn)品的歧視性定價(jià)也可能發(fā)生。

▌算法透明化何以可能?

人們擁有著對(duì)“可解釋性”的追求,歐盟《一般數(shù)據(jù)保護(hù)條例》就規(guī)定消費(fèi)者有對(duì)自動(dòng)化決策的“解釋權(quán)”,在某些條件下有權(quán)利不接受完全由人工智能自動(dòng)化系統(tǒng)做出的重大決定。難點(diǎn)是如何在現(xiàn)實(shí)場(chǎng)景中科學(xué)有效地實(shí)現(xiàn)。

算法透明化作為一種可選方式被寄予希望,從當(dāng)前國(guó)內(nèi)外的實(shí)踐看,算法原理的透明化比程序代碼的透明化更切實(shí)可行。智能生成的算法代碼復(fù)雜難懂并動(dòng)態(tài)變化,一般認(rèn)為,公布后無助于消除社會(huì)的擔(dān)憂,副作用卻很明顯,如涉及企業(yè)的核心商業(yè)機(jī)密、損害企業(yè)知識(shí)產(chǎn)權(quán),代碼可能被別有用心的人利用,開展危害社會(huì)和企業(yè)安全的活動(dòng)。

而算法原理透明化不糾纏于代碼這一過程性的中間環(huán)節(jié),體現(xiàn)了目標(biāo)管理和結(jié)果導(dǎo)向的思想。雖然黑箱問題在信息傳播領(lǐng)域是新現(xiàn)象,但在其他領(lǐng)域古已有之。我國(guó)傳統(tǒng)的中醫(yī)診治和中醫(yī)藥就是典型的黑箱現(xiàn)象,古時(shí)候的大夫并不了解人體器官的內(nèi)部細(xì)節(jié),也不了解中草藥的化學(xué)成分和分子結(jié)構(gòu),但仍可通過自身的“望聞問切”和不同藥材的搭配,達(dá)到治病救人的目的。

防范算法黑箱的潛在風(fēng)險(xiǎn),促進(jìn)算法的透明化,需要目標(biāo)設(shè)定的公平正義和公開透明,算法原理科學(xué)以實(shí)現(xiàn)正確的目標(biāo),在有人工訓(xùn)練的情況下,在社會(huì)價(jià)值指引下正確選取指標(biāo)和行為特征,避免產(chǎn)生系統(tǒng)性偏見和歧視。對(duì)算法的輸出結(jié)果要形成信息平臺(tái)、用戶、新聞媒體、專業(yè)機(jī)構(gòu)、政府等內(nèi)外部的監(jiān)測(cè)體系,及時(shí)發(fā)現(xiàn)偏差并對(duì)算法進(jìn)行優(yōu)化改進(jìn),防止算法輸出落入“自證正確”的錯(cuò)誤循環(huán)。同時(shí),對(duì)算法黑箱問題也可用人工智能輔助分析等方式來探索,在這方面國(guó)外已有一些研究和嘗試,我們可以借鑒。


我要爆料 免責(zé)聲明 責(zé)任編輯:王勇
分享到:
? 青島新聞網(wǎng)版權(quán)所有 青島新聞網(wǎng)簡(jiǎn)介法律顧問維權(quán)指引會(huì)員注冊(cè)營(yíng)銷服務(wù)郵箱