關鍵詞算法
信息智能推薦算法是人工智能技術在信息傳播領域的應用,它極大地提高了信息的生產和傳播效率,帶來了傳播方式和傳播活動的深刻變革,同時也引發(fā)了監(jiān)管部門和用戶對這一新技術運用中出現的算法黑箱和信息繭房風險等多方面的關切和疑慮。
算法黑箱,難道是潘多拉的盒子?我們如何實現算法的透明化?
學界進行了持續(xù)研究分析,互聯網信息平臺不斷探索問題的解決和風險的防控,推動智能推薦技術的優(yōu)化創(chuàng)新,以期把握算法的特點、價值和規(guī)律,促進人工智能時代信息傳播的健康發(fā)展、安全發(fā)展。
《社會科學報》于近期推送字節(jié)跳動公共政策研究院“算法促進人工智能時代的信息傳播”系列三講,這是第二篇。歡迎各位讀者持續(xù)關注!
第一篇在這:算法,信息時代社會價值弱化的罪魁?
原文:《算法促進人工智能時代的信息傳播》
作者 |字節(jié)跳動公共政策研究院袁祥王一
圖片 |網絡
防范算法黑箱的潛在風險,促進透明化
▌算法黑箱有哪些潛在風險?
基于神經網絡的深度學習,將抓取的數據分為數以千萬計的變量來自動加權計算,并輸出結果,對于其中極其復雜的計算過程,人們依據現有的科學知識和原理難以理解。因此,一些信息智能推薦算法也可能產生算法黑箱問題,這是信息傳播領域的新現象。由深度學習自動生成的算法,不但對廣大普通用戶來說其中的很多細節(jié)難以理解,就是對專業(yè)的技術人員也難以分析和解釋。
由于智能算法的不透明性,加之其實時動態(tài)的變化,可能使其在產生問題時難以及時被發(fā)現和監(jiān)督,而算法來自于社會上大數據的訓練,機器很容易習得既有的偏見,甚至滋生對輸出結果的惡意利用,將負面的效應放大。特別是類型化、標簽化是算法設計中的一個重要思想,在“人以群分”中就很容易固化社會偏見,如基于性別、種族、年齡對職業(yè)發(fā)展能力、犯罪概率做出預測,經由算法對社會“刻板印象”的清晰化和固化,就很容易對群體中的個體作出誤判和傷害。
例如,一些社交網絡為了減少對用戶體驗的干擾,在一定階段內對信息流廣告的數量有所控制,在一定時期內只選取比較高端的廣告品牌,并基于智能算法的分析只對高端用戶定推,這一做法還一度在網上成為網民的討論熱點,能看到推送廣告的以自己“高端”而自得,沒看到廣告的自嘲自己是“低端用戶”,還有自認為是高端用戶的人抱怨為什么沒有看到廣告推送。
這雖然只是網民的自我調侃,但也反映了推薦算法的分類思想可能帶來的一些偏差。相比之下,基于算法的差別化定價就是一種價格歧視,這不限于實物商品,在信息付費、知識付費的時代,推薦算法對內容產品的歧視性定價也可能發(fā)生。
▌算法透明化何以可能?
人們擁有著對“可解釋性”的追求,歐盟《一般數據保護條例》就規(guī)定消費者有對自動化決策的“解釋權”,在某些條件下有權利不接受完全由人工智能自動化系統(tǒng)做出的重大決定。難點是如何在現實場景中科學有效地實現。
算法透明化作為一種可選方式被寄予希望,從當前國內外的實踐看,算法原理的透明化比程序代碼的透明化更切實可行。智能生成的算法代碼復雜難懂并動態(tài)變化,一般認為,公布后無助于消除社會的擔憂,副作用卻很明顯,如涉及企業(yè)的核心商業(yè)機密、損害企業(yè)知識產權,代碼可能被別有用心的人利用,開展危害社會和企業(yè)安全的活動。
而算法原理透明化不糾纏于代碼這一過程性的中間環(huán)節(jié),體現了目標管理和結果導向的思想。雖然黑箱問題在信息傳播領域是新現象,但在其他領域古已有之。我國傳統(tǒng)的中醫(yī)診治和中醫(yī)藥就是典型的黑箱現象,古時候的大夫并不了解人體器官的內部細節(jié),也不了解中草藥的化學成分和分子結構,但仍可通過自身的“望聞問切”和不同藥材的搭配,達到治病救人的目的。
防范算法黑箱的潛在風險,促進算法的透明化,需要目標設定的公平正義和公開透明,算法原理科學以實現正確的目標,在有人工訓練的情況下,在社會價值指引下正確選取指標和行為特征,避免產生系統(tǒng)性偏見和歧視。對算法的輸出結果要形成信息平臺、用戶、新聞媒體、專業(yè)機構、政府等內外部的監(jiān)測體系,及時發(fā)現偏差并對算法進行優(yōu)化改進,防止算法輸出落入“自證正確”的錯誤循環(huán)。同時,對算法黑箱問題也可用人工智能輔助分析等方式來探索,在這方面國外已有一些研究和嘗試,我們可以借鑒。