5月1日,美國總統(tǒng)行政辦公室以國家科學與技術顧問委員會(PCAST)的研究為基礎,向奧巴馬提交了一份名為《大數(shù)據(jù):把握機遇,維護價值》(Big Data: Seizing Opportunities, Preserving Values)的報告。核心觀點是:公共和私人部門可以利用大數(shù)據(jù)技術最大限度地獲取利益、減少風險;雖然大數(shù)據(jù)無疑增加了政府權(quán)力規(guī)避制約的可能,但也內(nèi)含了降低這一風險的方案,增強政府的問責性,保護隱私與公民權(quán)利。
該報告共分六個部分,在第五部分“邁向大數(shù)據(jù)的政策框架”中,尤其關注了大數(shù)據(jù)與公民、消費者、隱私權(quán)、隱性歧視之間存在的緊張關系。報告人著重指出,大數(shù)據(jù)可以創(chuàng)造巨大的社會利益,但是也可能引起多種有形或無形的危害。這類危害不止是侵犯隱私權(quán)那么簡單,甚至會造成對個人或群體的歧視。這一歧視可以是大數(shù)據(jù)在模型建構(gòu)和使用方法上的無意結(jié)果,也可以是對弱勢階層的蓄意犧牲。不難看出,前者可以通過相對簡單的技術辦法加以解決。比如設計一個智能手機的應用程序,通過搜集用戶反饋的海量信息,為城市管理提供基礎數(shù)據(jù)。這個程序雖然明顯忽略了相當數(shù)量的非智能手機用戶(如老人與窮人)的需求,但是可以有意識地通過其他社會調(diào)查方法加以彌補。與此相比,蓄意歧視顯然需要得到更加嚴肅的對待。
就美國的社會立法而言,在關乎社會公平的特定領域內(nèi),如就業(yè)、信貸、醫(yī)療、教育,法律均要求用于預測算法的個人數(shù)據(jù)和最終決策具有相當程度的透明性,并配合以補救性的校正手段。事實上,之所以存在這些保護措施,反倒是因為歧視在美國歷史上從不少見。20世紀早期,銀行就在使用個人居住信息來甄選客戶。直到1975年《房屋貸款披露法案》頒布之前,是否給予某人貸款還取決于他所居住的區(qū)域而非個人的信貸能力。銀行用“劃紅線”(redlining)的方式標示此前無貸款且此后也不貸款的區(qū)域。這個手法一用幾十年,成了歧視非裔美國人、拉丁裔、亞裔和猶太人的應手工具。有類于此,計算機算法和在線數(shù)據(jù)匯總一旦被用于確定公民的人口學特征,就有可能形成系統(tǒng)性歧視。例如,劃出一條“數(shù)字紅線”,排斥對使用者而言并非必要的特定群體,無論是客戶、員工、租賃者,還是借貸人。
報告人提醒聯(lián)邦政府,必須關注大數(shù)據(jù)有可能造成有悖國家法律和社會價值的歧視。因此,公共政策與信息技術的進一步結(jié)合要想具備正當性,首先需要解決一個問題:如何才能更好地檢測、計量、糾正那些由自動化決策產(chǎn)生出的歧視性影響。報告認為,大數(shù)據(jù)技術既可以導致歧視,也可以用來支持公民自由。聯(lián)邦政府中涉及公民權(quán)利的機構(gòu)必須能夠辨別出源自大數(shù)據(jù)分析、又不利于被保護階層的行為與結(jié)果,進而發(fā)展出一整套方案,用以調(diào)查并解決相關案件中的違法現(xiàn)象。評價過程中,各機構(gòu)應當考慮到數(shù)據(jù)的層級、信息匯總的語境、信息所針對的人口群體,以及相關群體的立法期待。政府部門應與公民權(quán)利組織一起,使用大數(shù)據(jù)工具來確保弱勢群體能夠得到平等的對待。
不難發(fā)現(xiàn),該報告努力將美國聯(lián)邦政府的角色設定為不同利益群體之間的調(diào)和者,將大數(shù)據(jù)技術可能導致的政治問題轉(zhuǎn)化成一系列可操作的技術流程。不妨提及,4月23日至24日,巴西圣保羅召開全球互聯(lián)網(wǎng)治理大會。各國代表就反抗網(wǎng)絡霸權(quán)、加強網(wǎng)絡治理等議題形成集中討論,從而不可避免地聚焦于自去年以來持續(xù)發(fā)酵的“棱鏡門”事件,以此為出發(fā)點檢討網(wǎng)絡治理與公民權(quán)利的關系。而這顯然是上述報告并沒有回答、也不希望回答的問題。? (文/木懷琴)