search
邱仁宗:大數據技術的倫理問題

邱仁宗:大數據技術的倫理問題

作者:邱仁宗 黃雯 翟曉梅

摘要

本文探討了大數據技術的創新、研發和應用中的倫理問題。文章首先指出,大數據技術是雙刃劍,這種技術的創新給億萬個人、商業以及社會帶來巨大受益,但同時也引起風險。我們需要鑒定風險,仔細地和合適地平衡創新的受益與風險。文章接著探討了與信息通訊技術及大數據技術有關的數字身份、隱私、可及、安全和安保、數字裂溝等倫理問題,並討論了解決這些倫理問題的進路。最後,文章建議引入倫理治理概念,指出大數據的順利推廣應用要求我們制訂評價在大數據方面所採取行動的倫理框架,即倫理原則,為制訂行為準則、管理和立法建立一個倫理學基礎。

關鍵詞

大數據,風險,數字身份,隱私,可及,安全,安保,數字裂溝,倫理治理

前言

目前流行的稱之為「大數據」這種現象基於傳統的資料庫技術與新的數據儲存和處理技術之間的諸多區別。大數據的數據量太大不能用傳統資料庫系統(如結構化查詢語言,Structured Query Language,簡稱SQL)來處理和分析。2004年沃爾瑪特公司聲稱擁有世界上最大的資料庫,達500TB(1TB=1024GB);2009年eBay公司儲存的信息達8TB;兩年後雅虎儲存的數據量達170PB(1PB=1048576GB)。數據量大隻是大數據技術一個方面。由於可得的信息量(volume)、信息的多樣性(variety)以及速度(velocity)呈幾何級數增長,增加了要處理的信息的複雜性,這些因素產生了以前沒有遇到過的問題。2009年全世界儲存的信息總計是0.8ZB,等於8000億GB(1ZB=1萬億GB),到2020年全球儲存的信息將達35ZB(國際數據公司預測)。到2025年人們預測互聯網將超過生活在整個地球上的所有人腦的容量。另外輸入源和所生成的數據類型隨著新技術的產生而迅速擴展。更重要的是,隨著輸入源數目以及格式的多樣性的增加,數據生成、獲取、分析、處理以及輸出呈幾何級數增長。全世界90%的數據是最近兩年內產生的。這種大數據革命驅動我們在處理複雜事件、捕獲在線數據、研發更佳產品、提供更佳服務,以及做出更佳決策方面的能力發生巨大的進步。(Rayport 2011;Davies 2012 4-5)大數據技術會提出一些我們應該做什麼以及我們應該如何做的問題,前者我們稱之為實質倫理問題,後者稱之為程序倫理問題。本文試圖鑑定這些倫理問題以及提出一些解決這些問題的進路。

2012年2月16日《紐約時報》發表一篇文章,報道Target公司有一個分析項目,可確定一位顧客何時懷孕,並將購買與妊娠有關的物品的優惠券送給其中一位少女,該少女父親得知后非常惱怒,痛罵該公司經理。Target公司是通過鑒定購物模式來確定某一顧客懷孕,然後將優惠券送給她,然而這種挖掘數據的做法引起人們憤怒,因為它泄露了非常私密的信息。(Reglian 2012, Wolken 2013)美國國土安全局廣泛監控、竊取和收集本國公民、外國公民以及外國領導人的巨量信息。單單是每天收集的全世界公民的手機簡訊信息就近2億條。2014年1月19日《華盛頓郵報》網站報道,2005年該局將一位來自馬來西亞的斯坦福大學女博士生列入禁飛恐怖主義監控名單,使她蒙受不白之冤達9年之久。最近聯邦法官裁決,該局應糾正錯誤,給與賠償。向財富500強前50名公司調查其對公眾的政策,內容包括:是否未經同意出賣數據;是否利用有目標的廣告;顧客對利用他們的信息有多少控制;是否從其他機構購買數據;數據是否是與他人分享的還是匯總的;並陳說政策的理由。

結果如下:

(1)50家公司中40家表示公司不與第三方服務商(如供應商和運貨商)分享數據。餘下10家,8家沒有回答,2家說公司不與他人分享個人數據,即使是第三方服務提供者也不與之分享。

(2)50家公司中34家明確地說,未經同意公司不出賣個人數據。沒有一家公司明確地說公司出賣個人數據。

(3)50家公司中11家說,公司會從第三方那裡購買或用其他方法「獲得」個人數據。沒有一家公司說公司不購買個人數據。

(4)50 家公司中23家說,公司不在第三方網站上做有目標的廣告。其餘的只有一家說他們排除做有目標的廣告,26家什麼也沒有說。

(5)50家公司中有33家說,使用者在例如有目標的廣告等事情上有可能控制他或她數據的使用。其中31家說使用者可以選擇拒絕(opt-out.),並介紹了選擇拒絕的方式。調查結果說明了如下問題:沒有一家明確地說,公司出賣個人數據。反之,超過半數(34/50)的公司說,未經同意不會出賣個人數據。也沒有一家公司明確地說公司不會購買個人數據。反之,11/50公司披露他們購買第三方提供的數據。但這些公司是否進行了核查以確定,他們購買的數據是經過數據所有者的同意而擴散的嗎?出賣個人數據與購買個人數據之間是否具有道德意義上的區別?

平衡大數據技術的受益與風險

大數據技術提升人們以信息以及創新產品和服務促進商業利益和社會利益的能力,與所有技術一樣它本身無所謂「好」「壞」,因此我們說它本身在倫理學上是中性的。然而使用它的個人、公司、機構有價值觀念,他們有不同的目的、動機、他們所看重的方面(即價值),以及它被應用后產生的後果對個人、公司、機構以至社會可能有積極或消極的影響。不過,值得注意的是,大數據技術具有一種強制性功能,通過其產生或處理巨量、高速、多樣的數據,以及從而產生的產品設計、研發、銷售和管理行動(個體化的產品和服務),推動公司或機構進一步、更完全地進入個人的生活,擴展對個人生活的影響,甚至改變像身份、隱私等術語的普通意義,並且改變我們的社會、經濟、政治和文化的生活。而且,與所有新技術一樣,大數據技術也具有意料以外的後果的風險。斯諾登對美國政府對本國公民、外國公民及其領導人的大規模監控的揭發,不僅使人們清楚地看到美國政府對本國和外國人民人權肆無忌憚的侵犯,同時也使他們關切信息通訊技術和大數據技術的可能濫用,例如人們警惕商家利用大數據將顧客作為目標,試圖描繪他們的輪廓,獲得、儲存和使用顧客的屬性、行為、愛好、關係和地點的大量數據,侵犯他們的私人生活;人們關切政府非法收集有關它們公民的數據而濫用大數據技術;大數據具有公司和社會從未經驗過的持久性,從2006年起美國國會圖書館就將所有推特信息歸檔,Facebook承認刪除你的賬戶不會刪除與你的賬戶相關聯的數據,你的個人信息持久存在某處,你又不能加以控制,這意味著你的個人信息被誤用或濫用的可能性持續存在;大數據技術可能引起的風險的類型、規模和影響難以事先判定;人們預計到2016年25%利用顧客數據的機構將會由於不適當地理解信息信任問題而遭受聲譽損失,20%的公司主要信息官員將會由於未能遵守信息治理紀律而失去工作。(Buytendijkand Heiser 2013)因此,在倫理學上我們要做的第一件事是鑒定大數據技術可能引起的風險。美國國家科學基金會(NFS)支持研究人員和學術界人士成立了「大數據、倫理學與社會理事會」(Council on Big data, Ethics and Society),NSF工作人員Fen Zhao指出,其任務是促進宏觀的對話來幫助更多的人了解大數據可能引起的風險;並促使執行官和工程師思考他們改善產品和增加營業收入的同時避免涉及隱私以及其他棘手問題的災難。(Novet 2013)可鑒定出哪些風險呢?

風險1:匿名化和數據屏蔽也許不可能。有用的資料庫不可能完全匿名,完全匿名使提供產品和服務成為不可能。數十年來,信息安保研究人員已經知道即使敏感性低的數據,當把它們相關聯起來,往往能夠產生一組具有高度重要意義的數據,比原始數據集更為重要。這稱之為「身份重新標識」(reidentification)。這種重新標識可被人利用進行惡意的「推論攻擊」(Infereneattack),即為了不正當地獲得某人的材料通過分析數據而實行的一種數據挖據技術,類似所說的「人肉搜素」。在美國只需三個身份標識符(triple identifier),即生日、性別和郵政編碼,就可通過公共可得資料庫搜索出至少87%美國公民。身份重新標識可導致有傷害的結果,如泄露醫療記錄、個人習慣、財務狀況以及家庭關係這些私密信息,就可能被人利用、假冒、詐騙。

風險2:他人的可能侵入。許多消費者毫不經心地使用社交媒體或互聯網服務,無意中允許他人使用信息。例如在維特上公開自己在度假或全家登記入某個酒店,顯示你不在家;許多消費者從不讀「terms and conditions」(條款和條件);收到促銷消息,就馬上提供個人信息。即使消費者同意提供信息后也許沒有法律問題,但如果消費者感到他們的信任受到破壞,對公司仍然有聲譽的風險。消費者信任你做什麼,不一定等於做的事情在法律上都是被允許的。風險3:很容易將模式錯當實際。在美國,大規模槍擊事件使人們試圖判定哪些人很可能因暴力衝動而付諸行動。在Facebook和其他社交媒體上獲得一些人的線索,據此確定他們的行為模式很可能是下一個受害者的兇手。可是有這種行為模式的人不一定在未來真採取行動。又如美國政府已經在挖掘現金交易的數據,以推論恐怖分子以及其他有組織犯罪分子的活動。警察利用先進的預報性分析技術來預測在某些日子或那天的某些時候某些區域犯罪率較高的可能性,街頭監控攝像機與分析軟體相鏈接,這些軟體就是設計來發現有麻煩的行為模式。這樣做,很容易導致非法的「審前盤問」(fishing expeditions),權力機構進行大規模的分析測試,符合某種模式的任何人就成為犯罪嫌疑人。這樣做就可能產生違反憲法規定的無罪推定問題。在商業方面也是如此:一個人的行為模式不一定就是他要採取的行為。模式是根據過去行為確定的,不能完全決定未來的實際行為。這裡也涉及決定論與自由意志、過去與未來關係等哲學問題。風險4:數據成為現實本身。在商業方面,也會發生非意料之中的行為影響。基於先進的分析技術,零售商提供顧客個體化的商品服務。顧客面對網上和街頭零售商無數的選擇,又缺乏比較的能力,顧客很可能歡迎這種商品服務。接受這種商品服務后,公司認為對顧客的需求和狀況更了解了,導致更有目標的商品服務,更多的交易。這樣形成了一條閉合環路,通過這條環路,是對客戶狀況的描述以及相連的分析技術驅動顧客的行為,而不是相反。這在商業上是一件有意義的事情,但在倫理學上是有爭論的:這是顧客真正的需求,還是技術推動的需求?

風險5:可能有不知道的負面後果。大數據分析技術的特點是使用自動發現技術,呈現有潛在意義的數據群集和組合。,這是處理巨量、高速、多種信息的強有力工具,但也是具有潛在的危險性。例如根據這些數據將顧客加以區分和了解他們的狀況,很容易導致基於年齡、性別、族群、健康狀況社會背景等的歧視。(Buytendijk and Heiser 2013)這些鑒定出來的風險是初步的,也許我們可檢出大數據技術可能引起的更多的風險。

大數據技術中的倫理問題我們認為信息通訊技術和大數據技術的一些比較根本性的倫理問題有:是否應該保護個人的數字身份?在大數據時代是否仍然應該保護個人的隱私,為使用者、消費者或顧客保護其個人的信息?是否應該保護個人信息可及的權利?在什麼條件下網路或通訊的審查和管制可得到倫理學的辯護?在什麼條件下通過網路或通訊對個人實行監控以確保公共安全和安保在倫理學上可得到辯護?是否應該努力縮小或消除數字裂溝?我們還可以提出其他倫理問題,例如是否應該保護網路上的知識產權以及應該如何保護,由於篇幅關係,這個問題以及其他倫理問題只能割愛。數字身份(Digital Identity)數字身份是在網路空間領域流行的概念,被定義為一組獨一無二地描述一個人(有時指稱主體subject或實體entity)的數據,是有關一個人的所有在數字上可得的信息的總和。(Kinderlere et al. 2012)

identity)是界定一個人是誰或是什麼的一個特徵或屬性集,被認可為獨一無二地屬於那個人。在現實生活中判定身份,使用一套組合的技術。身份有社會身份(同伴、家庭和朋友)、法律身份(出生證、駕駛執照)以及物理身份(DNA、外觀)。數字身份是在線使用的身份,所以又稱「在線身份」(online identity),是在現實生活中界定一個人的特徵子集,是特徵和屬性數字編碼以適合於計算機系統處理的結果。當從事在線活動時數字身份代表那個特定的人,能為電子技術手段可及。與實際生活的身份不同,數字身份可從與那個人的任何特定屬性或特徵無關的一個簡單的用戶名/密碼組合,到來自官方證書的敏感的和有個人身份標識的信息的組合。數據身份引起一些問題。首先,一個人可有不止一個有效的數據身份,其特徵可根據使用的情境、應用的目的或所獲服務種類而有不同,例如一個人為了獲得某種服務提供的數字身份含有護照號、駕駛執照等信息;而在線交友時可提供完全不同的數字身份。其次,在網路世界中數字身份不是固定而是流動的,它可隨時間流逝而變化,因此例如郵寄地址或電話號碼需要定期查驗。因此,數字身份不一定是唯一的、靜態的或永久的。還可能有這樣的情況,有人使用的是假身份,或者選擇匿名。因此數字身份是非常多樣化的。由於這些情況,有人界定數字身份為「在在線環境發展起來的,可通過電子或計算機裝置或系統可及、使用、儲存、轉移或處理的身份。」(ICBCEM 2011)

「可信的」名字。因此在人們活動期間留下的數字痕迹要求雙方對他人的隱私、財產或尊嚴信任、關懷和尊重。雖然商業方面的數字身份現在正在受到管理,但需要解決更為廣泛的用以識別身份的身份(identity-as-identification)問題,例如在網路、遊戲中使用「假身份」。

數字身份具有重要的商業價值,數據身份對整個經濟是至關重要的。無論是全世界在其他國家,還是在,網民人數每年都以令人驚異的速度增加。1996年網民僅有27萬,2008年達到2.63億,2011年達到4.2億,2013年6月為5.91億。(互聯網研究中心 2013)這種迅速增長的態勢說明了個人對網路的迫切需要,同時我們也看到利用數字身份的經濟在全世界和迅猛發展。從宏觀經濟視角看,歐洲傳統工業從2008年到2011年縮小了3.6%,但利用數據身份的企業則年增長率為15%(電子經濟)和100%(web2.0社區)。通過數據身份創造的價值可能是非常巨大的,擁有22%的年增長率,到2020年應用個人數據可為歐洲提供3300億歐元的年經濟效益。個人受益更大,消費者所獲的價值在2020年將達6700億歐元。數據身份的總價值可能為歐盟27國GDP的8%。(BCG 2012)

圍繞數字身份存在兩個問題。

其一是身份盜用(identity theft)的事件層出不窮。由於互聯網上私人信息的可得性,身份盜用(identity theft)事件迅速上升。例如2002年700萬美國人的身份被盜用,2012年被盜用身份人數達1200萬,成為美國發展最為迅速的犯罪行為。公共記錄搜索引擎和資料庫是網路犯罪的元兇。2011年4月索尼的遊戲機網路被侵入,不僅造成一些用戶的賬戶被盜用,而且多達7700萬用戶的個人可辨識身份的信息被盜,情況是如此嚴重致使整個服務關閉了24天,索尼因此損失140億日元,約128萬歐元。(Kinderlere et al. 2012;BCG 2012)根據Symantec公司2009年報告,全球電子郵件中垃圾郵件佔86%,許多垃圾郵件的目的就是要榨取個人細節,以便進行身份盜用,這種做法稱為「網路釣魚」(phishing)。(Gillies 2012)

其二,在可得數據及處理數據能力的幾何級數的增長驅動下,數字身份越來越可追溯。1993年7月5日美國《紐約人》(The New Yorker)雜誌發表了一幅漫畫,其中一隻在鍵盤上操作的狗對另一隻狗說:「在互聯網上誰也不知道你是一隻狗。」(Steiner 1993)那時確實如此。但在大數據時代就不然了:人們不僅有可能知道你是一隻狗,而且能知道你的品種,你喜歡吃的零食,你的家系,以及你在狗展上是否獲過獎。這裡提出的問題是:大數據技術能夠根據你網路上的數字身份提供的一些信息追溯到你的現實生活中的實際身份,技術上有可能做是否在倫理學上都應該做?如果有人利用大數據技術任意去追溯個人的實際身份,那麼人們就會說,大數據不僅是增長的驅動者,還可能是使用者/消費者的禍害者。如果不加以管理,許多人可能會為了保護自己,提供更多的虛假信息,或者乾脆退出在線世界或網路空間。根據有關數字身份的這兩個問題,就提出了保護數字身份和數字身份管理的公共政策問題(ICECOM 2011)。有人估計,如果不能很好解決這個問題,則潛在價值生成的2/3(4400億歐元)將處於風險之中。(BCG 2012)然而如何以尊重隱私、使人放心以及對使用者友好的方式確保數字身份,管理好這些在線身份,仍然是一項有待於我們應對的挑戰。

隱私(Privacy)

隨著個人數據使用的增長,消費者對他們個人信息的保密的關切也隨之增長。據歐盟對3000位網路用戶所作的問卷調查發現,88%在線的人覺得至少有一家公司對他們的隱私造成危險。但這種關切並未產生行為改變。大多數消費者對他們的數據究竟發生了什麼沒有絲毫概念,僅有30%的人對哪些部門在搜集和利用他們的信息有一個比較全面的理解。

隱私是將他人排除在知悉某人的信息或數據的某些方面之外。隱私概念僅適用於有可能發生人際互動關係的領域,在沒有人跡的荒蕪小島,不存在隱私問題。

有三種不同形式的隱私:

(1)軀體隱私,這是指人身體的陰私部位,不能暴露給一般外人;

(2)空間隱私,這是指與非親密關係的人保持一定的距離;

(3)信息隱私,這是指保護和控制與個人有關的信息。

有關個人的信息包括:

(1)固有特徵。這個人來自何處?他或她是誰?出生日期、性別、國籍等;

(2)獲得性特徵。這個人的歷史,例如地址、醫療記錄和購物史;

(3)個人偏好。這個人喜歡什麼?包括興趣、業餘愛好、喜歡的品牌和電視節目等。上述信息可聯繫到有身份標識或可辨識身份的人。

不同類型的數據其可身份追溯性是不同的:

(1)匿名數據。收集到的數據沒有身份標識符,從未與某個人聯繫。例如通過郵寄寄回的問卷,沒有姓名和地址。

(2)匿名化數據。以前可辨認身份的數據已經去身份標識了;任何可以將信息聯繫到特定個人(例如身份證號碼、信用卡號碼、甚至手機的系列號)已經消除,第三方處理信息時已不可能重建。

(3)假名數據。數據記錄不含明晰的身份標識,雖然有一個明確的身份標識符,但不能用來直接將信息聯繫到某個特定的個人。這能保護個人數據,因為這種身份標識符不能轉化為明確的身份鑒定。

(4)清晰的個人數據。這是最容易追溯到個人的信息,因為這種數據記錄含有明確的身份鑒定。在網路空間,尤其在大數據時代,隱私的喪失很容易發生。當進行交易和註冊登記時,個人要提供私人信息,信用卡信息、身份證號碼、電話號碼、母親婚前姓名、地址等被公司和公共機構搜集和利用,可能導致隱私的喪失。詐騙和假冒屬於因私人信息直接或間接濫用而引起的惡意活動。另外,往往會發生功能潛變(function creep)的情況,這是指獲取信息的原來目的被悄悄地、不知不覺地擴大到包括未獲得參與者知情和自願的同意。功能潛變不管是在商業上,還是在政府的監控上,都有發生。(Zhai and Qiu 2010)由於下列5種情況,在電子資料庫和互聯網上的數據隱私難以得到保護:

(1)可靠性:在開放的通訊基礎設施內數據收集者的可信賴性和勝任能力難以確保。

(2)難以管制的擴散:如果數據在外部資料庫系統內或互聯網上控制其進一步使用是有可能的。然而,一方面,數據有被出售給不法商人的威脅;另一方面,數據一旦擴散到許多不同的文檔內,很難消除甚至更改它們。

(3)數據挖掘:使用這種技術很可能把數據系統地組合起來建立一個人的詳細的、合成的輪廓。

(4)身份盜竊:惡意使用偷盜來的數字身份,進行例如信用卡欺詐,甚至用於邪惡的網站敗壞被盜人身份。

(5)惡意攻擊:現行數據管理系統無力f防備黑客的犯罪行為或信息戰中的侵略。(Heesen 2012)隱私應該放棄嗎?有一種觀點(「后隱私運動」)認為,隱私是控制應被分享的信息的一種手段,在web 2.0或大數據時代隱私已經不能得到合適地辯護,應該主動放棄隱私。然而在web 2.0或大數據時代難以保障隱私並不是放棄個人隱私必要保護的充分理由。個人隱私遭到侵犯引致多方面的損失:消費者(用戶)看到他們的個人信息被盜用,可能會退出網路空間或儘可能使用虛假信息;企業和公共機構的信任和聲譽也會遭受嚴重損失,如此等等,理應加以保護。今天是否還有必要保護個人信息的私密性也存在著趨向兩極的觀點:一種觀點認為,為實現大數據的經濟潛力,讓企業或公共機構去做它們需要做的事,個人可以不予理會;另一種觀點則認為要建立強有力的措施來保持私人信息的私密性。個人信息是數據市場的通貨。像任何通貨一樣它必須是穩定的,值得信任的。這是關鍵所在。雖然消費者關切他們數據的使用,但他們的行為表明他們願意甚至迫切讓他人分享他的一些個人信息(當他們有適當的受益回報時)。當交易和條件合適時,消費者要「花掉」他們的個人數據。對所有利益攸關者的最大挑戰是如何確立數據可信的流動。大多數消費者或用戶不知道他們的數據如何被利用,也不能夠主動進行管理和控制,而是希望他們的數字身份得到負責任的和公開的對待。在歐盟的問卷調查中,79%回答說,公司對個人數據的使用應更透明。透明性不僅有利於個人,也有利於公司和公共機構。同時在可能的情況下,數據的非原來用途的使用,應徵求消費者或用戶的同意。根據歐盟的問卷調查,69%的回答者說,對於不那麼敏感的數據,可採取opt-out(指默認用戶同意,但用戶可選擇拒絕),80%的人說,對於敏感數據,則應採取opt-in(指默認用戶不同意,要使用必須主動獲取他們同意)。(Kinderlerer 2012, BCG 2012)可信的、可持續的數據流動需要建立一個評價使用數據的框架,這種框架有兩個關鍵的層面:數據收集的方法和數據利用的方式。用戶要對讓他人分享信息所獲價值與所付代價進行權衡。數字身份提供的機會是巨大的,但如果不能以深思熟慮的、平衡的方式處理數據的利用,失去的機會也巨大。為此企業和公共機構要告訴消費者或用戶個人數據如何使用和如何保護隱私。

確保可持續的數據流動有三個基本要素:

(1)消費者的受益必須超過分享數據需付出的代價;

(2)對於數據如何使用必須有透明性;

(3)個人隱私能得到保護。(Kinderlerer2012, BCG 2012)

Access)

Google,使得研究人員大為苦惱。在法國和美國,則政府有屏蔽和濾除種族主義和反猶太人的網站的工程。

prima facie)權利,即設條件不變時應該尊重、保護和實施公民的網路信息可及權利,如果有一項更為重要的公民權利,例如公民人身安全的權利與之相衝突,或有重大的公共利益(例如保障國家或社會的安全)與之相衝突,可以暫停或限制公民的信息可及權利。但暫停或限制公民的信息可及權,必須有充分的理由,對公民的這種權利的侵犯必須是最小程度的,侵犯的範圍、程度和時間必須與所得的效用(例如國家安全得到保障)相稱。因此,國家層次的審查、濾除、屏蔽行為也提出重要的倫理問題,即在什麼條件下審查、濾除、屏蔽某些網站和內容可得到倫理學的辯護?如何評價審查、濾除和屏蔽所得和所失?多大的利弊得失比可讓我們採取這種行動?拿屏蔽Google來說,Google已經成為自然科學、社會科學、人文學科研究資料的來源,例如人類基因組研究計劃的數據就在發表在Google網站上(的「百度」至今無法匹敵),如果完全屏蔽它,會給我們的工作帶來多大的損失?這是我們在管理網路時必須考慮的。

一方面是如何確保使用者信息可及的正當權利,另一方面如何防止不當可及(inappropriate access),這包括垃圾郵件、網路色情材料、網上兜售藥品等十分嚴重的問題,引起各國政府的關注。例如在英國,根據信息專員(Information Commissioner)辦公室的建議,制訂了《隱私和電子通訊條例》,規定公司發送未經請求的電子營銷材料的規則,例如要求公司給用戶發送未經請求的營銷材料必須事先獲得同意(consent),或者在每次發送消息時讓用戶有機會表示反對。如果用戶收到未經請求的電子營銷材料,且在用戶表示拒絕後還這樣做,用戶可以向信息專員投訴。同時電子郵件的使用者也應自己來採取實際步驟減少垃圾郵件。例如可考慮使用不同的個人或商業email地址;選擇難以被人猜測到的email地址;不要公開你的email地址;仔細查驗公司隱私政策以及發送營銷材料可選擇拒絕(opt-out)的措施;不要答覆你不熟悉和不信任的發件人;不要點擊垃圾郵件上的廣告;使用垃圾郵件過濾軟體;維護好你的系統等。不當可及中最為嚴重的是對青少年造成傷害的網上色情和暴力材料的傳播。一些國家要求搜索引擎安裝濾過軟體,防止青少年接觸到這些討厭的材料。例如新加坡政府建立了媒體發展局(Media Development Authority),手中有一份被封鎖的網站的黑名單,這些網站在新加坡國內是不可及的。禁止這些網站上的材料是「基於公共利益、公共道德、公共秩序、公共安全、國家和諧的理由或以其他理由為新加坡法律所禁止的」,其中包括禁止色情、鼓吹族群、種族或宗教仇恨、暴力等材料,但也包括禁止有爭議的維護同性戀的材料;同時確保具有醫學、科學、藝術或教育的材料在網上為使用者可及。

互聯網內容的管制也引起一些困難問題:管制者應該是誰?應該使用何種標準來判斷哪些材料合適,哪些不合適? 如何實現內容的管制?目前大多數機制業已存在,而且互聯網目前仍然是一個基於文本的媒體,它會自動創造它自己的審計痕迹(audit trail)。(Gillies 2012)

安保(Safety/Security)

互聯網存在一種悖論:互聯網的技術平台實際上是一個受高度管控的環境,然而通過在這個平台上建立的網頁、email和社交網路地址表達的內容卻往往被認為是完全不受管控的虛擬荒野,不必考慮規則。於是網路犯罪迭起,從製造播散病毒,黑客入侵,詐騙,造謠惑眾,身份盜竊,網路販賣假藥、毒品、槍支、人口、器官,教唆殺人和自殺,傳播色情材料,到恐怖主義利用網路危害國家利益。根據英國廣播標準理事會1999年調查,3/4的人要求加強對互聯網的管理。(Gillies 2012)

「安全」(safety)和「安保」(security)是兩個概念,安全是防範因客觀因素或無意地主觀因素髮生的傷害、事故,保護使用者和機構的利益;而安保是防範主觀惡意引起的傷害、事故,涉及保障社會或國家的安全,防止反社會分子、敵對勢力或恐怖主義集團和分子利用網路對影響國計民生或國防的設施進行預謀的、有其政治目的的攻擊。某些行業的信息比如金融數據、醫療信息以及政府情報等都可能有保密措施不完善引起的安全和安保問題,大數據的分析和應用會催生出一些新的、需要考慮的安全和安保問題。例如商業上利用大數據追蹤顧客,需要有規範,不能僅僅考慮利用大數據分析研發新產品、新服務方式的效益,也要考慮涉及利益攸關者的價值。例如我們前面引述的Target公司的例子,他們急於將新型的個體化服務提供給顧客,而沒有考慮到這位少女顧客與她家庭的關係。2001年美國的《攔截和阻斷恐怖主義法》(Intercept and Obstruct Terrorism Act)授予美國政府廣泛而全面的權力來監控電話和email通訊,以及獲取醫療、金融和其他記錄。結果造成斯諾登揭發的政府執法部門濫用權力廣泛侵犯國內外公民人權的引起全世界人民痛恨的景象。政府執法部門利用大數據監控恐怖主義分子或其他有組織犯罪分子,這是在倫理學上可以得到辯護的。但在什麼條件下對一些人的實施監控可在倫理學上得到辯護呢?可設想如下條件:有充分證據證明擬監控對象有危及國

家和社會安全的行為,或與恐怖主義或其他嚴重犯罪集團有不尋常的聯繫;監控確能達到維護國家和社會安全的效用;監控為維護國家和社會安全所必需(沒有其他選擇);監控應具有相稱性(即監控程度要適當);監控要對所涉個人的自由和權利侵犯最小化;監控應合法(必要時專門立法);監控應透明(讓公眾知道監控的必要和相關規定);一旦發現監控出現錯誤(冤枉好人)應及時平反糾錯,給與賠償。

Digital Divide)

1997年美國科幻電影Gattaca描述了兄弟二人的故事,其中一人經基因工程改良因而被分配做重要工作,而未經基因改良的則只能從事低等工作,兩人似乎分屬不同階層,此後這種現象被成為「基因裂溝」(genetic divide)。所謂的「基因裂溝」實際上是一種「技術裂溝」(technological divide)即先進技術的成果不能為人公平分享,於是造成「富者越富,窮著越窮」的情況。這是一個公正問題。數字裂溝的概念涉及在信息技術及與其有關的服務、通訊和信息可及方面的失衡關係,在全球或各國貧富之間、男女之間、受教育與未受教育之間信息可及的不平等和不公平。與區別或差異的概念相反,裂溝是指某些群體在信息可及方面遭到不合倫理和得不到辯護的排除。除了例如衣食住行、醫療、教育、安全等基本品外,信息也是基本品,因此要求信息的公正分配,以及對信息技術及信息的普遍可及。(Hessen 2012)

「富有者」和「貧困者」之間形成一道數字裂溝。互聯網的普及率數據(1999年末)顯示,加拿大達到每一千人中有428.2人的普及率,而全球平均水平僅為46.74人;印尼為0.18人,菲律賓為0.23人,泰國為0.49人。(Sembok 2003)數字裂溝是一個由在信息領域內和領域外的人之間新創造的缺口。信息領域不是一個地理、政治、社會、或語言的空間。它是精神生活的空間,從教育到科學,從文化表達到交流,從貿易到娛樂。在信息領域的邊界跨越了南北東西,跨越了工業化國家和發展家,政治制度和宗教傳統,年輕的和老一代人,甚至同一家庭的成員。與其說數字裂溝發生在國家之間或整個社會之間,不如說發生在個人之間更為準確,即在電腦精通者和電腦文盲之間,掌握大量信息的人和信息匱乏者之間。目前,只有少部分世界人口能夠獲得信息通訊技術。大部分人仍屬於是「弱勢群體」。他們生活在這種新的數字現實的陰影下,使得他們沒有接觸信息通訊技術的機會,但這對他們生活影響深遠。數字裂溝造成了對弱勢群體的歧視,形成了一種新的社會不公正。如何克服數字裂溝,這是信息社會的時代面臨主要挑戰之一。(Sembok 2003)網民近6億人,那麼其餘7億人呢?在是否也存在數字裂溝,如果存在,我們如何努力來縮小或填補這個裂溝,使得這奇妙的信息通訊技術和大數據技術能造福絕大多數人,在實現「小康」社會中發揮最大作用。

如何解決這些倫理問題呢?這些都是信息通訊技術和大數據技術創新提出的新的倫理問題或雖然以前已提出但至今未解決或很好解決的倫理問題,因此仍然是有待於解決的我們應該做什麼和應該如何做的問題。在鑒定新技術提出的倫理問題后,我們一般不能依靠現有的規則或新制訂的規則,用演繹方法,自上而下地加以解決;反之,需要自下而上地分析這些倫理問題,考慮其特點,對相關利益攸關者的價值給予權衡,以找到解決辦法的選項,然後應用倫理學的理論和原則加以論證。因此,我們說倫理學的工作是「鑒定」、「權衡」和「論證」。與科學技術要解決的「能不能」問題不同,倫理學要解決的是「該不該」問題。要解決「該不該」問題時,我們就必須首先考慮我們要選擇那些價值。

大數據技術的倫理治理

governance)與管理不同,「管理」(management)是治理的一個方面,是指特定的行政機構內一些在組織、預算和行政方面的具體技巧,而治理的意義是決策和決策實施過程,並包括公司的、當地的、國家的以及國際的多個層次。對治理的分析集中於涉及決策和決策實施的種種行動者及其結構。在治理中政府是一個重要行動者,但還包括其他利益有關者,例如在信息通訊和大數據技術領域,包括科研人員、網路/平台的擁有者和提供者、使用者、政府執法部門、政府非執法部門,以及相關的學術、維權組織。因此治理意味著一項決定不單是依賴權力或市場,而是一個多方面協調的行動,必須體現開放性、參與性、問責性、有效性和連貫性等5項原則。同時由於新的科學技術創新越來越引起公眾的倫理關注,倫理學與處於社會之中的科學技術緊密相連,解決這些問題單單靠決策者或科學家或倫理學家都有局限,需要多元部門、多元學科共同參與,共同研討新的科學技術創新提出的倫理、法律和社會問題,並提出政策、法律法規和管理方面的建議,因此進一步提出「倫理治理」(ethical governance)這一概念。(Macedo 2008, Ozolina et al. 2009)

據此,我們認為對信息通訊和大數據技術的管理應該是多層次的,有科研和從業人員的自我管理,有商業機構或公共機構的管理,也有政府的管理。我們看到在美國一些研究人員和學者成立「大數據、倫理學與社會理事會」,從法律、倫理學和政治角度分析大數據技術,理事會將研討例如安保、隱私、平等、可及等問題,以幫助避免重複已知的錯誤和不充分的準備。支持成立理事會的美國國家科學基金會的Fen Zhao女士提到了不要重韜美國Tuskegee梅毒研究的覆轍,說明了他們有較高的倫理意識。麻省的Big Data Initiative也將啟動大數據隱私工作組(Big Data Privacy Working Group),邀請來自學術界、工業、政府和非營利組織的利益攸關者來考查大數據對隱私的含義。私營的數字廣告聯盟(Digital Advertising Alliance)準備制訂自己的規則,採納自己的隱私保護框架以確保顧客信息的安全和安保。(Riglian 2012)有人所寫的文章標題就是:「大數據需要什麼:一部倫理實踐的準則」,並提出了如下規則:做法要透明,當要收集數據時讓使用者知道,而且要實時;設置要簡易,給使用者機會來考慮他們需要什麼樣的隱私水平;設計要納入隱私,機構要將隱私保護納入他們要做的每一事情中;價值要交換,服務提供者對你知道得越多,你喜歡他們服務的機會就越大。(Rayport 2011)有人建議在相關的公司和機構設立這樣的崗位,如首席隱私官、首席安全官或首席數據官等。一些國家的國會和政府也在考慮政策和立法建議,如美國和歐洲的立法者正在考慮「消費者隱私權利法案」,「不追蹤在線法案」等;美國政府正在調查數起「數據掮客」案件。

我們認為,制訂行為準則或管理辦法需要在對上述倫理問題進行多學科研討的基礎上,這類研討首先要在價值問題上取得共識,才有利於解決上述倫理問題,並在解決這些問題和制訂準則或管理辦法上取得共識。控制論創始人維納(Wiener)基於他對人類生活的理解提出了它認為社會應建立於其上的「偉大公正原則」。他認為一個社會堅持這些原則就會是一個人的發展能力最大化。這些原則包括:自由原則、平等原則和有益於人的原則。(Bynum 2006)我們在2009年國際生物識別技術的倫理學和政策會議以及2013年歐洲安全技術與倫理學會議上的發言和已發表文章基礎上提出如下的信息通訊和大數據技術的倫理原則建議。倫理原則是利益攸關者應盡的義務,也是我們應該信守的價值,這些倫理原則構成一個評價我們行動(包括決策、立法)的倫理框架:評價的結果將是,這個行動是應該做的或有義務做的;或者這個行動是不應該做的或應該禁止做的;或者這個行動是允許做的,也允許不做。正如我們在前面說過的那樣,其中每一條原則都是一項「初始」(prima facie)義務,如條件不變我們必須履行;如果條件有了改變,初始義務之間發生衝突,有另一條初始義務比它更重要,那麼該初始義務就不能成為實際義務,而那個另一條初始義務成為實際義務。

原則1:基本目的。大數據技術(包括更大範圍的信息通訊技術)創新、研發和應用的目的是促進人的幸福和提高人生活質量,並僅用於合法、合乎倫理和非歧視性目的。大數據方面的任何行動應根據不傷害人和有益於人的倫理原則給予評價,以此作為努力權衡預期的受益與可能的風險的基礎。同時也應合適地平衡個體與公共的利益。在為了公共利益而限制個人的權利和利益時,這種限制應該是必要的、相稱的和最低限度的。

原則2:負責研究。大數據技術的研發及其應用應該保持高標準的負責研究,即堅持研究誠信,反對不端和有問題的行為,承諾維護和保護個人的權利和利益。為了在所有的分析和應用中防止身份被竊取,保護個人隱私和確保平等權利,必須承諾最高保準的誠信和資料庫的安全。

原則 3:利益衝突。在大數據技術的研發及其應用中專業人員、公司和使用者之間的利益衝突應該作合適的處理。任何情況下人民(尤其是脆弱人群)的利益不能因追求專業人員或公司的利益而受到損害。

原則4:尊重。尊重原則要求尊重人的自主性和自我決定權,必須堅持知情同意或知情選擇原則。收集個人信息、將個人信息再使用於另一目的時,必須獲得同意。根據不同的情境,可以採用「廣同意」(例如同意將個人信息用於一類,而不是某一情況下)的辦法,同意也可採取opt-in(選擇同意)或opt-out(選擇拒絕)兩種方式。

原則5:隱私。人的尊嚴要求我們保護隱私、為個人信息保密,要求我們不僅不要侵犯個人的隱私/保密權,而且要儘力防止不合適地和非法地泄露私人信息。

原則6:公正。公正原則要求有限資源的公平分配,防止因不適當地泄露個人信息而產生污名和歧視。要努力縮小和消除數字裂溝。

原則7:共濟。共濟原則要求我們維護每個人享有從大數據技術研發及其應用中受益的權利,特別關注社會中的脆弱人群。

原則8:透明。透明原則要求我們使大數據技術的研發及其應用對公眾(納稅人)成為透明的,幫助他們了解什麼是大數據技術,能從其應用中得到什麼受益和會有什麼風險。

原則9:參與。參與原則要求我們採取措施促使公眾對大數據技術的了解,並引導所有利益攸關者或其代表在上游就參與大數據技術的研發及其應用的決策過程。(Zhai & Qiu 2010)

參考文獻

BCG (The Boston Consult Group) 2012 The Value of our Digital Identity. Published by LibertyGlobal.

Bynum, Terrell 2008 Computer and Information Ethics, in Edward N. Zalta (ed.). Stanford Encyclopedia of Philosophy.http://plato.stanford.edu/archives/spr2011/entries/ethics-computer .

Buytendijk, Frank and Heiser, Jay 2013 Confronting the privacy and ethical risks of Big Data,

http://www.ft.com/cms/s/0/105e30a4-2549-11e3-b349-00144feab7de.html#axzz2rHWYouN8

Center for International Development, Harvard University 2007 Science, Technology and Innovation: GeneticDivide Project http://www.cid.harvard.edu/archive/biotech/genetic_divide.html

Davis, Kord 2012 Ethics of Big Data - Balancing Risk and Innovation, O'Reilly Media.

Gillies, A 2012 Internet, Regulation and Censorship, in Ruth Chadwick (Editor in Chief) Encyclopedia of Applied Ethics, the 2ndedition, 752-759.

Heesen. J 2012 Computer and CommunicationEthics, in RuthChadwick (Editor inChief) Encyclopediaof Applied Ethics, the2ndedition, 538-545.

Industry Canada's Electronic Commerce (ICECOM) Branch, Government of Canada 2011Protecting and Managing Digital Identity Online.https://www.ic.gc.ca/eic/site/ecic-ceac.nsf/eng/gv00585.html

Kinderlerer, Julian et al 2012. Ethics of Information and CommunicationTechnologies, Opinion ofthe European Group on Ethics in Science and New Technologies to the EuropeanCommission.

Macedo, Stephen 2008 Global Standards of Good Governance,社會科學院哲學研究所:北京國際善治學術研討會會議資料,第97頁。

Mahfood, Sebastian et al. 2005 Cyberethics, Communication Research Trends,(24) 4.

Novet, Jordan 2013 The ethics of big data: A council forms to helpresearchers avoid pratfalls.http://venturebeat.com/2013/11/18/the-ethics-of-big-data-a-council-forms-to-help-researchers-avoid-pratfalls/

Ozolina Z et al. 2009 Global Governance ofScience: Report of the Expert Group on Global Governance of Science to theScience, Economy andSociety Directorate, Directorate-General for Research, European Commission. Brussels: European Commission.

Rayport Jeffrey 2011 What big data needs: Acode of ethical practices, MIT Technology Review,http://www.technologyreview.com/news/424104/what-big-data-needs-a-code-of-ethical-practices/

Riglian, Adam 2012 Big data collection efforts spark an information debate.http://searchcloudapplications.techtarget.com/feature/Big-data-collection-efforts-spark-an-information-ethics-debate

Sembok, Tengku Mohd 2003 Ethics of Information Communication Technology, Paper prepared for the RegionalMeeting on Ethics of Science and Technology, 5-7 November 2003, Bangkok UNESCO, Regional Unit for Social & Human Sciences in Asia and thePacific.

Steiner, Peter 1993 On the Internet, nobody knows you are a dog. The New Yorker July 5.http://en.wikipedia.org/wiki/On_the_Internet,_nobody_knows_you're_a_dog

2012 《大數據》,廣西師範大學出版社。

Wolken, Matt 2013 The ethics of Big Data and privacy.

Zhai Xiaomei and Qiu Renzong 2010 Thestatus quo and ethical governance in biometric in mainland China, in Kumar, A and Zhang, D (ed.) Ethics andPolicy of Biometrics, Berli/Heiderbergn: Spring-Verlag 127-139.

互聯網信息中心 2013互聯網路發展狀況統計報告

(作者惠寄。《科學與社會》2014年第4卷第1期發表本文的精簡版。此是完整版。)

————————

歡迎關注元浦說文訂閱號

金元浦 教授人民大學文化創意產業研究所所長

中外文藝理論學會副會長教育部文化部動漫類教材專家委員會副主任人民大學文學院教授、博導傳媒大學、上海交通大學博導

元浦說文由人民大學金元浦教授創辦。目標在於速遞文化信息、傳播深度思考、彙集文化創意產業的業界和學術精英,搭建產學研的合作橋樑。

本文由 一點資訊 提供 原文連結

寫了5858696篇文章,獲得23204次喜歡
留言回覆
回覆
熱門推薦
精彩推薦