在更加強大的計算能力和深度學(xué)習(xí)等新技術(shù)的助推下,人工智能發(fā)展進(jìn)入第三次繁榮期。與此同時,個人信息的收集、識別、分析技術(shù)突飛猛進(jìn),越來越多的個人信息主動或被動地暴露在人工智能程序中,尤其是具有強烈個人屬性的生物識別信息被大量收集,且在信息處理上完成了從量到質(zhì)的跨越,不禁讓人對個人信息保護(hù)愈加擔(dān)憂。
濫用人工智能對個人信息的侵犯及其法律規(guī)制
1.濫用人工智能侵犯個人信息的嚴(yán)重態(tài)勢
人工智能收集個人信息已呈現(xiàn)出精準(zhǔn)化、全面化、簡便化、隱秘化趨勢。精準(zhǔn)化是指人工智能收集的個人信息與信息主體的匹配度極高。全面化是指人工智能全方位收集個人信息,無論生物識別信息還是痕跡信息,都在其范圍內(nèi)。簡便化是指收集個人信息的設(shè)備、指令、方式已極為簡便,甚至實現(xiàn)了單設(shè)備信息采集、分析、處理一體化,并正向進(jìn)一步的便捷化發(fā)展。隱秘化是指人工智能收集個人信息的方式從公開轉(zhuǎn)向隱秘,悄無聲息地收集個人信息變得易如反掌。
人工智能較之以往技術(shù),最大的優(yōu)勢就在于對個人生物識別信息的收集、分析和利用。生物識別信息具有唯一性、獨立性、穩(wěn)定性和普遍性,一旦被非法收集利用,危害極大。目前,生物識別信息應(yīng)用最成熟的是指紋識別技術(shù)。它以指紋的唯一性為基礎(chǔ),通過與系統(tǒng)數(shù)據(jù)庫的比對確定對象。從公安戶籍管理到各類考試,不少人的指紋信息已被收集,而人工智能快速、精準(zhǔn)的識別能力又為其大范圍應(yīng)用提供了基礎(chǔ)。
人臉識別技術(shù)同樣火熱且發(fā)展迅猛,人臉作為認(rèn)知他人的第一生物識別方式,具有信息豐富、易獲取等諸多優(yōu)勢。之前苦于攝像頭清晰度不夠、面部信息讀取能力弱、比對準(zhǔn)確率低等原因,人臉識別技術(shù)發(fā)展緩慢。而人工智能的發(fā)展在群像識別、實時對比、高匹配度等方面實現(xiàn)了突破。
除了指紋和人臉外,未來生物識別信息技術(shù)中不可或缺的一項就是聲紋識別。聲紋較之人臉等具有更高的穩(wěn)定性,整容、面具、夸張的妝容等都可能導(dǎo)致人臉變化,降低識別率,但個人聲紋卻始終相對穩(wěn)定。據(jù)悉,聲紋識別在監(jiān)聽、跟蹤等領(lǐng)域已有應(yīng)用,它的優(yōu)勢在于可遠(yuǎn)程識別,無須另行搭建設(shè)備,通過截取電話錄音等即可完成。加之人工智能的深度學(xué)習(xí)能力,在進(jìn)行了足夠多的聲紋訓(xùn)練后,效率與準(zhǔn)確率也隨之提高。
人工智能的發(fā)展為何引起生物識別信息應(yīng)用的泛濫?筆者分析有以下幾點原因:其一,人們對人工智能的美好向往,選擇性忽視或低估了風(fēng)險。其二,有關(guān)個人信息收集、分析的大規(guī)模商業(yè)利益群體已形成,下游需求旺盛,不自覺助長了推廣動力。其三,信息主體對自身的保護(hù)能力正在逐漸喪失,商業(yè)主體為了收集個人信息,直接將信息收集、分析的授權(quán)與瀏覽、消費捆綁,迫使公眾主動或被動放棄對個人信息的保護(hù)。其四,人工智能的深度學(xué)習(xí)能力,使得其在完成初期的樣本訓(xùn)練后,不斷完善收集、分析方式,降低成本、提高效率,形成了“馬太效應(yīng)”,給法律應(yīng)對造成了更大難度。
2.利用人工智能侵犯個人信息的法律規(guī)制
我國現(xiàn)行法律對個人信息的保護(hù)有限,針對個人信息的非法收集行為,《網(wǎng)絡(luò)安全法》規(guī)定了網(wǎng)絡(luò)運營者收集個人信息須事先征得同意的原則,確定了不得收集與其提供服務(wù)無關(guān)的個人信息的規(guī)定!断M者權(quán)益保護(hù)法》明確消費者個人信息依法受保護(hù),經(jīng)營者收集消費者個人信息應(yīng)遵循合法、正當(dāng)、必要的原則。《刑法》將不同情形下非法獲取個人信息,情節(jié)嚴(yán)重或特別嚴(yán)重的行為規(guī)定為犯罪。侵犯個人信息罪有關(guān)司法解釋也對罪名從數(shù)量、情節(jié)等方面作出了具體解釋。
針對個人信息的非法利用行為,《侵權(quán)責(zé)任法》對醫(yī)療機構(gòu)、醫(yī)護(hù)人員泄露病人隱私作出了特別規(guī)定!断M者權(quán)益保護(hù)法》規(guī)定泄露、侵犯消費者個人信息的,應(yīng)當(dāng)消除影響、賠償損失等,并根據(jù)情節(jié)還可能加以行政處罰。《網(wǎng)絡(luò)安全法》規(guī)定了網(wǎng)絡(luò)運營者不得泄露、篡改、損毀其收集的個人信息。《未成年人保護(hù)法》規(guī)定任何組織不得披露未成年人的個人隱私!痘ヂ(lián)網(wǎng)電子公告服務(wù)管理規(guī)定》《個人存款賬戶實名制規(guī)定》《醫(yī)務(wù)人員醫(yī)德規(guī)范及實施辦法》等部門法規(guī)均規(guī)定不得泄露因工作或其他原因掌握的個人信息。
筆者認(rèn)為,現(xiàn)行個人信息保護(hù)法律體系還存在以下問題。第一,立法碎片化。多部部門法規(guī)及司法解釋對個人信息保護(hù)均有規(guī)定,但不協(xié)調(diào),顯得個別、分散。第二,現(xiàn)行法律對個人信息的定義混亂,這是立法碎片化的必然結(jié)果。各部門有各自的立法目的、價值取向等,對個人信息的定義也會以本部門為主。第三,對個人信息保護(hù)的范圍過窄,有的司法解釋將個人生物識別信息排除在外,這在應(yīng)對人工智能的挑戰(zhàn)時顯得尤為不利。第四,現(xiàn)行個人信息保護(hù)法律體系建立的基礎(chǔ)仍是互聯(lián)網(wǎng),侵權(quán)工具也多限制在網(wǎng)上,忽視了人工智能的延展性、主動性,以及在信息處理方式等方面質(zhì)的改變,導(dǎo)致法律滯后的情況比較突出。此外,個人信息保護(hù)利益衡量不清晰、現(xiàn)行規(guī)范性文件位階低,高位階文件缺乏操作性、執(zhí)法部門權(quán)限不明確等問題同樣存在。
人工智能時代保護(hù)個人信息的對策
1.企業(yè)行為規(guī)制
企業(yè)掌握著海量個人信息,針對其收集、分析用戶個人信息的行為,筆者認(rèn)為可借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》的有關(guān)規(guī)定,確定以下行為規(guī)則。
第一,透明性。用戶對于“網(wǎng)站聲明”等文件大多并未閱讀,對于企業(yè)收集了哪些個人信息、將如何分析、結(jié)果有何影響等一無所知。透明性要求企業(yè)應(yīng)當(dāng)做到:對個人信息的收集、分析進(jìn)行單獨聲明,用戶可隨時查詢、刪除已被收集的個人信息,企業(yè)如何應(yīng)用、分析、處理個人信息應(yīng)向用戶明示,企業(yè)應(yīng)告知用戶個人信息分析結(jié)果及用途,并征得用戶同意。
第二,針對生物識別信息的特別同意。鑒于生物識別信息與人身的密切關(guān)聯(lián)性,企業(yè)不能僅依據(jù)“網(wǎng)站聲明”或“個人信息收集書”等類似文件即開展收集活動。尤其在移動端,大多數(shù)手機前置攝像頭、話筒等設(shè)備開啟時并無特別提示。某品牌手機發(fā)布隱藏式攝像頭后,有用戶反映在使用某些App時,隱藏式攝像頭被自動激活,從而引起了某些企業(yè)是否秘密收集個人生物識別信息的爭論。企業(yè)宜在遵守透明性要求的基礎(chǔ)上,對收集如指紋、聲紋、人臉等生物識別信息時,應(yīng)單獨征得用戶同意。
第三,匿名化。個人信息匿名化的建議由來已久,《通用數(shù)據(jù)保護(hù)條例》認(rèn)為匿名化是經(jīng)過處理后,通過單獨信息無法識別信息主體的處理方式。有學(xué)者比較了匿名化和假名化,認(rèn)為匿名化以隱藏用戶身份和敏感信息的方式保護(hù)個人信息,處理后的信息由于無法關(guān)聯(lián)信息主體,所以不再是個人信息,而假名化信息仍然屬于個人信息。但目前企業(yè)與實現(xiàn)匿名化的目標(biāo)仍然有一定距離,即第三人在公開查詢時給出的信息僅為假名信息,而信息在企業(yè)內(nèi)部也并未匿名化。筆者認(rèn)為,只有企業(yè)內(nèi)部在處理信息時也采取匿名化處理,才能既滿足信息合理利用,又保護(hù)個人信息安全。
第四,個人信息本地化。生物識別信息等敏感信息應(yīng)當(dāng)本地化,禁止上傳至企業(yè)云端。人工智能設(shè)備的匹配、分析能力在個人信息本地化的情況下,足以完成目前用戶所需服務(wù)。個人信息本地化可防止因傳輸,或企業(yè)處理、利用等行為導(dǎo)致的信息泄露,也限制了企業(yè)對個人敏感信息的利用。從某種意義上而言,企業(yè)就是一個收件和派件的快遞員,不能拆開信件,對個人信息進(jìn)行整體加密,不預(yù)留“后門”,用戶的個人信息安全才更有保障。
2.政府部門行為規(guī)范
因社會管理需要,政府部門收集了大量公民個人信息,同樣需要在個人信息保護(hù)與社會治理之間尋求平衡。但目前我國打擊犯罪、維護(hù)國家安全的任務(wù)仍然繁重,一味讓渡于個人信息保護(hù)也不合理。綜上所述,筆者認(rèn)為政府部門可以作出以下行為規(guī)范。
第一,以必要性為前提。政府部門掌握大量攝像頭等生物識別信息收集工具,當(dāng)有打擊恐怖主義、維護(hù)國家安全等需要時,收集個人信息具有正當(dāng)性,但為其他非必要目的而收集個人信息,則可能對個人信息保護(hù)造成不利。因此,生物識別信息收集、分析系統(tǒng)何時啟用,以及開啟區(qū)域、針對的人群等均需作出事先規(guī)定,在對必要性進(jìn)行充分論證的基礎(chǔ)上合理利用人工智能系統(tǒng)。
第二,以最小數(shù)據(jù)量為原則。個人信息的種類繁多、數(shù)量龐大,在收集時,應(yīng)以最小數(shù)據(jù)量為原則。在人工智能環(huán)境下,滿足人工智能系統(tǒng)學(xué)習(xí)樣本的數(shù)據(jù)量即為最小數(shù)據(jù)量,至于具體額度,將根據(jù)系統(tǒng)的完善程度、任務(wù)繁雜程度、緊迫程度等綜合考量,甚至需要一事一確定。同時,加強信息篩選能力,通過提高樣本的科學(xué)性等舉措,同樣可以達(dá)到數(shù)據(jù)量收集最小化的目的。
第三,加強數(shù)據(jù)安全。加強數(shù)據(jù)安全的工作一直在進(jìn)行,但始終有漏洞。數(shù)據(jù)安全是國家安全的重要內(nèi)容之一,建立符合我國國情的數(shù)據(jù)安全法律體系勢在必行!缎谭ㄐ拚福ň牛酚谩胺欠ǐ@取個人信息罪”“非法侵入計算機信息系統(tǒng)罪”等罪名對國家、政府記錄的個人數(shù)據(jù)進(jìn)行保護(hù),也表明了國家、政府對個人數(shù)據(jù)安全的重視。
3.制度設(shè)計安排
第一,盡快制定頒布《個人信息保護(hù)法》。近年來,個人信息保護(hù)立法的學(xué)術(shù)討論從未間斷,也形成了個人信息保護(hù)法的專家建議稿。針對現(xiàn)有問題,制定《個人信息保護(hù)法》能夠厘清個人信息保護(hù)的基本問題,明確統(tǒng)一定義,規(guī)范對生物識別信息等敏感內(nèi)容的單獨保護(hù),以及人工智能深度學(xué)習(xí)能力對個人信息的限制使用,從而在信息利用和保護(hù)中達(dá)到平衡。
第二,開展《人工智能安全法》立法研究。美國連續(xù)發(fā)布了《為人工智能的未來做好準(zhǔn)備》《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》《人工智能、自動化和經(jīng)濟(jì)》等報告,提出美國人工智能研究與開發(fā)的七大戰(zhàn)略,其中很重要的一條就是“確保人工智能系統(tǒng)的安全性與可控性”。近期熱議的人工智能可解釋性、透明性等都是安全性下的具體問題,仍有大量漏洞和缺陷需厘清和規(guī)制,本文所討論的個人信息保護(hù)問題也屬于其中之一。因此,應(yīng)當(dāng)加強人工智能安全理論研究,積極轉(zhuǎn)化相關(guān)學(xué)術(shù)成果,開展《人工智能安全法》的立法研究。
(轉(zhuǎn)載自《保密工作》雜志2019年第10期)