數(shù)據(jù)和人工智能(AI)之間的關系是什么?有人作了個形象比喻:就像煤炭之于蒸汽機,電能之于燈泡,汽油之于汽車。
的確,幾乎所有形式的AI都需要大量訓練數(shù)據(jù)。要想讓AI更加“懂你”,就必須收集和分析你的個人信息,這是AI深度學習的原材料,也是其“思考”和“決策”的依據(jù)。
這引發(fā)了公眾對個人信息安全的擔憂。就拿一個常見現(xiàn)象來說,當你第一次打開一款APP時,總會彈出一份冗長的“數(shù)據(jù)收集和隱私保護協(xié)議”。在絕大多數(shù)用戶看來,完整讀完這份協(xié)議是一道難題,遑論讀懂。然而,如果你不點“已完成閱讀并同意”,就無法使用APP?!罢f是給了用戶選擇權,但真正的選項只有一個,這不是霸王條款嗎?”筆者聽到過不少這樣的抱怨。
大量調查顯示,多數(shù)用戶在簽署各類智能平臺收集數(shù)據(jù)的“同意書”時,并不清楚自己在同意什么。隨著AI技術被不斷應用于各類手機APP,各大互聯(lián)網(wǎng)平臺紛紛更新隱私保護政策,告知用戶將使用其個人信息以支持人工智能的開發(fā)和優(yōu)化。對用戶信息的收集都包括什么呢?有人作了一些梳理,涵蓋通訊錄、相冊、定位等,甚至我們的聲音、指紋、臉部特征也在網(wǎng)羅之列。
這還只限于手機應用場景。有人對未來信息泄露風險作出更大膽的預測:只要你進入商場、飯店等商業(yè)公共場合,你的臉,你的聲音,你的衣服顏色,你的興趣愛好和行為習慣,都將暴露在空氣中。在AI眼里,你就是一個行走的“數(shù)據(jù)群”。試想,一旦這種情形變?yōu)楝F(xiàn)實,將給個人信息安全帶來多大的隱患?
從全球范圍來看,人工智能侵犯隱私的案例已有不少。例如,一批匿名人士曾向世界最大的一家人工智能巨頭發(fā)起集體訴訟,指責它從互聯(lián)網(wǎng)上竊取和挪用了大量個人數(shù)據(jù)和信息來訓練AI工具。起訴書稱其“在用戶不知情的情況下,使用這些‘竊取’來的信息”。不久前,北京互聯(lián)網(wǎng)法院宣判了中國首例AI聲音侵權案,原告因其聲音被AI技術模仿并商業(yè)化使用而獲得勝訴。
中國有句老話:“晴帶雨傘,飽帶干糧?!敝挥形从昃I繆,才能為AI長遠發(fā)展奠定堅實基礎。解決AI信息保護問題的關鍵,是如何合理規(guī)范使用用戶數(shù)據(jù)。通俗來講,就是讓AI技術既在提供智能服務方面“更懂你”,也要在個人信息識別上“不懂你”,掌握兩者之間的平衡。
在AI服務“更懂你”方面,業(yè)界已經(jīng)做了不少努力;在讓AI“不懂你”方面,還要繼續(xù)深化探索。目前,中國已出臺了《生成式人工智能服務管理暫行辦法》等規(guī)定,明確提出AI應用必須保護商業(yè)秘密、個人隱私等不受侵犯。同時,進一步從服務規(guī)范和法律責任等具體方面對生成式人工智能服務作了規(guī)范。下一步,應繼續(xù)在頂層設計上跟進AI技術發(fā)展,確立信息數(shù)據(jù)的收集、使用、消除等一系列具體條款。在此基礎上,還要在提升用戶素養(yǎng)上下功夫。社會需要普及各類信息保護的基本知識,提升用戶的安全意識。
有這么一個故事:一個年輕人和一位長者過橋,年輕人問,我們走過時并沒有扶橋兩旁的護欄,要護欄有什么用呢?長者說,沒有護欄,我們還能如此安然地從橋上經(jīng)過嗎?護欄給我們的不僅是安全,更是安全感。
當下的AI行業(yè),正需要這樣的“護欄”。
轉自:人民日報海外版
【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。
延伸閱讀