中國新聞視線網,用百姓的眼光看新聞!做中國新聞網站之標桿!

中國民生網

你現在的位置:主頁 > 校園 > 文章

來源:網絡整理 作者:中國新聞視線網小編 發布時間:2019-10-23 15:07

曠視科技對學生人臉的監控,以及ZAO事件,折射出人工智能技術本身的雙刃劍特性——一方面代替重復性勞動,但同時帶來隨時監測個人生活的“驚悚感”。

在人工智能高速發展過程中,技術與個人隱私之間的矛盾確實是“不可調和”的,作為企業主體,更該主動進行用戶數據安全的保護。

當人工智能等前沿技術逐漸應用于現實場景,投資人與創始人口中所謂的“數據優勢”是否以犧牲用戶隱私安全為代價?

近日,關于人臉識別技術與個人數據安全之間的矛盾、學生個人到底有無隱私等討論見諸網端。一張帶有“MEGVII曠視”圖標、面向校園學生學習狀態的視頻監控圖像也在網絡上引發熱議,圖片顯示,該技術針對兩名教室中的女生面部特征進行分析,分別顯示出各自相應的課堂行為數據,如趴桌子、玩手機、睡覺、聽講、閱讀、舉手等。

 AI技術是把雙刃劍

針對網絡端對曠視監控教室內學生一舉一動的批評聲,曠視方面對第一財經記者回應稱,近日網絡上出現的一幅課堂行為分析圖片為技術場景化概念演示,曠視的智慧學校解決方案可以協助學校管理人員提升效率并保障學生安全,主要用于智能校門、教室門及宿舍的出入,方便學生安全出入校園。

知乎上關于“如何看待曠視科技新產品監視學生上課”的話題下,一位ID為李小粥、職業為高級產品經理的用戶發表觀點稱:“如果可以監視學生甚至量化學生的行為數據,那我們是否可以去監控每個教師、輔導員、校長的日常工作?如果今天的技術可以采集學生微表情,那未來是否會發展到采集腦電波、人體磁場、熱力圖、情緒等更加私密的生理特征?我們又是否愿意接受這樣的監控?”

該疑問提出的考量,來自于對人工智能技術采集個人數據的擔憂,一位不愿透露姓名的人工智能領域研究人士對第一財經記者表示,曠視科技對學生人臉的監控,以及ZAO事件,折射出人工智能技術本身的雙刃劍特性——一方面代替重復性勞動,但同時帶來隨時監測個人生活的“驚悚感”。他稱,一般來講業內會將現實生活場景的可視化視為好事,但前提是需要界定人工智能時代,什么數據是隱私?什么數據可開放?

 企業方應主動保護數據安全

實際上,人臉識別技術此前早已步入校園與學生生活。

2015年,清華大學在高校信息化建設中首次引入人臉識別技術,通過識別系統和智能設備,實現學生自行注冊、自行辦理火車票優惠卡充值、自行打印成績單、自行辦理在讀證明等各項業務;2018年,全國各地初中以“提升校園安全”為由,在校園門口安裝人臉識別考勤系統,以南京中國藥科大學為例,其在校門、圖書館和宿舍都安裝了人臉識別門禁。

此次曠視之所以引發爭議,很大程度在于其將原本簡單的簽到、注冊、買票等業務升級到對微表情的分析,其官方對該技術介紹稱:“在課堂教學評價系統中,曠視科技將自主研發的人臉識別、行為識別、表情識別等技術,集成在考勤及行為分析攝像機MegEye-C3V-920和行為分析服務器中。通過對課堂視頻數據進行實時的結構化分析,反饋學生行為、表情、專注度、前排上座率等多維度課堂數據,輔助教學評估評價。”

國外對人臉識別技術的落地應用采取了更為徹底的管制。

今年4月5日,當舊金山監事會(TheSanFranciscoBoardofSupervisors)通過一項法案,禁止政府部門(受聯邦政府管轄的機場、港口等出入境場所不在此例)使用面部識別技術,并規定城市機構在購買其他類型的監控技術之前獲得城市議會批準。而近期,歐盟(EU)的一項數據保護法規首次在瑞典實施,其規定,一項涉及人臉識別軟件的學校實驗被認為是非法的,同時引發教育機構中是否應使用人工智能技術的討論。此外,歐盟在2018年出臺的GDPR規定稱,公司在收集用戶包括面部等生物特征數據前必須經得個人同意,如有違反,企業可以被罰款金額達其全球收入的4%。

云測數據總經理賈宇航對第一財經記者表示,在人工智能高速發展過程中,技術與個人隱私之間的矛盾確實是“不可調和”的,作為企業主體,更該主動進行用戶數據安全的保護。他以谷歌為例稱,2018年,谷歌核心戰略以云計算與人工智能為核心,但步入2019年,在世界范圍內多次爆發用戶數據安全事件后,谷歌將戰略重心轉移至注重用戶隱私安全的邊緣計算領域,很多用戶數據存儲于手機端,不會回傳至云端。從該案例也可以看出公司主體主動對數據安全方面的考慮。

排3和值走势图200