Rti 中央廣播電臺 中國發展AI讀心術黑科技 科技舉報深化加劇人權迫害隱憂

  • 時間:2021-02-03 12:41
  • 新聞引據:採訪、自由亞洲電台
  • 撰稿編輯:陳文蔚
中國發展AI讀心術黑科技 科技舉報深化加劇人權迫害隱憂
人權組織發布中國發展情緒識別技術系統報告,呼籲國際間正視該科技對人權的危害。(Article 19)

近年中國積極發展人工智慧(AI)科技,包括無所不在的天眼系統以及可以辨識少數民族的技術均引發批評,但中國不但未收斂,反而更積極開發新技術,國際人權組織Article19最新報告指出,中國已廣泛將情緒識別科技應用在社會維穩上,只要情緒識別系統看一眼,3秒就可以知道你是否打算滋事或準備有不法行為的可疑分子。而這套技術的廣泛應用,也引發人權組織對中國更進一步迫害人權的隱憂。

《自由亞洲電台》報導,Article19這份名為《情緒糾結》的報告,說明情緒識別系統存在對人權、隱私權所構成的嚴重威脅,同時也揭露了中國在情緒識別系統的應用問題,更提醒外界關注情緒識別系統的發展,呼籲國際間應對這項技術設立限制規則。

報告在中國的市場與應用研究上,除了提出浙江寧波的阿爾法鷹眼在中國的網格式公安監控系統「雪亮工程」扮演重要角色外,還有像是深圳的科思創動、北京翼開科技、杭州中威電子、秒懂情緒識別技術、睿數科技、深圳安視寶、太古計算、雲思創智與力維等,都在不同省市的機場、海關、高鐵站等公共場所承擔維穩大責,成為中國安保行業的指標。

小動作就可以「犯罪意圖」定罪 

中國媒體過往報導中也指出,阿爾法鷹眼就這麼厲害,從人們眨眼睛、聳肩到摸鼻子的小動作來做出判斷。在2014年到2015年間,光是浙江義烏火車就通過這個堪稱「人工智能3.0 」的科技,逮捕了153個所謂的「犯罪分子」。

報導中引述專研中國網絡安全與政策的美國加州大學柏克萊分校博士生艾哈邁德(Shazeda Ahmed )梳理中國官方的公開文件與相關報導發現,多個省、市的地方公安機構和不同的情緒識別人工智能公司或安防行業合作。

艾哈邁德指出,在中國,冰冷的人工智能科技,已經成為官方號稱打擊犯罪的利器,尤其對公安部門來說,情緒識別技術已經運用在三個方面:包括預警,也就是偵測可能犯罪、針對重點人口的監控與逮捕後的訊問過程。而所謂的「重點人口」,包括刑滿出獄的人,或是表達反對政府意見的抗議者,只要官方認定是會破壞穩定的人,這套情緒識別系統都會加強監控,目的是要確保這些重點人口不會出來反抗。

大媽改成科技 重現楓橋經驗

此外,報告中也提到,除了新疆維吾爾人一直是中國官方重點監測的人口外,2019年中國《四川警察學院學報》也提到,要研究將「微表情識別技術」應用在入藏公路的安全強化上。艾哈邁德形容,這是重現毛澤東時期的「楓橋經驗」。但在數位時代,舉報的不是街坊鄰里大媽,而是擁有情緒識別技術的攝影機與軟體。

艾哈邁德指出,不只人臉識別,中國相關企業還綜合聲音、心跳、肢體等訊號,發展出整合多模式的情緒識別技術。報告也預估,這個潛在市場規模超過146億美元。艾哈邁德認為,中國技術可能藉助一帶一路走出去,而東南亞國家是潛在市場。

報告的另一位作者、Article 19資深研究員瑪達(Vidushi Marda)則認為,情緒識別概念雖然早在1960年代開始發展,但技術應用近幾年快速進步,印度警方最近要把情緒識別技術應用在公共場所,來防範女性受暴力侵害。

人權組織呼籲國際社會重視

瑪達表示,國際規則制定涉及兩大國際電信組織,包括國際電信聯盟(International Telecommunications Union ),中國就是非常積極的成員;另一個是電氣與電子工程師協會(Institute of Electrical and Electronics Engineers, IEEE ),而瑪達也是聯合國人工智能發展專家組的成員之一。

她在報告中便建議國際社會,應該禁止情緒識別科技的繼續發展、銷售與進出口,因為這與現有的國際人權基本原則不符;她還建議中國政府,也應禁止情緒識別技術的持續發展、銷售與轉移,並儘快制訂相應的法律,讓受情緒識別科技影響的個人有救濟機制。

相關留言

本分類最新更多