您當前位置:群基首頁 >> 專業技術文章 >> 群基火花機|電火花機|放電機
群基火花機|電火花機|放電機
自從1954年第一個可以用程式控制的數位機器人誕生以來,人們一直認為機器人技術的發展太慢,但最近大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人類,掌控世界。
英國經濟學人最近在專題報導中,特別針對這點指出,關于人工智慧,我們目前最該擔心的問題其實都被忽略了。
報導指出以深度學習為基礎的臉部辨識技術,讓監控系統變得非常強大。以Google的FaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。
臉書的DeepFace也不相上下。臉書的app Moments可以自動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出后,便因觸犯愛爾蘭隱私法而被強制取下。
俄羅斯的一個叫Findface的app也掀起不少爭議。它讓使用者拍陌生人的照片,然后到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。
這種技術帶來的威脅顯而易見:今后你我隨時都會被認出身份,幾乎無所遁逃。假設你去參加游行,從遠方拍攝的高畫素群眾照片只要一放大,每個參加者的身份永遠都可以被追查。
也就是說深度學習的時代,只要出現在公共場合,勢必會留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩,專門用來防備臉部辨識系統。
另外中國也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高,分別是99.77%和99.65%,為全球辨識技術排名的前兩名。
連在美國加州Fresno郡,警方也正在測試一種叫Beware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了正當的法律程序這種基本的法律觀念。
深度學習機器另一個令人憂心的地方是,當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015年Google的照片app曾經把一名黑人和他的朋友全都自動標示為大猩猩。COMPAS也被批評對黑人有歧視。
專門用人工智慧開發企業運用軟體的MetaMind創辦人索區爾表示:沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測;終究人工智慧不會只是智能的問題,我們也要好好思考它牽涉到的道德議題。