<i id="zkbgm"></i>
<i id="zkbgm"><strike id="zkbgm"></strike></i>

    1. <wbr id="zkbgm"><ins id="zkbgm"></ins></wbr>
  • <samp id="zkbgm"></samp>
    • 產品分類導航
    • 群基火花機|電火花機|放電機
    • 群基輪胎?;鸹C|輪胎電火花
    • 群基加工中心|數控石墨雕銑機
    • 臺灣建德磨床|建德磨床|磨床
    • 臺灣建德銑床|建德炮塔銑床
    • 臺灣旭正銑床|龍門加工中心
    • 臺灣金和車床|精密數控車床
    • 主新德內外圓磨床|無心磨床
    • 臺灣宇青磨床|臺灣精密磨床
    • 沙迪克火花機|沙迪克放電機
    • 沙迪克慢走絲|沙迪克線切割
    • 站內搜索
    專家提示不需擔心機器人控制人類

    機器人控制人類

    專家提示不需擔心機器人控制人類(機器人控制人類)

    自從1954年第一個可以用程式控制的數位機器人誕生以來,人們一直認為機器人技術的發展太慢,但最近大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人類,掌控世界。

    英國經濟學人最近在專題報導中,特別針對這點指出,關于人工智慧,我們目前最該擔心的問題其實都被忽略了。

    報導指出以深度學習為基礎的臉部辨識技術,讓監控系統變得非常強大。以GoogleFaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。

    臉書的DeepFace也不相上下。臉書的app Moments可以自動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出后,便因觸犯愛爾蘭隱私法而被強制取下。

    俄羅斯的一個叫Findfaceapp也掀起不少爭議。它讓使用者拍陌生人的照片,然后到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。

    這種技術帶來的威脅顯而易見:今后你我隨時都會被認出身份,幾乎無所遁逃。假設你去參加游行,從遠方拍攝的高畫素群眾照片只要一放大,每個參加者的身份永遠都可以被追查。

    也就是說深度學習的時代,只要出現在公共場合,勢必會留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩,專門用來防備臉部辨識系統。

    另外中國也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高,分別是99.77%99.65%,為全球辨識技術排名的前兩名。

    連在美國加州Fresno郡,警方也正在測試一種叫Beware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了正當的法律程序這種基本的法律觀念。

    深度學習機器另一個令人憂心的地方是,當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015Google的照片app曾經把一名黑人和他的朋友全都自動標示為大猩猩。COMPAS也被批評對黑人有歧視。

    專門用人工智慧開發企業運用軟體的MetaMind創辦人索區爾表示:沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測;終究人工智慧不會只是智能的問題,我們也要好好思考它牽涉到的道德議題。

    專家提示不需擔心機器人控制人類友情鏈接:火花機、鏡面火花機、鏡面放電機、

    久久男人Av资源网站无码软件_a片资源吧久久久yhh_亚洲精品无码av人在线观看_东京热无码av网站
    <i id="zkbgm"></i>
    <i id="zkbgm"><strike id="zkbgm"></strike></i>

    1. <wbr id="zkbgm"><ins id="zkbgm"></ins></wbr>
  • <samp id="zkbgm"></samp>