欧美日韩亚洲综合一区二区三区,第九色区aⅴ天堂久久香,在线点播日韩欧美精品,国产精品专区在线观看

    <s id="jq4au"></s>
    <s id="jq4au"><nobr id="jq4au"><ins id="jq4au"></ins></nobr></s>
    
    

  • <s id="jq4au"></s>
  • 霍金呼吁禁止使用殺人機(jī)器人 外媒:中國(guó)會(huì)得利

    時(shí)間:2015-07-30 08:57   來(lái)源:時(shí)代》周刊

      資料圖片:韓國(guó)的國(guó)產(chǎn)戰(zhàn)斗機(jī)器人。(圖片源于網(wǎng)絡(luò))

      美國(guó)《時(shí)代》周刊網(wǎng)站7月28日?qǐng)?bào)道稱(chēng),物理學(xué)家斯蒂芬·霍金和特斯拉汽車(chē)公司首席執(zhí)行官埃隆·馬斯克,與數(shù)十名人工智能和機(jī)器人專(zhuān)家在27日發(fā)表的公開(kāi)信中,一道呼吁禁止使用“攻擊性自動(dòng)武器”。

      “人工智能技術(shù)目前的發(fā)展已經(jīng)使其在幾年內(nèi)、而不是幾十年內(nèi)成為可行——即使法律上不可行事實(shí)上也是可以實(shí)現(xiàn)的,這樣的情況危險(xiǎn)極大,”這封公開(kāi)信說(shuō)!缎l(wèi)報(bào)》報(bào)道說(shuō)這封信將在布宜諾斯艾利斯舉辦的人工智能?chē)?guó)際聯(lián)合大會(huì)上宣讀!白詣(dòng)武器被稱(chēng)為繼火藥、核武器之后的第三次戰(zhàn)爭(zhēng)革命!

      這封公開(kāi)信把無(wú)需人類(lèi)命令便能夠選擇并攻擊目標(biāo)的人工智能武器,與無(wú)人機(jī)和巡航導(dǎo)彈等人類(lèi)選擇打擊目標(biāo)的武器有所區(qū)別。這封信中還說(shuō),雖然對(duì)軍隊(duì)官兵來(lái)說(shuō),人工智能技術(shù)可以令戰(zhàn)區(qū)更加安全,但這種不受人類(lèi)控制的武器會(huì)引發(fā)“全球性人工智能軍備競(jìng)賽”。

      “它們流入黑市或落入恐怖分子和獨(dú)裁者之手不過(guò)是時(shí)間問(wèn)題,”這封信的署名者們警告道!叭斯ぶ悄芸梢酝ㄟ^(guò)多種方式使戰(zhàn)場(chǎng)對(duì)人類(lèi)、尤其是平民來(lái)說(shuō)更加安全,而不必通過(guò)創(chuàng)造殺戮新工具這種方式!

      英國(guó)《金融時(shí)報(bào)》網(wǎng)站7月27日發(fā)表題為《科學(xué)家提醒,要警惕殺人機(jī)器人軍備競(jìng)賽》的報(bào)道稱(chēng),科技界的一些大人物呼吁全球禁止“殺人機(jī)器人”,他們提醒說(shuō),越過(guò)這一界限,將開(kāi)啟新一輪全球軍備競(jìng)賽。

      人工智能領(lǐng)域的1000多位專(zhuān)家在一封公開(kāi)信中表明了干預(yù)態(tài)度。在這封信上署名的包括宇宙學(xué)家斯蒂芬·霍金教授、特斯拉公司首席執(zhí)行官埃隆·馬斯克,以及蘋(píng)果公司合伙創(chuàng)始人史蒂夫·沃茲尼亞克。

      盡管“機(jī)器人士兵”仍處于“紙上談兵”階段,可是計(jì)算能力和人工智能的迅速進(jìn)步,增加了軍方在20年內(nèi)把機(jī)器人士兵派上戰(zhàn)場(chǎng)的可能性。

      這封請(qǐng)?jiān)笗?shū)于28日在布宜諾斯艾利斯舉行的國(guó)際人工智能聯(lián)合大會(huì)上遞交。該信警告說(shuō),繼火藥與核武器的發(fā)明之后,可以獨(dú)立確定和襲擊目標(biāo)且不需人類(lèi)進(jìn)行任何干預(yù)的武器系統(tǒng)的開(kāi)發(fā),將會(huì)帶來(lái)“第三次戰(zhàn)爭(zhēng)革命”。

      它描繪了未來(lái)沖突的可怕情形,類(lèi)似于系列電影《終結(jié)者》中的場(chǎng)景。

      該信說(shuō):“對(duì)于執(zhí)行暗殺、破壞國(guó)家穩(wěn)定、征服民眾或選擇性殺死特定民族等任務(wù),自主式武器是理想選擇!

      “因此,我們認(rèn)為,人工智能軍備競(jìng)賽對(duì)人類(lèi)而言是無(wú)益的。人工智能可以讓?xiě)?zhàn)場(chǎng)變得對(duì)人類(lèi)——尤其平民——而言更安全的方式有許多種,不用創(chuàng)造新的殺人工具!

      聯(lián)合國(guó)也擔(dān)心其所謂的“致命性自主式武器”的開(kāi)發(fā),以至于它去年召開(kāi)了有史以來(lái)第一次此類(lèi)會(huì)議,討論新科技帶來(lái)的風(fēng)險(xiǎn)。

      加利福尼亞大學(xué)伯克利分校的人工智能領(lǐng)域?qū)<、該信的署名者之一斯圖爾特·拉塞爾之前曾警告說(shuō),機(jī)器人武器系統(tǒng)可能使得人類(lèi)“毫無(wú)防御能力”。

      該信是今年第二封猛烈抨擊將人工智能引入到戰(zhàn)場(chǎng)上的信。不過(guò),在呼吁禁止這些武器系統(tǒng)方面,這封最新的請(qǐng)?jiān)笗?shū)強(qiáng)硬有力得多。該信是由生命未來(lái)研究所協(xié)調(diào)寫(xiě)成的。

      生命未來(lái)研究所是由包括Skype公司合伙創(chuàng)始人揚(yáng)·塔林在內(nèi)的眾多志愿者于2014年創(chuàng)建的。馬斯克和霍金均是該研究所科學(xué)顧問(wèn)委員會(huì)的成員。

      自主式殺人機(jī)器人的想法對(duì)許多軍方人士而言具有吸引力,因?yàn)樗鼈兲峁┝酥匾膶?duì)敵優(yōu)勢(shì),其部署不會(huì)令本國(guó)部隊(duì)的任何人處于危險(xiǎn)中,而且長(zhǎng)期來(lái)看,比起必須支持和保護(hù)人員的先進(jìn)武器,如戰(zhàn)斗機(jī),它們的成本應(yīng)該更加低廉。

      五角大樓是機(jī)器人研究的最大支持者之一。2013年,其智庫(kù)之一海軍研究處發(fā)給塔夫茨大學(xué)、布朗大學(xué)、倫斯勒理工學(xué)院、喬治敦大學(xué)和耶魯大學(xué)等多所大學(xué)的研究人員一筆研究經(jīng)費(fèi),高達(dá)750萬(wàn)美元,讓其研究如何能教會(huì)自主式機(jī)器人分辨對(duì)錯(cuò)。

      西方軍事規(guī)劃者擔(dān)心,如果他們沒(méi)能致力于研究這一技術(shù),那么他們可能會(huì)將新一輪軍備競(jìng)賽的領(lǐng)導(dǎo)權(quán)讓給潛在對(duì)手,比如中國(guó)。

    編輯:李杰

    相關(guān)新聞

    圖片