老司机午夜精品_国产精品高清免费在线_99热点高清无码中文字幕_在线观看国产成人AV天堂_中文字幕国产91


首頁 -> 登錄 -> 注冊 -> 回復(fù)主題 -> 發(fā)表主題
光行天下 -> 軍事天下 -> 比機(jī)器人還危險!禁止人工智能武器迫在眉睫 [點(diǎn)此返回論壇查看本帖完整版本] [打印本頁]

skype 2015-08-29 23:38

比機(jī)器人還危險!禁止人工智能武器迫在眉睫

智能武器的危險之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無辜的機(jī)器。 |:SBkM,  
|?n=~21"1O  
最近一段時間,很多知名人士都對人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認(rèn)為機(jī)器人有朝一日將會控制人類。這種說法其實(shí)并不合理,至少在短期內(nèi)不合理。但是,人工智能武器所蘊(yùn)含的危險,也確實(shí)不是那種常規(guī)的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應(yīng)獲得大家的聲援。 7a Fvj  

[attachment=65080]
)cnB>Qul  
迫在眉睫的危險 woJO0hHR  
s5T$>+ a  
從谷歌無人駕駛汽車的身上,我們可以一瞥人工智能的未來。現(xiàn)在你試想一下:一個兇惡的黑社會團(tuán)伙偷走了一輛這樣的車,在其頂端加裝了一門火炮,然后給車輛重新編程,把炮口對準(zhǔn)公眾。如此一來,它就成為了一件人工智能武器。 *a*