比機(jī)器人還危險!禁止人工智能武器迫在眉睫
智能武器的危險之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無辜的機(jī)器。 |:SBkM, |?n=~21"1O 最近一段時間,很多知名人士都對人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認(rèn)為機(jī)器人有朝一日將會控制人類。這種說法其實(shí)并不合理,至少在短期內(nèi)不合理。但是,人工智能武器所蘊(yùn)含的危險,也確實(shí)不是那種常規(guī)的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應(yīng)獲得大家的聲援。 7a Fvj
[attachment=65080] )cnB>Qul 迫在眉睫的危險 woJO0hHR s5T$>+
a 從谷歌無人駕駛汽車的身上,我們可以一瞥人工智能的未來。現(xiàn)在你試想一下:一個兇惡的黑社會團(tuán)伙偷走了一輛這樣的車,在其頂端加裝了一門火炮,然后給車輛重新編程,把炮口對準(zhǔn)公眾。如此一來,它就成為了一件人工智能武器。 *a*
|