“人工智能致人滅絕”或非危言聳聽
2015-05-15 15:28:55 來源:漢網(wǎng)

據(jù)聯(lián)合早報(bào)網(wǎng)報(bào)道,人類在下個(gè)世紀(jì)可能面臨人工智能機(jī)器人的大規(guī)模崛起,這些機(jī)器人的智力甚至可能超過人類。英國(guó)史蒂芬·霍金教授稱,與其擔(dān)心誰來控制人工智能的問題,人類更應(yīng)該擔(dān)心的是,人工智能到底愿不愿意受人類控制。(5月14日 人民網(wǎng))

第一次聽人工智能這個(gè)詞,還是在我讀初中的時(shí)候。后來才慢慢明白,人工智能不僅僅是指智能機(jī)器人,從人行道紅綠燈到自動(dòng)電梯,從搜索引擎、社交網(wǎng)絡(luò)、用戶終端到航空、航海、航天的控制系統(tǒng),人工智能的影子在我們的生產(chǎn)生活中如影隨形,無處不在。

現(xiàn)在,人工智能技術(shù)正愈加得到全世界互聯(lián)網(wǎng)巨頭的青睞,成為衡量科技創(chuàng)新能力的重要標(biāo)志。盡管人類大腦將生物秘密隱藏得還很深,但是“得人工智能者得天下”已成為不爭(zhēng)的事實(shí)。在今年“兩會(huì)”的政府工作報(bào)告中,以人工智能技術(shù)為重要支撐的“互聯(lián)網(wǎng)+”正式被納入頂層設(shè)計(jì),成為國(guó)家經(jīng)濟(jì)社會(huì)發(fā)展的重要戰(zhàn)略。

人工智能技術(shù)之前的發(fā)展,對(duì)人類的生產(chǎn)成活確實(shí)帶來了極大的幫助,人們?yōu)橹畾g呼雀躍,為之美好前景充滿期待。但包括人工智能在內(nèi)的科學(xué)技術(shù),本身就是一把雙刃劍,物極必反,一旦過度開發(fā),或許預(yù)示著將會(huì)給人類帶來災(zāi)難。

據(jù)外媒報(bào)道,著名物理學(xué)家史蒂芬·霍金日前在參加一場(chǎng)活動(dòng)時(shí)表示,當(dāng)你為人工智能的飛速發(fā)展而歡呼雀躍時(shí),這或許對(duì)人類歷史并不是什么好事。人類更應(yīng)該擔(dān)心的是,在人類無休止地開發(fā)人工智能技術(shù)的同時(shí),發(fā)展到一定程度,其是否還能受到人類控制。人工智能可能可能是人類歷史上最重大的事件,但不幸的是,也可能是最后一件,它會(huì)導(dǎo)致人類的滅亡。

不僅僅是史蒂芬·霍金,包括微軟創(chuàng)始人比爾.蓋茨、特斯拉創(chuàng)始人埃隆.馬斯克等許多名人,都表達(dá)過類似于霍金對(duì)人工智能技術(shù)發(fā)展前景的擔(dān)憂。如果你還覺得不太明白,可以回頭看一下原子彈的發(fā)展歷史,或許我們能夠受到一些啟發(fā)。

在二戰(zhàn)中期,為了威懾法西斯國(guó)家,為了早日結(jié)束戰(zhàn)爭(zhēng)、維護(hù)和平,人們研究發(fā)明了原子彈。作為推動(dòng)美國(guó)原子彈研究的第一人,當(dāng)愛因斯坦得知日本廣島遭原子彈轟炸的消息時(shí),感到極度震驚。直到去世之前,愛因斯坦都在利用一切機(jī)會(huì)呼吁美國(guó)不要把科學(xué)的發(fā)現(xiàn)變成殺人武器,并號(hào)召全世界科學(xué)家團(tuán)結(jié)起來反對(duì)核戰(zhàn)爭(zhēng)。包括愛因斯坦在內(nèi)的、那些曾經(jīng)參與或關(guān)注過原子彈研究和制造的科學(xué)家們,都對(duì)此表示一種深深的懺悔和自責(zé)。

人工智能與原子彈的不同之處在于,原子彈本身就是一種武器,人們研發(fā)原子彈是不得以而為之;而人工智能出誕生之日開始就被人寄予美好的希望,人們至今為止都一直是在積極主動(dòng)、樂此不疲地推動(dòng)其往前發(fā)展。原子彈充其量只是人類的武器,可以安全接受人類思維的控制;人工智能的實(shí)質(zhì)則是人的思維能力機(jī)器化。若有一天,機(jī)器人真的無節(jié)制發(fā)展到擁有自我思維能力的高級(jí)階段,其后果很可能是人類種群的整體滅絕,其災(zāi)難性后果遠(yuǎn)遠(yuǎn)非原子彈所能比擬。(霍計(jì)武)
 

  • 為你推薦
  • 公益播報(bào)
  • 公益匯
  • 進(jìn)社區(qū)

熱點(diǎn)推薦

即時(shí)新聞

武漢