女人18毛片A级毛片成年-人与动人物特级av片在线观看-亚洲成av人片不卡无码-欧美性爱人妻一二三区性爱

避雷器 | 
打鈴儀 |  警示燈 |  電笛 |  電鈴 | 
航空插頭 |  插頭 |  排插板 | 
連接片 | 
新聞中心

人工智能毀滅人類的能力是什么?

DQZHAN訊:人工智能毀滅人類的能力是什么?
近日,“人工智能可能比核**還要危險(xiǎn)。”特斯拉老板埃倫•馬斯克在**上發(fā)文預(yù)警,他認(rèn)為,超級(jí)智能計(jì)算機(jī)將很有可能消滅人類。

什么樣的機(jī)器人才是有危險(xiǎn)的人工智能?英國(guó)代碼破譯者、計(jì)算機(jī)先驅(qū)阿蘭•圖靈設(shè)計(jì)了一個(gè)甄別實(shí)驗(yàn):一臺(tái)計(jì)算機(jī)和一個(gè)人做競(jìng)賽,說(shuō)服一個(gè)看不到它們的觀察者,使其相信自己才是真正的人類。當(dāng)機(jī)器人至少把半數(shù)觀察者蒙騙了,才算通過(guò)了測(cè)試。目前,尚無(wú)一臺(tái)計(jì)算機(jī)接近于通過(guò)測(cè)試。但圖靈也指出,當(dāng)超級(jí)智能通過(guò)圖靈測(cè)試時(shí),人類的報(bào)應(yīng)就來(lái)到了。

根據(jù)維基百科中的解釋,人類所擔(dān)心的智能機(jī)器人是能夠像人一樣思考、行動(dòng)、理性地思考和理性地行動(dòng)。這里行動(dòng)應(yīng)廣義地理解為采取行動(dòng),或制定行動(dòng)的決策,而不是肢體動(dòng)作。而且它們具有有知覺(jué)和自我意識(shí)。

人工智能對(duì)人類的毀滅能力是什么?牛津大學(xué)人類未來(lái)研究所的研究人員給出了解釋,人工智能不是像核**一樣消滅人類,而是會(huì)逐步取代人類,真正可怕的是它們的智力。它們將比人類更聰明、更擅長(zhǎng)社交、更有工作能力,假如一個(gè)超級(jí)機(jī)器人走進(jìn)一個(gè)酒吧,它比人類更能吸引男人、女人,那時(shí)它們才真的可怕。

首先在技術(shù)上,具有人工智能的機(jī)器人將使得人類全部失業(yè)。只要對(duì)某技能的人復(fù)制一百次,就能復(fù)制出一百個(gè)具有此能力的機(jī)器人,那么在一百個(gè)行業(yè)里就會(huì)擁有一萬(wàn)名**員工,這也許一個(gè)星期就能訓(xùn)練完成,只要愿意還可以復(fù)制得更多,成千上萬(wàn)……如果它們真的是超人,性能肯定比描述的更強(qiáng)。這樣一來(lái),人工智能幾乎可以代替任何人,包括各類專業(yè)人員。

人工智能毀滅人類的能力是什么?

牛津大學(xué)哲學(xué)教授尼克•博斯特倫(Nick Bostrom)與詹姆斯•巴拉特(James Barrat)。

《超級(jí)智能:方法、危險(xiǎn)、戰(zhàn)略》和《我們*后的發(fā)明:人工智能及人類時(shí)代的終結(jié)》兩本書的作者牛津大學(xué)哲學(xué)教授尼克•博斯特倫(Nick Bostrom)與詹姆斯•巴拉特(James Barrat)認(rèn)為,“現(xiàn)在我們?nèi)祟惥拖褚蝗簲[弄著一顆危險(xiǎn)炸彈的無(wú)知孩童。”即便是出于好意而創(chuàng)造的人工智能,它仍有犯下種族滅絕罪行的傾向。

詹姆斯•巴拉特認(rèn)為:“如果沒(méi)有小心謹(jǐn)慎的制衡指令,一個(gè)有著自我意識(shí)、不斷自我完善并追尋目標(biāo)的系統(tǒng)將發(fā)展到在我們看來(lái)非?;闹嚨某潭?,以完成它的目標(biāo)。”

不論如何,未來(lái)對(duì)于人工智能的制造,一定要將不得傷害人類設(shè)定為其*重要的行事規(guī)則。美國(guó)科幻小說(shuō)家艾薩克•阿西莫夫(Isaac Asimov)在他的機(jī)器人相關(guān)小說(shuō)中為機(jī)器人設(shè)定了行為準(zhǔn)則,也就是機(jī)器人三定律(Three Laws of Robotics)——

法則一,也是*為重要的一條法則:機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害;

法則二,機(jī)器人必須服從人類的命令,除非違背**法則;

法則三,在不違背**及**法則的前提下,機(jī)器人必須保護(hù)自己。

執(zhí)教于印第安納大學(xué)等學(xué)術(shù)機(jī)構(gòu)的認(rèn)知科學(xué)教授道格拉斯•郝夫斯臺(tái)特(Douglas Hofstadter)在其《哥德爾、艾舍爾、巴赫——集異璧之大成 》一書中稱,在獲取知識(shí)的過(guò)程中,計(jì)算機(jī)必須以和人類差不多的方式整合知識(shí)。

不管這個(gè)愿望在人類追逐利益的沖動(dòng)面前是多么無(wú)力,但對(duì)人工智能的擔(dān)心是顯然的。

人工智能毀滅人類的能力是什么?
谷歌公司的工程總監(jiān)雷•庫(kù)茲威爾(Ray Kurzwell)。




那么,這**何時(shí)到來(lái),谷歌公司的工程總監(jiān)雷•庫(kù)茲威爾(Ray Kurzwell)認(rèn)為,到2029年時(shí),計(jì)算機(jī)將變得比人類更智能。不過(guò),稍微令人安慰的是,他在《靈魂機(jī)器時(shí)代》(The Age of Spiritual Machines)中稱,人工智能還是會(huì)受制于人類。

百度CEO李彥宏對(duì)人工智能的發(fā)展速度同樣樂(lè)觀,他在今年上半年透露,“百度內(nèi)部有一個(gè)項(xiàng)目叫做‘百度大腦’,它現(xiàn)在的智力水平相當(dāng)于兩到三歲孩子的水平。隨著計(jì)算成本的飛速下降和計(jì)算能力的飛速提升,我們完全可以想象有**電腦可以越來(lái)越接近人腦的智力。”

滬公網(wǎng)安備 31010102004818號(hào)