亚洲五月天综合_欧美丰满熟妇xxxx性ppx人交_77777_亚洲午夜久久多人_国产a三级久久精品_无码日韩精品一区二区人妻

機器人逐漸有了意識會有什么后果

機器人逐漸有了意識會有什么后果

  對人類來說,我們在電影里??吹降慕┦屯庑侨丝赡懿⒉皇鞘裁凑嬲嬖诘耐{,但我們卻不能忽視另一種經(jīng)常在電影里看到的反派人物,那就是有意識的機器人。他們的到來可能只是時間問題。但是,當真正的有意識機器人出現(xiàn)時,世界會變成什么樣呢?到那時,人類還有生存空間嗎?

  近幾年,人工智能的研究領(lǐng)域在經(jīng)歷著一場革命?,F(xiàn)在,人工智能系統(tǒng)可以在圍棋上勝過人類,在識別人臉,安全駕駛等領(lǐng)域都有非凡的成果。大多數(shù)研究人員認為,真正有意識的機器人(不只是運行固定程序程序,而是有情感和自我意識的機器)或許還有幾十年的時間就會出現(xiàn)。機器需要學習推理能力,和強大的泛化能力,才能學習更多的知識。只有機器擁有這樣的能力后,人工智能才能達到掌握意識所需的復(fù)雜程度。

  但一些人認為,并不用幾十年那么久,我們或許很快就能看到有意識的機器人出現(xiàn)。

  德克薩斯大學的計算機科學家賈斯汀哈特說:“人們認為自我意識將成為人工智能的終極游戲,而實際上,沒有任何的科學追求是從終極目標入手來進行研究的。”賈斯汀和其他研究人員已經(jīng)在研究具有基本思想的機器人。他們設(shè)計了如同新生嬰兒一樣的機器人,機器人能夠?qū)W習理解自己的身體構(gòu)造,看到新的事物會呀呀亂叫,而當人類碰到它時機器人會哭泣,這都像新生嬰兒的行為。這些機器人已經(jīng)開始探索自己的世界。

  機器人沒有內(nèi)在的情感體驗,它們不會因為地板拖得干凈而自豪,也不會因為身體流過120伏特的電流而開心。但是,機器人現(xiàn)在可以學習一些類似人類擁有的品質(zhì),包括同理心、適應(yīng)能力和進取心。

  不再沉迷于創(chuàng)造很酷的機器人,研究人員開始研究擁有控制論(Cybernetic,控制論是研究各類系統(tǒng)的調(diào)節(jié)和控制規(guī)律的科學)系統(tǒng)的機器人,試圖解決機器學習系統(tǒng)長期以來的缺陷。機器學習系統(tǒng)或許功能很強大,但它們卻是不透明的。它們的工作原理就是將輸入關(guān)聯(lián)到輸出,這就像在“A”和“B”欄中做匹配連線一樣,人工智能系統(tǒng)基本記住了這些關(guān)聯(lián)關(guān)系,他們給出的答案背后沒有更深層次的邏輯。這一直是機器學習系統(tǒng)存在的問題。

  人類是很難讀懂的物種。我們花了大量的時間來分析自己和他人,可以說,這是我們的意識思維在起作用。如果機器也有思想,它們可能就不會那么神秘了,如果我們想要了解機器,就可以直接問他們。

  位于紐約州特洛伊的倫斯勒理工學院的人工智能研究人員SelmerBringsjord說,“如果我們能理解一些人類大腦意識的結(jié)構(gòu),我們就能夠讓機器學習一些有趣的能力。”盡管科幻小說會讓人類懼怕有意識的機器人,但其實,即使是暫時無意識的機器人,我們也需要小心謹慎,而有意識的機器人則可能會成為我們的盟友。

  如今,自動駕駛汽車擁有一些最先進的人工智能系統(tǒng)。它們決定車輛駛向何方,決定何時剎車,通過持續(xù)的雷達和激光探測來收集數(shù)據(jù),并將數(shù)據(jù)輸入到算法中。但自動駕駛技術(shù)希望在車輛駕駛時,車輛能自動演習和自主防御突發(fā)事故,這就是與意識相關(guān)的能力。

  巴塞羅那龐貝大學的神經(jīng)學家PaulVerschure說,“自動駕駛汽車需要推測出附近的自動駕駛車輛下一步的行為。”

  為了展示這一內(nèi)在原理,哥倫比亞大學的工程學教授HodLipson(HodLipson教授同時也是一本關(guān)于自動駕駛汽車的書的合著者)和韓國首爾世宗大學的kyung-joongKim進行了一個實驗,研發(fā)了一個“發(fā)瘋”的機器人司機。在實驗中,有一個小型的圓形機器人(大約相當于冰球的大小)按照自己的運動邏輯在一個環(huán)形軌道上移動。然后,這個“發(fā)瘋”的機器人司機總是要在第一個圓形機器人啟動時攔截它,因此“發(fā)瘋”機器人就無法按照固定的路線運動,它必須預(yù)測到第一個圓形機器人的運行軌跡。

  通過模仿達爾文進化理論,Lipson和Kim設(shè)計了一種攔截策略。Lipson說:“實驗的機器人基本上已經(jīng)發(fā)展了一個行為者的大腦,也許不夠完美,但已經(jīng)足夠讓它預(yù)測對方的行為了。”

  Lipson的團隊還設(shè)計了另外一個機器人,這個機器人可以對自己的身體構(gòu)造進行學習理解。這是一只四足蜘蛛的機器人,它的大小約相當于一只大狼蛛的大小。當蜘蛛機器人啟動后,其內(nèi)部程序沒有記錄任何關(guān)于自身的信息。Lipson說:“它不知道它的發(fā)動機是怎樣的構(gòu)造,也不知道身體的運動邏輯是如何設(shè)計的。”但它有學習的能力,它能觀察到自己發(fā)生的所有動作。例如,它能觀察自己是如何操作某個馬達來讓一條腿彎曲的。Lipson說:“就像一個嬰兒一樣,嬰兒是會亂動的。”“它以一種隨機的方式移動馬達。”

  四天后,這個蜘蛛機器人已經(jīng)意識到它有四條“腿”(馬達),并弄清楚了如何協(xié)調(diào)和移動才能讓自己滑過地板。當Lipson卸掉其中一個馬達時,機器人能夠意識到自己現(xiàn)在只有三條腿,因此原來的行為不會再產(chǎn)生預(yù)期的效果。

  Lipson說:“我認為這個機器人有一種非常原始的自我意識。”這是另一種類似人類的能力,是研究人員想要建立在人工智能的基礎(chǔ)上的。AlphaGo之所以能在圍棋之戰(zhàn)中脫穎而出,是因為人類研究人員引導機器贏得比賽。機器自己不能自己定義問題,因為定義問題通常是很困難的部分。

  一位神經(jīng)學家RyotaKanai和一家位于東京的創(chuàng)業(yè)公司的創(chuàng)始人即將發(fā)表一篇論文——“認知科學的趨勢”,他們在論文中討論了如何給機器內(nèi)在的動力。在一次演示中,他和他的同事展示了在虛擬環(huán)境中駕駛一輛汽車Agent,Agent需要攀爬一座陡峭的山,而這座山太過陡峭,只有在助跑的情況下才能爬上去。Aagent收到命令要爬上山時,它會想出辦法。在接到這個命令之前,Agent就一直閑置著。

  然后,Kanai的團隊給這些虛擬的Agent增加了“好奇心”機制。Agent勘測了山的地形,將登山視為一個待解決的問題,并且在沒有任何指示的情況下就找到了如何攀爬的方法。

  Kanai說:“我們沒有給Agent設(shè)定任何目標。”“Agent只是在自己探索環(huán)境,通過對自身行為的后果做出預(yù)測,來了解自己的處境。”關(guān)鍵是要給機器人足夠的內(nèi)在激勵,讓它們更好地解決問題,而不是讓它們選擇放棄,離開實驗室。機器可以像人類一樣固執(zhí)。JoschaBach是哈佛大學的人工智能研究員,他把虛擬機器人放進了“Minecraft”——Minecraft里堆滿了美味但有毒的蘑菇,Bach希望Agent能自己學會避免犯錯誤,如同在Minecraft里一樣,如果機器不知道避開有毒的蘑菇,就會吃下毒蘑菇而中毒。

  Bach說:“如同人類一樣,此刻的行為對未來會造成什么影響,機器并不在乎。”他們可能只是覺得這些蘑菇非常好吃,所以必須向機器灌輸一種天生的厭惡感。從某種意義上說,機器必須學會價值觀,而不僅僅是理解目標。

  除了自我意識和自我激勵之外,意識的一個關(guān)鍵功能是集中注意力。在人工智能研究領(lǐng)域,選擇性注意力一直是一個重要領(lǐng)域,AlphaGo的創(chuàng)造人谷歌DeepMind團隊在這一領(lǐng)域有深入研究。

  “意識是一種注意力過濾器。”孟菲斯大學計算機科學教授斯坦利富蘭克林說到。在去年發(fā)表在生物學上的認知結(jié)構(gòu)雜志上的一篇論文中,富蘭克林和他的同事們回顧了他們創(chuàng)造的一個名為LIDA的人工智能系統(tǒng),這一系統(tǒng)通過競爭機制來選擇出需要集中精力的地方,算法采納了20世紀80年代的神經(jīng)學家BernardBaars所提出的方法。競爭過程中機器系統(tǒng)會觀察一些有趣的刺激物——響亮的、明亮的、奇異的刺激物,然后這些刺激物爭奪主導地位。在競爭中勝利的刺激物,決定了人們的精神集中在哪里,隨后通知機器系統(tǒng)的“大腦”,告知“大腦”注意力應(yīng)該放在哪里,隨之告知更多的大腦功能,包括控制思考和運動的部分。感知、注意力和動作的循環(huán)每秒鐘重復(fù)5到10次。

  LIDA的第一個版本是美國海軍的工作匹配服務(wù)器。它會閱讀郵件,注意力集中在切題的郵件上——涉及求職者的興趣、工作的難度和政府官僚機構(gòu)的工作要求這一些郵件。

  從那以后,富蘭克林的團隊就利用這個系統(tǒng)來模擬動物的大腦,特別是那些每次只專注于一件事的行為習慣。例如,LIDA和人類一樣容易出現(xiàn)一種奇怪的心理現(xiàn)象,即“注意力盲點(attentionblink)”——當某件事吸引了你的注意力時,你會在大約半秒的時間里忘記其他事情。這個認知盲點取決于很多因素,而LIDA則表現(xiàn)出類似人類的反應(yīng)。

  一位芬蘭的人工智能研究人員PenttiHaikonen,根據(jù)類似的原則建立了一個名為XCR-1的機器人。Haikonen認為,他創(chuàng)造的XCR-1能夠擁有真正的主觀體驗和基本的情感。

  XCR-1機器人擁有聯(lián)想的能力,這與我們大腦中的神經(jīng)元非常相似。當我們展示了給XCR-1機器人一個綠色球,并對它說出“綠色”這個詞,那么XCR-1機器人的視覺和聽覺模塊會做出反應(yīng),將看到的綠色球和“綠色”這個詞聯(lián)系起來。如果Haikonen再次說“綠色”,那么XCR-1機器人的聽覺模塊將會做出反應(yīng),通過記錄的聯(lián)系,視覺模塊也會“回憶”起來“綠色”對應(yīng)的樣子,就如同它真正聽到了這個單詞,看到了它的顏色一樣。

  相反,如果機器人看到了綠色,它的聽覺模塊會做出反應(yīng),哪怕它沒有真正“說出”這個詞。簡而言之,機器人會產(chǎn)生一種聯(lián)覺(synesthesia)。

  Haikonen說:“如果我們看到一個球,我們可能會對自己說:喔,那是一個球!在那一刻,我們的感覺就如同我們真正聽到了這個詞一樣,但其實我們只是看到了它。”“xcr-1也是一樣的。”

  當聽覺和視覺模塊發(fā)生沖突時,事情會變得有趣。例如,當視覺模塊看到綠色,而聽覺模塊聽到“藍色”時,如果這時是聽覺模塊占了上風,那么整個系統(tǒng)就會把注意力轉(zhuǎn)移到它聽到的單詞上——“藍色”,而忽略了它所看到的顏色——綠色。機器人有一種簡單的意識流,它由一種瞬間支配的知覺組成:“綠色”、“球”、“藍色”等等。當Haikonen把聽覺模塊連接到一個語音引擎時,機器人會自己默默對自己說出它所看到和感覺的一切。

  Haikonen還將振動設(shè)為機器人的“痛點”,它可以搶占其他感官作為輸入,占據(jù)機器人的注意力。在一次演示中,Haikonen輕拍了機器人讓其針對,然后機器人就突然地說:“我受傷了”。

  Haikonen說:“因為某些原因,有些人會受到情感上的困,對這些作品并不感冒,認為這是不好的機器人。”

  基于早期的努力,研究人員將開發(fā)出更逼真的機器人。我們可以看到意識系統(tǒng)的連續(xù)統(tǒng)一體,就像自然界中存在的一樣,從單細胞生物、狗到黑猩猩,再到人類和其他物種。這項技術(shù)的逐步發(fā)展是好的,因為它給了我們時間來適應(yīng):未來有一天,我們不再是地球上唯一的先進生物。

  在很長一段時間里,我們創(chuàng)造的人工智能機器很脆弱,與其說它們會威脅到人類,不如說是我們創(chuàng)造出來的新寵物。如何對待它們,將取決于我們是否意識到他們是有意識的,機器是否有能力忍受痛苦。

  康涅狄格大學的哲學家蘇珊施耐德說:“我們之所以重視非人類的動物,是因為我們在他們身上看到了意識的存在,就像人類自己也是基于我們自己的意識存在的。”蘇珊施耐德研究人工智能的含義。事實上,她認為我們故意不去創(chuàng)造有意識的機器,以避免它所造成的道德困境。

  施耐德說,“如果你在創(chuàng)造有意識的機器人系統(tǒng),讓它們?yōu)槲覀児ぷ?,這就很像是在實行奴隸制度。”出于同樣的原因,如果我們不賦予先進的機器人感知能力,機器人對人類的威脅可能是更嚴重的,因為沒有意識的機器人不會自己思考,它們無法思考出任何理由要和人類站在同一立場,承認并珍視人類。

  從我們目前所看到的情況來看,有意識的機器將會繼承人類的弱點。如果機器人必須預(yù)測其他機器人的行為,它們就會把彼此當作有組織的生物來對待。像我們一樣,他們可能會開始認識一些無生命的物體:雕塑動物、雕像和風。

  去年,北卡羅來納大學的社會心理學家?guī)焯馗窭缀虳anielWegner在他們的“心靈俱樂部”中提出,這種本能是宗教的起源。Verschure說:“我期待電影中出現(xiàn)機器人自己發(fā)展的宗教,因為我們已經(jīng)為它們設(shè)計了意識偏好,讓它們成為社會的一部分。”“但他們的意識偏好可能先起作用了。”

  這些機器將大大超出我們解決問題的能力,但并非所有事情都是可以解決的問題。他們可能會沉迷于自己的意識體驗中,隨著機器人感官感知范圍的擴大,他們會看到一些人類并不相信的東西。

  Lipson說:“我不認為未來的機器人物種會像我們想的那樣冷酷無情。”“他們可能會有我們永遠無法理解的音樂和詩歌。”

澳博機器人微信公眾號
掃一掃
分享到朋友圈
或者
手機上繼續(xù)看