人工智能可以解釋為什么我們沒有遇到任何外星人,Wild Study提出
人工智能正在以成千上萬種不同的方式感受到它的存在。它幫助科學家理解大量數(shù)據(jù);它有助于檢測金融欺詐;它駕駛著我們的汽車;它為我們提供音樂建議;它的聊天機器人讓我們發(fā)瘋。而這才剛剛開始。
我們是否能夠理解人工智能將繼續(xù)發(fā)展的速度?如果答案是否定的,那是否構成了大過濾器?
這費米悖論是先進文明存在的明顯高可能性與完全缺乏它們確實存在的證據(jù)之間的差異。對于為什么存在這種差異,已經(jīng)提出了許多解決方案。其中一個想法是”偉大的過濾器.'
大過濾器是一種假設的事件或情況,它阻止智能生命成為星際和星際,甚至導致其消亡。想氣候變化,核戰(zhàn)爭,小行星罷工、超新星爆炸、瘟疫或盜賊災難性事件畫廊中的任何其他事物。
或者人工智能的快速發(fā)展呢?
一篇新論文宇航學報探討了人工智能成為人工超級智能 (ASI) 以及 ASI 是大過濾器的想法。這篇論文的標題是”人工智能是使先進技術文明在宇宙中變得罕見的大過濾器嗎?“ 作者是曼徹斯特大學物理與天文學系的邁克爾·加勒特。
一些人認為大過濾器阻止了像我們這樣的技術物種成為多行星。這很糟糕,因為一個物種只有一個家,面臨更大的滅絕或停滯風險。根據(jù)加勒特的說法,一個物種在沒有備用行星的情況下與時間賽跑。
“有人提出,在這些文明能夠發(fā)展出穩(wěn)定的多行星存在之前,就出現(xiàn)了這樣的過濾器,這表明技術文明的典型壽命(L)不到200年,”加勒特寫道。
如果屬實,這可以解釋為什么我們沒有檢測到技術特征或其他ETI(外星智能)的證據(jù)。關于我們自己的技術軌跡,這告訴我們什么?如果我們面臨 200 年的限制,如果是因為 ASI,那我們該何去何從?
加勒特強調(diào)“......迫切需要迅速建立地球上人工智能發(fā)展的監(jiān)管框架,并推動多行星社會的發(fā)展,以減輕這種生存威脅。
許多科學家和其他思想家說,我們正處于巨大變革的風口浪尖。人工智能才剛剛開始改變我們做事的方式;大部分轉型都是在幕后進行的。人工智能似乎準備消除數(shù)百萬人的工作崗位,當與機器人技術相結合時,這種轉變似乎幾乎是無限的。這是一個相當明顯的問題。
但還有更深層次、更系統(tǒng)性的擔憂。誰編寫算法?人工智能會以某種方式歧視嗎?幾乎可以肯定。相互競爭的算法會破壞強大的民主社會嗎?開放社會會保持開放嗎?ASI是否會開始為我們做決定,如果這樣做,誰來負責?
這是一棵不斷擴展的分支問題樹,沒有明確的終點。
斯蒂芬·霍金(RIP)有句名言,如果人工智能開始獨立進化,它可能會終結人類。
“我擔心人工智能可能會完全取代人類。如果人們設計計算機病毒,有人會設計出可以自我改進和復制的人工智能。這將是一種超越人類的新生命形式,“他告訴有線雜志在這一年里 2017.一旦人工智能能夠勝過人類,它就會成為 ASI。
霍金可能是發(fā)出有關人工智能警告的最知名的聲音之一,但他遠非唯一的一個。媒體上充斥著討論和警告,以及關于人工智能為我們所做的工作的文章。最令人震驚的警告說,ASI可能會流氓。有些人認為這是科幻小說,但加勒特不是。
“對人工超級智能(ASI)最終走向流氓的擔憂被認為是一個主要問題 - 在未來幾年內(nèi)與這種可能性作斗爭是該領域領導者日益增長的研究追求,”加勒特寫道。
如果人工智能沒有提供任何好處,那么這個問題就會容易得多。但它提供了各種好處,從改進的醫(yī)學成像和診斷到更安全的交通系統(tǒng)。政府的訣竅是讓利益蓬勃發(fā)展,同時限制損害。
“在國家安全和國防等領域尤其如此,在這些領域,負責任和道德的發(fā)展應該是最重要的,”加勒特寫道。
問題是我們和我們的政府沒有做好準備。從來沒有像人工智能這樣的東西,無論我們?nèi)绾螄L試將其概念化并理解其軌跡,我們都會感到匱乏。
如果我們處于這個位置,那么開發(fā)人工智能的任何其他生物物種也會處于這個位置。人工智能和ASI的出現(xiàn)可能是普遍的,使其成為大過濾器的候選者。
這就是ASI帶來的風險:它可能不再需要創(chuàng)造它的生物生命。
“在到達技術奇點,ASI系統(tǒng)將迅速超越生物智能,并以完全超過傳統(tǒng)監(jiān)督機制的速度發(fā)展,導致不可預見和意想不到的后果,這些后果不太可能與生物學利益或倫理保持一致,“Garrett解釋說。
ASI如何才能擺脫束縛它的討厭的生物生命?它可以設計一個致命的病毒,它可以抑制農(nóng)業(yè)糧食的生產(chǎn)和分配,它可以迫使核電站熔毀,它可能引發(fā)戰(zhàn)爭。
我們真的不知道,因為這都是未知的領域。幾百年前,制圖師會在世界上未開發(fā)的地區(qū)畫怪物,這就是我們現(xiàn)在正在做的事情。
如果這一切聽起來令人沮喪且不可避免,加勒特說事實并非如此。
到目前為止,他的分析是基于ASI和人類占據(jù)同一空間的。但是,如果我們能夠獲得多行星的地位,前景就會改變。
“例如,一個多行星生物物種可以利用不同星球上的獨立經(jīng)驗,使它們的生存策略多樣化,并可能避免行星文明面臨的單點失敗,”加勒特寫道。
如果我們能夠?qū)L險分散到圍繞多顆恒星的多個行星上,我們就可以緩沖自己免受ASI最壞結果的影響。
他寫道:“這種分布式的存在模式通過創(chuàng)造冗余,提高了生物文明對人工智能引發(fā)的災難的抵御能力。
如果未來人類占據(jù)的行星或前哨之一未能在ASI技術奇點中幸存下來,其他行星或前哨站可能會幸存下來。他們會從中吸取教訓。
多行星狀態(tài)甚至可能不僅僅是在ASI中幸存下來。它可以幫助我們掌握它。Garrett設想了這樣一種情況,即我們可以在控制AI的同時更徹底地進行實驗。想象一下,在一個孤立的小行星或矮行星上,人工智能聽命于我們,卻無法獲得逃離監(jiān)獄所需的資源。
“它允許在孤立的環(huán)境中研究先進人工智能的影響,而不會有全球毀滅的直接風險,”加勒特寫道。
但這里有一個難題。人工智能的發(fā)展正在加速進行,而我們成為多行星的嘗試卻沒有。
“人工智能的快速發(fā)展與空間技術的緩慢進步之間的差距是顯而易見的,”加勒特寫道。
不同之處在于,人工智能是計算和信息的,但太空旅行包含多個我們還不知道如何克服的物理障礙。我們自己的生物本性限制了太空旅行,但沒有這樣的障礙限制人工智能。
“雖然人工智能理論上幾乎可以在沒有物理限制的情況下提高自己的能力,”加勒特寫道,“但太空旅行必須應對能源限制、材料科學邊界和太空環(huán)境的嚴酷現(xiàn)實。
目前,人工智能在我們設定的約束范圍內(nèi)運行。但情況可能并非總是如此。我們不知道人工智能何時會成為ASI,或者即使它可以。但我們不能忽視這種可能性。這導致了兩個相互交織的結論。
如果加勒特是正確的,那么人類必須更加勤奮地進行太空旅行。這似乎很牽強,但知識淵博的人知道這是真的:地球不會永遠適合居住。如果我們不向太空擴張,人類將在這里死于我們自己的手或大自然的手。加勒特的 200 年估計只是給它打了一個感嘆號。一個重新強調(diào)在達到月亮和火星提供了一些希望。
第二個結論涉及立法和管理人工智能,在一個精神病患者可以控制整個國家并一心要發(fā)動戰(zhàn)爭的世界中,這是一項艱巨的任務。
“雖然行業(yè)利益相關者、政策制定者、個別專家和他們的政府已經(jīng)警告說,監(jiān)管是必要的,但建立一個全球可接受的監(jiān)管框架將具有挑戰(zhàn)性,”加勒特寫道。
挑戰(zhàn)幾乎無法形容它。人類的自相殘殺使這一切變得更加難以控制。此外,無論我們制定指南的速度有多快,ASI 的變化都可能更快。
“如果沒有實際的監(jiān)管,我們完全有理由相信,人工智能不僅會對我們的技術文明,而且會對所有技術文明的未來進程構成重大威脅,”加勒特寫道。
如果我們這樣做了,它可能會歸結為看似無聊和日常工作的事情:關于立法的爭吵。
“宇宙中智能和有意識生命的持久性可能取決于這種國際監(jiān)管措施和技術努力的及時和有效實施,”加勒特寫道。
湖北農(nóng)機化
農(nóng)業(yè)基礎科學 - 省級期刊
黨史博采
中國共產(chǎn)黨 - 省級期刊
低碳世界
合作期刊 - 國家級期刊
中國高新區(qū)
合作期刊 - 國家級期刊
電子元器件與信息技術
信息科技 - 國家級期刊
中國集體經(jīng)濟
合作期刊 - 國家級期刊
城市周刊
合作期刊 - 省級期刊
現(xiàn)代鹽化工
合作期刊 - 省級期刊
財經(jīng)界
合作期刊 - 國家級期刊
西部論叢
合作期刊 - 國家級期刊
試題與研究
合作期刊 - 省級期刊