研究發(fā)現(xiàn),人工智能實際上并不對人類構成生存威脅
科幻小說中充斥著人工智能變得流氓并轉向他們的人類創(chuàng)造者。HAL-9000型。矩陣。天網。GLaDOS的。賽昂人。人類似乎對機器的反叛有著深深的恐懼。
隨著越來越復雜的大型語言模型 (LLM) 的興起,例如 Chat GPT,以下問題人工智能可能帶來哪些危險有變得更有針對性.
現(xiàn)在,我們有一些好消息。根據(jù)德國達姆施塔特工業(yè)大學的計算機科學家Iryna Gurevych和英國巴斯大學的Harish Tayyar Madabushi領導的一項新研究,這些模型無法流氓。
事實上,他們的編程限制太強了,沒有指導就無法獲得新技能,因此仍然在人類的控制之下。
這意味著,盡管我們仍然有可能將這些模型用于惡意目的,但就其本身而言,LLM 可以安全地開發(fā)而不必擔心。
“人們擔心的是,隨著模型越來越大,它們將能夠解決我們目前無法預測的新問題,這構成了這些大型模型可能獲得包括推理和計劃在內的危險能力的威脅。Tayyar Madabushi 說.
“我們的研究表明,擔心一個模型會消失并做一些完全出乎意料的、創(chuàng)新的和有潛在危險的事情是站不住腳的。
在過去的幾年里,LLM 的復雜性已經發(fā)展到了驚人的程度。他們現(xiàn)在能夠通過文本進行相對連貫的對話,以一種自然和人性化的方式。
他們并不完美——因為他們實際上不是一種智力形式,他們缺乏這關鍵技能需要從壞信息中解析好信息在許多情況下.但他們仍然可以以令人信服的方式傳達不良信息。
最近,一些研究人員已經調查了可能性什么被稱為緊急能力由 LLM 獨立開發(fā),而不是在其編程中故意編碼。一個特別的例子是法學碩士,它是能夠回答問題關于社交場合,而沒有接受過關于這些情況的明確培訓。
觀察結果是,隨著LLM的規(guī)模擴大,它們會變得更加強大,并且可以執(zhí)行更多的任務。目前尚不清楚這種規(guī)模是否也意味著我們可能沒有準備好應對的行為風險。因此,研究人員進行了一項調查,以查看此類實例是否真的緊急出現(xiàn),或者該程序只是在其代碼范圍內以復雜的方式運行。
他們試驗了四種不同的LLM模型,為它們分配了具有以前被確定為緊急.他們沒有發(fā)現(xiàn)任何證據(jù)表明差異化思維的發(fā)展,也沒有發(fā)現(xiàn)任何模型能夠在他們的編程之外發(fā)揮作用。
對于所有四個模型,遵循指示、記憶和語言熟練程度的能力能夠解釋 LLM 表現(xiàn)出的所有能力。沒有離開滑雪道。我們沒有什么可害怕的,LLMs本身。
另一方面,人們,不太值得信賴.我們自己對人工智能的爆炸性使用,需要更多的能量并挑戰(zhàn)從版權到信任,再到如何避免自己的一切數(shù)字污染,這正在成為一個真正的問題。
“我們的研究結果并不意味著人工智能根本不構成威脅,”古列維奇 說.
“相反,我們表明,與特定威脅相關的復雜思維技能的出現(xiàn)并沒有得到證據(jù)的支持,而且我們畢竟可以很好地控制LLM的學習過程。因此,未來的研究應該關注這些模型帶來的其他風險,例如它們可能被用來產生假新聞。
該研究已作為會議記錄的一部分發(fā)表第62屆計算語言學協(xié)會年會.