一年前,ChatGPT開創(chuàng)性地開創(chuàng)了人工智能時代:它如何影響社會?
ChatGPT 于 2022 年 11 月 30 日推出,迎來了許多人所說的人工智能的突破之年.在發(fā)布后的幾天內(nèi),ChatGPT 就風(fēng)靡一時。
對話的截圖在社交媒體上滾雪球般越滾越大,ChatGPT 的使用量猛增,似乎連它的制造商 OpenAI 都感到驚訝。到 1 月,ChatGPT 每天有 1300 萬獨立訪問者,創(chuàng)下紀錄適用于消費者應(yīng)用程序增長最快的用戶群。
在這突破性的一年里,ChatGPT揭示了良好界面的力量和炒作的危險,并播下了一套新的人類行為的種子。
作為一名研究人員研究技術(shù)和人類信息行為,我發(fā)現(xiàn) ChatGPT 在社會中的影響力與技術(shù)本身一樣,來自人們?nèi)绾慰创褪褂盟?/p>
像 ChatGPT 這樣的生成式 AI 系統(tǒng)正變得越來越普遍。自 ChatGPT 發(fā)布以來,在演講、對話和文章中似乎必須提及 AI。
今天,OpenAI 聲稱每周有 1 億人使用 ChatGPT.
除了在家中與ChatGPT互動的人外,各級員工直至最高管理層企業(yè)正在使用 AI 聊天機器人。在科技領(lǐng)域,生成式人工智能被稱為自 iPhone 以來最大的平臺,于 2007 年首次亮相。
所有主要參與者正在做人工智能賭注和風(fēng)險投資人工智能初創(chuàng)公司正在蓬勃發(fā)展.
在此過程中,ChatGPT 引發(fā)了許多擔(dān)憂,例如它對假情報,欺詐,知識產(chǎn)權(quán)問題和歧視.在我的高等教育世界中,大部分討論都圍繞著作弊,這已成為這是我今年自己研究的重點.
ChatGPT 第一年的經(jīng)驗教訓(xùn)
ChatGPT 的成功首先說明了良好界面的力量。
十多年來,人工智能已經(jīng)成為無數(shù)日常產(chǎn)品的一部分,從Spotify和Netflix到Facebook和谷歌地圖。GPT 的第一個版本是支持 ChatGPT 的 AI 模型,可以追溯到 2018 年。甚至 OpenAI 的其他產(chǎn)品,例如 DALL-E,也沒有像 ChatGPT 發(fā)布后立即掀起波瀾。
正是基于聊天的界面掀起了人工智能的突破之年。
聊天有一些獨特的誘惑力。人類被賦予了語言,對話是人們相互交流和推斷智力的主要方式?;诹奶斓慕缑媸且环N自然的交互模式,也是人們體驗人工智能系統(tǒng)“智能”的一種方式。
ChatGPT 的巨大成功再次表明,用戶界面推動了技術(shù)的廣泛采用,從 Macintosh 到 Web 瀏覽器和 iPhone。設(shè)計造就不同。
同時,該技術(shù)的主要優(yōu)勢之一——生成令人信服的語言——使其非常適合產(chǎn)生虛假或誤導(dǎo)性信息。ChatGPT 和其他生成式 AI 系統(tǒng)使犯罪分子和宣傳人員更容易利用人類的弱點。
該技術(shù)的潛力助長欺詐和錯誤信息是監(jiān)管人工智能的關(guān)鍵理由之一。
在生成式人工智能的真正前景和危險,該技術(shù)也為炒作的力量提供了另一個案例研究。今年不乏關(guān)于人工智能將如何改變社會的方方面面以及如何技術(shù)的擴散是不可避免的.
ChatGPT并不是第一個被炒作為“下一件大事”的技術(shù),但它可能是獨一無二的,因為它同時被炒作為一種生存風(fēng)險。許多科技巨頭,甚至一些人工智能研究人員都警告說,存在以下風(fēng)險:超級智能人工智能系統(tǒng)興起并消滅人類,盡管我認為這些擔(dān)憂是牽強附會的。
媒體環(huán)境有利于炒作,而目前的風(fēng)險投資環(huán)境尤其進一步助長了人工智能的炒作。迎合人們的希望和恐懼是焦慮的秘訣,沒有任何明智決策的成分。
未來可能會發(fā)生什么
人工智能的閘門在2023年打開,但明年可能會帶來放緩。人工智能的發(fā)展很可能是滿足技術(shù)限制并遇到基礎(chǔ)設(shè)施障礙,例如芯片制造和服務(wù)器容量.同時人工智能監(jiān)管可能即將到來.
這種放緩應(yīng)該為人類行為規(guī)范的形成提供空間,無論是在禮儀方面,如何時何地使用 ChatGPT 在社會上是可以接受的,還是在有效性方面,比如何時何地使用 ChatGPT 最有用。
ChatGPT 和其他生成式 AI 系統(tǒng)將融入人們的工作流程,使工人能夠更快地完成某些任務(wù)并減少錯誤。就像人們學(xué)會“谷歌”獲取信息一樣,人類將需要學(xué)習(xí)使用生成式人工智能工具的新實踐。
但2024年的前景并不完全樂觀。它正在形成這是世界各地選舉的歷史性一年,人工智能生成的內(nèi)容幾乎肯定會被用來影響公眾輿論和煽動分裂。
Meta 可能有禁止在政治廣告中使用生成式人工智能,但這不太可能阻止 ChatGPT 和類似工具被用于創(chuàng)建和傳播虛假或誤導(dǎo)性內(nèi)容。
政治錯誤信息在社交媒體上傳播在2016之內(nèi)以及在2020之內(nèi),幾乎可以肯定生成式人工智能將在 2024 年繼續(xù)這些努力.即使在社交媒體之外,與 ChatGPT 和類似產(chǎn)品的對話本身可能成為錯誤信息的來源.
因此,每個人——無論是否使用 ChatGPT——在這項轟動一時的技術(shù)的第二年都必須學(xué)習(xí)的另一個教訓(xùn)是,當(dāng)涉及到各種數(shù)字媒體時要保持警惕。
蒂姆·戈里查納茲,信息科學(xué)助理教學(xué)教授,德雷塞爾大學(xué)
湖北農(nóng)機化
農(nóng)業(yè)基礎(chǔ)科學(xué) - 省級期刊
科學(xué)咨詢(科技管理)
合作期刊 - 省級期刊
喜劇世界
中國文學(xué) - 省級期刊
農(nóng)業(yè)開發(fā)與裝備
合作期刊 - 國家級期刊
低碳世界
合作期刊 - 國家級期刊
畜禽業(yè)
合作期刊 - 省級期刊
中國化工貿(mào)易
合作期刊 - 國家級期刊
商業(yè)故事
合作期刊 - 省級期刊
信息記錄材料
一般化學(xué)工業(yè) - 國家級期刊
中國資源綜合利用
合作期刊 - 省級期刊
農(nóng)家科技
農(nóng)業(yè)綜合 - 省級期刊