AI 聊天機器人具有政治偏見,可能會在不知不覺中影響社會

人工智能發(fā)動機動力大型語言模型(LLM) 正在成為一種越來越容易獲得答案和建議的方式,盡管已知種族性別偏見.

一項新的研究發(fā)現(xiàn)了強有力的證據(jù)表明,我們現(xiàn)在可以將政治偏見添加到該列表中,進一步證明了新興技術(shù)在不知不覺甚至可能惡意地影響社會價值觀和態(tài)度的潛力。

來自新西蘭奧塔哥理工學院的計算機科學家 David Rozado 提出了這項研究,并提出了關(guān)于我們?nèi)绾问艿綑C器人影響的問題依賴信息.

Rozado 運行了 11 份標準的政治問卷,例如政治指南針測試在 24 個不同的 LLM 上,包括 OpenAI 的 ChatGPT 和谷歌開發(fā)的 Gemini 聊天機器人,發(fā)現(xiàn)所有模型的平均政治立場并不接近中立。

LLM 被證明是學習的。(羅扎多,公共科學圖書館一號, 2024)

“當用各種政治取向測試進行評估時,大多數(shù)現(xiàn)有的 LLM 都顯示出中間偏左的政治偏好,”羅扎多。

平均左傾偏見并不強烈,但很重要。對自定義機器人(用戶可以微調(diào) LLM 訓練數(shù)據(jù))的進一步測試表明,這些 AI 可能會受到影響以表達政治傾向使用中間偏左或中間偏右的文本。

Rozado 還研究了 GPT-3.5 等基礎(chǔ)模型,對話式聊天機器人就是基于這些模型。這里沒有證據(jù)表明存在政治偏見,盡管沒有聊天機器人前端,很難以有意義的方式整理回復。

使用 Google推送 AI 答案對于搜索結(jié)果,我們中的更多人轉(zhuǎn)向 AI 機器人獲取信息,擔心我們的思維可能會受到返回給我們的回復的影響。

“隨著 LLM 開始部分取代搜索引擎和維基百科等傳統(tǒng)信息來源,LLM 中嵌入的政治偏見的社會影響是巨大的,”Rozado 在他發(fā)表的論文中。

目前尚不清楚這種偏見是如何進入系統(tǒng)的,盡管沒有跡象表明它是 LLM 開發(fā)人員故意植入的。這些模型是在大量在線文本上訓練的,但混合中的左學習與右學習材料的不平衡可能會產(chǎn)生影響。

Rozado 說,ChatGPT 訓練其他模型的主導地位也可能是一個因素,因為機器人已經(jīng)以前已顯示在政治觀點方面處于中間偏左的位置。

基于 LLM 的機器人本質(zhì)上是使用概率來弄清楚哪個單詞應(yīng)該在他們的回答中跟在另一個單詞之后,這意味著它們經(jīng)常不準確甚至在考慮不同類型的偏見之前,他們就說了什么。

盡管谷歌、Microsoft、Apple 和 Meta 等科技公司急于將 AI 聊天機器人推向我們,但也許現(xiàn)在是我們重新評估我們應(yīng)該如何使用這項技術(shù)的時候了——并優(yōu)先考慮 AI真的可以有用.

“批判性地審查和解決 LLM 中嵌入的潛在政治偏見至關(guān)重要,以確保在回復用戶查詢時平衡、公平和準確地表示信息,”羅扎多。

該研究已發(fā)表在公共科學圖書館一號.

寶寶起名

本站所有相關(guān)知識僅供大家參考、學習之用,部分來源于互聯(lián)網(wǎng),其版權(quán)均歸原作者及網(wǎng)站所有,如無意侵犯您的權(quán)利,請與小編聯(lián)系,我們將會在第一時間核實并給予反饋。
相關(guān)期刊推薦
湖北農(nóng)機化

湖北農(nóng)機化

農(nóng)業(yè)基礎(chǔ)科學 - 省級期刊

技術(shù)與創(chuàng)新管理

技術(shù)與創(chuàng)新管理

合作期刊 - 省級期刊

寫真地理

寫真地理

合作期刊 - 省級期刊

大觀

大觀

中國語言文字 - 省級期刊

科技傳播

科技傳播

合作期刊 - 國家級期刊

明日風尚

明日風尚

合作期刊 - 省級期刊

畜禽業(yè)

畜禽業(yè)

合作期刊 - 省級期刊

課外語文

課外語文

合作期刊 - 省級期刊

科技創(chuàng)新導報

科技創(chuàng)新導報

信息科技 - 國家級期刊

新智慧

新智慧

合作期刊 - 國家級期刊

人力資源管理

人力資源管理

企業(yè)經(jīng)濟 - 省級期刊