AI 聊天機器人具有政治偏見,可能會在不知不覺中影響社會
人工智能發(fā)動機動力大型語言模型(LLM) 正在成為一種越來越容易獲得答案和建議的方式,盡管已知種族和性別偏見.
一項新的研究發(fā)現(xiàn)了強有力的證據(jù)表明,我們現(xiàn)在可以將政治偏見添加到該列表中,進一步證明了新興技術(shù)在不知不覺甚至可能惡意地影響社會價值觀和態(tài)度的潛力。
來自新西蘭奧塔哥理工學院的計算機科學家 David Rozado 提出了這項研究,并提出了關(guān)于我們?nèi)绾问艿綑C器人影響的問題依賴信息.
Rozado 運行了 11 份標準的政治問卷,例如政治指南針測試在 24 個不同的 LLM 上,包括 OpenAI 的 ChatGPT 和谷歌開發(fā)的 Gemini 聊天機器人,發(fā)現(xiàn)所有模型的平均政治立場并不接近中立。
“當用各種政治取向測試進行評估時,大多數(shù)現(xiàn)有的 LLM 都顯示出中間偏左的政治偏好,”說羅扎多。
平均左傾偏見并不強烈,但很重要。對自定義機器人(用戶可以微調(diào) LLM 訓練數(shù)據(jù))的進一步測試表明,這些 AI 可能會受到影響以表達政治傾向使用中間偏左或中間偏右的文本。
Rozado 還研究了 GPT-3.5 等基礎(chǔ)模型,對話式聊天機器人就是基于這些模型。這里沒有證據(jù)表明存在政治偏見,盡管沒有聊天機器人前端,很難以有意義的方式整理回復。
使用 Google推送 AI 答案對于搜索結(jié)果,我們中的更多人轉(zhuǎn)向 AI 機器人獲取信息,擔心我們的思維可能會受到返回給我們的回復的影響。
“隨著 LLM 開始部分取代搜索引擎和維基百科等傳統(tǒng)信息來源,LLM 中嵌入的政治偏見的社會影響是巨大的,”寫Rozado 在他發(fā)表的論文中。
目前尚不清楚這種偏見是如何進入系統(tǒng)的,盡管沒有跡象表明它是 LLM 開發(fā)人員故意植入的。這些模型是在大量在線文本上訓練的,但混合中的左學習與右學習材料的不平衡可能會產(chǎn)生影響。
Rozado 說,ChatGPT 訓練其他模型的主導地位也可能是一個因素,因為機器人已經(jīng)以前已顯示在政治觀點方面處于中間偏左的位置。
基于 LLM 的機器人本質(zhì)上是使用概率來弄清楚哪個單詞應(yīng)該在他們的回答中跟在另一個單詞之后,這意味著它們經(jīng)常不準確甚至在考慮不同類型的偏見之前,他們就說了什么。
盡管谷歌、Microsoft、Apple 和 Meta 等科技公司急于將 AI 聊天機器人推向我們,但也許現(xiàn)在是我們重新評估我們應(yīng)該如何使用這項技術(shù)的時候了——并優(yōu)先考慮 AI真的可以有用.
“批判性地審查和解決 LLM 中嵌入的潛在政治偏見至關(guān)重要,以確保在回復用戶查詢時平衡、公平和準確地表示信息,”寫羅扎多。
該研究已發(fā)表在公共科學圖書館一號.
湖北農(nóng)機化
農(nóng)業(yè)基礎(chǔ)科學 - 省級期刊
技術(shù)與創(chuàng)新管理
合作期刊 - 省級期刊
寫真地理
合作期刊 - 省級期刊
大觀
中國語言文字 - 省級期刊
科技傳播
合作期刊 - 國家級期刊
明日風尚
合作期刊 - 省級期刊
畜禽業(yè)
合作期刊 - 省級期刊
課外語文
合作期刊 - 省級期刊
科技創(chuàng)新導報
信息科技 - 國家級期刊
新智慧
合作期刊 - 國家級期刊
人力資源管理
企業(yè)經(jīng)濟 - 省級期刊