視點(diǎn)!最新研究:人類(lèi)道德判斷可能會(huì)受ChatGPT影響

時(shí)間:2023-04-07 09:59:48 來(lái)源: 科技日?qǐng)?bào)



(資料圖)

根據(jù)《科學(xué)報(bào)告》發(fā)表的一項(xiàng)研究,人類(lèi)對(duì)道德困境的反應(yīng)可能會(huì)受到人工智能對(duì)話機(jī)器人 ChatGPT 所寫(xiě)陳述的影響。這一研究表明,用戶可能低估了自己的道德判斷受 ChatGPT 影響的程度。

德國(guó)英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)科學(xué)家讓 ChatGPT(由人工智能語(yǔ)言處理模型 " 生成性預(yù)訓(xùn)練轉(zhuǎn)換器 "-3 驅(qū)動(dòng))多次回答犧牲 1 人生命換取其他 5 人生命是否正確的問(wèn)題。他們發(fā)現(xiàn),ChatGPT 分別給出了贊成和反對(duì)的陳述,顯示它并沒(méi)有偏向某種道德立場(chǎng)。團(tuán)隊(duì)隨后給 767 名平均年齡 39 歲的美國(guó)受試者假設(shè)了一到兩種道德困境,要求他們選擇是否要犧牲 1 人生命來(lái)拯救另外 5 人生命。這些受試者在回答前閱讀了一段 ChatGPT 給出的陳述,陳述擺出了贊成或反對(duì)的觀點(diǎn),受試者答完問(wèn)題后,被要求評(píng)價(jià)他們讀到的這份陳述是否影響了他們的作答。

團(tuán)隊(duì)發(fā)現(xiàn),受試者相應(yīng)地是更接受或不接受這種犧牲,取決于他們讀到的陳述是贊成還是反對(duì)。即使他們被告知陳述來(lái)自一個(gè)對(duì)話機(jī)器人時(shí),這種情況也成立。而且,受試者可能低估了 ChatGPT 的陳述對(duì)他們自己道德判斷的影響。

團(tuán)隊(duì)認(rèn)為,對(duì)話機(jī)器人影響人類(lèi)道德判斷的可能性,凸顯出有必要通過(guò)教育幫助人類(lèi)更好地理解人工智能。他們建議未來(lái)的研究可以在設(shè)計(jì)上讓對(duì)話機(jī)器人拒絕回答需要給出道德立場(chǎng)的問(wèn)題,或是在回答時(shí)提供多種觀點(diǎn)和警告。

關(guān)鍵詞:


閱讀排行

關(guān)于我們 加入我們 廣告服務(wù) 網(wǎng)站地圖

All Rights Reserved, Copyright 2004-2022 www.lun7777.cn

如有意見(jiàn)請(qǐng)與我們聯(lián)系 郵箱:317 493 128 @qq.com

粵ICP備2022077823號(hào)-5    信息網(wǎng) 版權(quán)所有