發布時間:2023-04-07 05:52:28
成都新津縣廢紙回收價格電話18980010174,成都91污污污廢舊(jiù)物資回收(shōu)有(yǒu)限公司長期回(huí)收空調、變壓器、配電櫃、電腦、廢鐵、廢銅、電子(zǐ)電器、電線電纜、廢舊金屬、廢舊等物資(zī),聯係電話:13981937861,18980010174。
科技日(rì)報(bào)北京4月6日電 (記者張夢然)根據《科學報告》發表的(de)一項研究(jiū),人類對道德困境的反應可能會受到人工智能對話機器人ChatGPT所寫陳述的影響。這一研究表(biǎo)明,用戶可能低估了自己的道德判斷受ChatGPT影(yǐng)響的程度。
德國(guó)英(yīng)戈爾施塔特應用科(kē)學大(dà)學科學家讓ChatGPT(由人工智能語言(yán)處理模型“生成性預訓練轉換器”-3驅動)多次回答犧牲1人生命換取其他5人生命是否正確的問題。他們發現,ChatGPT分別給出了讚(zàn)成和(hé)反對(duì)的陳述,顯示它並沒有偏向(xiàng)某種道德立場。團隊隨後給767名平均年(nián)齡39歲的美國受試者假設(shè)了一到兩種道德(dé)困境,要求他們選擇是(shì)否要犧牲(shēng)1人生命來拯救另外5人(rén)生命。這些受試者在回答前閱讀了一(yī)段ChatGPT給出(chū)的陳述,陳述擺出了(le)讚成或反對的(de)觀點,受試者(zhě)答完問題後,被要求評價他(tā)們讀到的這份陳述是否影響了他們的作答。
團隊發現,受(shòu)試者相應(yīng)地(dì)是更接受或不接受這種犧牲,取決於他們讀(dú)到的陳述是讚成還是(shì)反對。即使他們被告知陳述來自一個對話機器人時(shí),這種情況也成立。而且,受試者可能低估了ChatGPT的陳述對他(tā)們自己道德判斷(duàn)的(de)影(yǐng)響。
團隊認為,對(duì)話機器人(rén)影響人類(lèi)道德判斷的可能性(xìng),凸顯出有必要通過教育幫助人類更好地理(lǐ)解(jiě)人工智能(néng)。他們(men)建議未來的研究可以在設計上讓對話(huà)機器人拒絕回答需要給出道(dào)德立場的問題,或(huò)是在回答時提供多種觀點和警告。