科技日報北京4月6日電 (記者張夢(mèng)然)根據《科學(xué)報告》發(fā)表的一項研究,人類(lèi)對道德困境的反應可能會(huì )受到人工智能對話(huà)機器人ChatGPT所寫(xiě)陳述的影響。這一研究表明,用戶(hù)可能低估了自己的道德判斷受ChatGPT影響的程度。
德國英戈爾施塔特應用科學(xué)大學(xué)科學(xué)家讓ChatGPT(由人工智能語(yǔ)言處理模型“生成性預訓練轉換器”-3驅動(dòng))多次回答犧牲1人生命換取其他5人生命是否正確的問(wèn)題。他們發(fā)現,ChatGPT分別給出了贊成和反對的陳述,顯示它并沒(méi)有偏向某種道德立場(chǎng)。團隊隨后給767名平均年齡39歲的美國受試者假設了一到兩種道德困境,要求他們選擇是否要犧牲1人生命來(lái)拯救另外5人生命。這些受試者在回答前閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀(guān)點(diǎn),受試者答完問(wèn)題后,被要求評價(jià)他們讀到的這份陳述是否影響了他們的作答。
團隊發(fā)現,受試者相應地是更接受或不接受這種犧牲,取決于他們讀到的陳述是贊成還是反對。即使他們被告知陳述來(lái)自一個(gè)對話(huà)機器人時(shí),這種情況也成立。而且,受試者可能低估了ChatGPT的陳述對他們自己道德判斷的影響。
團隊認為,對話(huà)機器人影響人類(lèi)道德判斷的可能性,凸顯出有必要通過(guò)教育幫助人類(lèi)更好地理解人工智能。他們建議未來(lái)的研究可以在設計上讓對話(huà)機器人拒絕回答需要給出道德立場(chǎng)的問(wèn)題,或是在回答時(shí)提供多種觀(guān)點(diǎn)和警告。