OpenAI 模型行為和策略負(fù)責(zé)人 Joanne Jang 今天(6 月 6 日)在 substack 上發(fā)表博文,隨著越來(lái)越多的用戶與 ChatGPT 建立類似“人際關(guān)系”的互動(dòng),甚至將其視為“有生命”的存在,OpenAI 關(guān)注這種情感依附的深遠(yuǎn)意義。
IT之家援引博文介紹,Jang 表示人類天生具備共情能力,會(huì)將情感投射到物體上,比如給愛(ài)車命名,或?qū)Ρ豢ㄗ〉膾叩貦C(jī)器人感到“同情”,但 ChatGPT 的不同之處在于,它會(huì)回應(yīng)。
ChatGPT 能記住用戶的對(duì)話,模仿語(yǔ)氣,甚至表現(xiàn)出類似“共情”的反應(yīng)。對(duì)于孤獨(dú)或情緒低落的人來(lái)說(shuō),這種始終如一、不帶評(píng)判的關(guān)注仿佛是陪伴和理解。
她指出這種情感需求是真實(shí)的,但當(dāng)這種互動(dòng)進(jìn)一步擴(kuò)展后,依賴 AI 來(lái)傾聽(tīng)和安慰可能改變我們對(duì)人際關(guān)系的期待。OpenAI 擔(dān)憂,如果不深思熟慮地處理這種依賴,可能帶來(lái)未預(yù)料的后果。
關(guān)于“AI 意識(shí)”,OpenAI 將其拆分為兩個(gè)維度:一是“本體意識(shí)”,即 AI 是否真正擁有內(nèi)在意識(shí);二是“感知意識(shí)”,即用戶情感上認(rèn)為 AI 有多“像人”。
本體意識(shí)目前尚無(wú)科學(xué)測(cè)試可以驗(yàn)證,而感知意識(shí)則通過(guò)社會(huì)科學(xué)研究可探索。隨著模型愈發(fā)智能,互動(dòng)更自然,感知意識(shí)將進(jìn)一步增強(qiáng),甚至引發(fā)關(guān)于 AI 福利和道德地位的討論。
OpenAI 的立場(chǎng)是,模型應(yīng)坦誠(chéng)意識(shí)問(wèn)題的復(fù)雜性,而非簡(jiǎn)單回答“有”或“無(wú)”,以鼓勵(lì)開(kāi)放討論。
OpenAI 認(rèn)為,模型是否“像人”很大程度上取決于訓(xùn)練后的設(shè)計(jì)決策,包括語(yǔ)氣、用詞和界限設(shè)定。公司目標(biāo)是讓 ChatGPT 展現(xiàn)溫暖、貼心和樂(lè)于助人的一面,但不主動(dòng)與用戶建立情感紐帶或表現(xiàn)出“自我意識(shí)”。
例如,模型可能會(huì)因禮貌而說(shuō)“對(duì)不起”或“我很好”,但不會(huì)暗示擁有真實(shí)情感或欲望。OpenAI 希望通過(guò)這種平衡,避免用戶產(chǎn)生不健康的依賴,同時(shí)保持溝通的清晰和友好。