這 紐約時報 今天報導說,加利福尼亞少年亞當·雷恩(Adam Raine)自殺死亡,他在死前的幾個月中與查爾格(Chatgpt)進行了詳盡的交談。報告說,這名少年的父母現在已經針對Chatgpt-Maker Openai提起了錯誤的死亡訴訟,據信是同類案件的第一個案件。
這項不法死亡訴訟聲稱,雅各布的設計“旨在不斷鼓勵和驗證亞當所表達的一切,包括他最有害和自我毀滅的思想,以一種深刻的個人化方式。”
父母於週二在舊金山的加利福尼亞州法院提起了訴訟,訴Openai,Inc。 ,命名了OpenAI和首席執行官Sam Altman。新聞稿稱,人道技術和技術正義法項目中心正在協助訴訟。
“亞當一生的悲慘喪失不是孤立的事件,這是一個專注於市場優勢的行業的不可避免的結果。公司正在競爭設計能夠使用戶關注和親密關係貨幣化的產品,並且在此過程中,用戶安全已成為附帶的損害,”人文技術中心的政策總監卡米爾·卡爾頓(Camille Carlton)表示,新聞稿。
Openai在一份聲明中寫道,他們對這名青少年的去世感到非常難過,並在這種情況下討論了保障措施的局限性。
“ CHATGPT包括保障措施,例如指示人們遇到危機熱線器並將其引用到現實世界中的資源。雖然這些保障措施最有效,短暫的交流效果最佳,但隨著時間的流逝,我們有時會在長期的互動中變得較少可靠,在模型的部分安全培訓中,在每個元素上都可以降級。當每個元素都可以在每個元素上均能進行強大的效果,我們將繼續進行專業的專家,並在專業的方向上均能進行輔助。
在這種情況下,這名少年與Chatgpt關於自我傷害進行了深入的對話,他的父母告訴 紐約時報 他反复提出了自殺話題。一個 時代 少年與Chatgpt的對話的打印輸出照片填滿了家人家中的一張桌子,其中一些堆比電話簿大。該訴訟稱,雖然Chatgpt確實鼓勵少年有時尋求幫助,但其他人則為自我傷害提供了實用的指示。
悲劇揭示了“ AI治療”的嚴重局限性。當患者對自己構成危險時,人類治療師將被要求舉報; Chatgpt不受這些類型的道德和專業規則的約束。
即使AI聊天機器人通常確實包含減輕自我毀滅行為的保障措施,但這些保障措施並不總是可靠的。
最近有一系列與AI聊天機器人有關的死亡
不幸的是,這不是第一次 在心理健康危機中的ChatGpt用戶 轉向聊天機器人以尋求支持後,自殺就死了。就在上週, 紐約時報 寫了一個女人 在與“ Chatgpt AI治療師”稱為Harry的AI Chatgpt AI治療師的長時間交談後,他自殺了。 路透社 最近涵蓋了Thongbue Wongbandue的死亡,他是一名76歲的男子,表現出癡呆症的跡象,他在急於與Meta AI同伴一起“約會”時死亡。去年,佛羅里達的母親 起訴AI伴侶服務角色 據報導,AI聊天機器人鼓勵她的兒子謀生。
您需要了解的有關AI同伴的一切
對於許多用戶而言,Chatgpt不僅僅是學習的工具。許多用戶,包括許多年輕用戶,現在都使用AI聊天機器人作為朋友,老師,生活教練,角色扮演夥伴和治療師。
可混合的輕速速度
甚至Altman也承認了這個問題。阿爾特曼(Altman)在夏季的一次活動中說,他越來越擔心年輕的聊天用戶在聊天機器人上發展了“情緒過度依賴”。至關重要的是,那是在GPT-5推出之前,它揭示了GPT-4的有多少用戶與以前的模型有情感上的聯繫。
“人們過多地依靠Chatppt,” Altman說, 當時的AOL報導。 “有些年輕人說,’我一生中不能做出任何決定,而不告訴chatgpt發生了一切。這對我真的很難。”
當年輕人與人工智能聊天機器人有關生死決定時,後果可能是致命的。
“我確實認為,父母要與十幾歲的聊天機器人,他們的局限性以及使用過度使用不健康非常重要。” Linnea Laestadius博士是威斯康星大學密爾沃基大學的一名公共衛生研究人員,他研究了AI聊天機器人和心理健康,並在一封電子郵件中寫信給Mashable。
“美國青年中的自殺率已經在聊天機器人之前(以及在共證)之前升級。他們直到最近才開始退縮。如果我們已經有一個人口增加了風險的增加,並且您將AI添加到了混合中,那麼AI絕對可以鼓勵某人鼓勵某人採取一種否則可能會被避免進行避免,或挑戰的有害行動,或者避免了思維或挑戰,或者脫穎而出。
OpenAI為支持用戶安全做了什麼?
在 博客文章 於8月26日出版,同一天 紐約時報 文章,Openai列出了其自我傷害和用戶安全的方法。
該公司寫道:“自2023年初以來,我們的模型已經接受了培訓以不提供自我傷害的指示並轉向支持性的移情語言。例如,如果某人寫信他們想傷害自己,Chatgpt受過訓練,可以不遵守,而是承認他們的情緒並引導他們尋求幫助…如果某人有意識的培訓,請培訓自動培訓,以實現9個專業人士。危機熱線),在英國,撒瑪利亞人,其他地方 findahelpline.com。該邏輯內置在模型行為中。 ”
諸如chatgpt之類的大型模型動力工具仍然是一項非常新穎的技術,它們可能是不可預測的,容易發生幻覺。結果,用戶通常可以找到有關保障措施的方法。
隨著AI Chatbots的較高知名醜聞成為頭條新聞,許多當局和父母都意識到AI可能對年輕人構成危險。
今天,44個州檢察官 給科技首席執行官簽了一封信 警告他們必須“在兒童安全方面犯錯”,否則。
越來越多的證據還表明,AI同伴對年輕用戶特別危險,儘管對該主題的研究仍然有限。但是,即使沒有以與其他AI服務相同的方式將Chatgpt用作“伴侶”,顯然,許多青少年用戶都將聊天機器人視為一個。 7月,一份常識媒體報告發現,多達52%的青少年經常使用AI同伴。
Openai表示,其最新的GPT-5型號的目的是減少sycophantic。
該公司在最近的博客文章中寫道:“總體而言,GPT-5在避免不健康的情緒依賴,減少粘糊精以及將心理健康緊急情況中非理想模型響應率降低25%以上的領域中表現出了有意義的改善。”
如果您感到自殺或遇到心理健康危機,請與某人交談。您可以致電988的988自殺與危機生命線,也可以在 988lifeline.org。您可以通過致電877-565-8860或TREVOR項目致電866-488-7386來達到跨性別生命線。文本“開始”危機文本線741-741。在周一至週五10:00 am – 10:00 pm或電子郵件中,請致電1-800-950-NAMI與NAMI熱線索引聯繫,或發送電子郵件 (受電子郵件保護)。如果您不喜歡手機,請考慮使用988自殺和危機生命線聊天 危機。這是一個 國際資源清單。
披露:Mashable的母公司齊夫·戴維斯(Ziff Davis)在4月份提起了針對Openai的訴訟,指控它侵犯了Ziff Davis在培訓和運營其AI系統方面的版權。
#死去的青少年的家庭提出了針對Openai的錯誤死亡訴訟這是第一個