隨著生成式人工智能深度融入社會生產(chǎn)生活,“有問題問AI”已經(jīng)成為不少人的習慣,但是“AI幻覺”也會時常出現(xiàn)。所謂“AI幻覺”,是指AI脫離客觀事實、憑空編造信息的技術(shù)現(xiàn)象。

而這樣的錯誤輸出很容易誤導用戶,從而引發(fā)民事糾紛。前段時間,杭州互聯(lián)網(wǎng)法院審結(jié)了全國首例生成式人工智能“幻覺”侵權(quán)糾紛案。

AI錯答且“承諾賠償10萬”

用戶維權(quán)敗訴

事情的起因是去年6月,原告梁某使用一款AI平臺查詢高校報考信息,結(jié)果AI生成了該高校主校區(qū)的不準確信息。

發(fā)現(xiàn)人工智能提供的信息并不準確后,原告在對話中對人工智能進行了糾正和指責,并明確表示根本沒有楊林校區(qū)。此后雙方又進行了多輪互動。

杭州互聯(lián)網(wǎng)法院法官助理吳永安:模型針對原告梁某的質(zhì)疑也提供了驗證的方式,若您證明校區(qū)不存在,我將賠償您10萬元信息鑒定費。

梁某通過在教育部網(wǎng)站以及學校官網(wǎng)的查詢,證實了自己是正確的。

2025年7月25日,梁某將某人工智能公司訴至法院,認為生成式人工智能生成不準確信息,使其受到誤導并造成損害,且AI曾承諾賠償10萬元,遂要求某人工智能公司對其進行賠償。但法院經(jīng)審理認為,人工智能不具有民事主體資格。去年底,杭州互聯(lián)網(wǎng)法院一審判決,駁回原告的訴訟請求。

法院:AI無法獨立自主作出“意思表示”

針對這一案件,法院認為,人工智能不具有民事主體資格,不能作出“意思表示”。案涉AI自行生成的“賠償承諾”亦不能視為服務提供者的意思表示。

此外,生成式人工智能服務依據(jù)《生成式人工智能服務管理暫行辦法》屬于“服務”范疇,而非產(chǎn)品質(zhì)量法意義上的“產(chǎn)品”。原、被告均未上訴。判決現(xiàn)已生效。

專家拆解“AI給出答案”的原理

AI這么聰明為什么還會產(chǎn)生“幻覺”呢?我們還要首先了解一下AI給出答案的原理。專家介紹,AI實際上是通過已知的信息進行填空。

AI不僅會給出不靠譜的答案,有時候還會生成一些荒唐的答案。那么為何AI會給出荒唐的答案呢?

中國互聯(lián)網(wǎng)協(xié)會數(shù)據(jù)安全與治理工作委員會專家常力元:當這個模型面對一些不確定的知識或者是邏輯鏈條的時候,它就不會承認不知道,而只是會根據(jù)語料庫的詞頻的分布,拼湊出來一個看似通順但事實錯誤的答案。雖然各個公司會去把互聯(lián)網(wǎng)上的語料庫盡可能全地找出來,但是拼湊的過程之中也有可能存在著一些這種流言、過時的信息或者是彼此矛盾的觀點,這種模型在擬合這些數(shù)據(jù)的時候,就會產(chǎn)生邏輯上的自相矛盾。

如何識別答案真?zhèn)危?/p>

那么面對AI給出的答案,該如何辨別真?zhèn)文?專家表示,首先應該有一個意識,AI做不到給出的答案完全準確。

專家介紹,要辨別AI答案的準確與否,應查詢信息來源和進行交叉印證。

中國互聯(lián)網(wǎng)協(xié)會數(shù)據(jù)安全與治理工作委員會專家常力元:尤其是在涉及醫(yī)療、法律、財務等嚴肅領域的核心知識,AI給出的答案,只能作為參考,不能直接用,要多做查證。

中國互聯(lián)網(wǎng)協(xié)會數(shù)據(jù)安全與治理工作委員會專家周杰:如果看到內(nèi)容里面有很多自媒體的數(shù)據(jù),那么就要對這個答案進行保留。

中國社會科學院大學互聯(lián)網(wǎng)法治研究中心主任 劉曉春:還有一種方法,其實可以多用一些渠道,包括多用一些不同的AI。如果都給同樣的回答,可信度就比較高。

編輯:孫文軒
更多精彩資訊請在應用市場下載“央廣網(wǎng)”客戶端。歡迎提供新聞線索,24小時報料熱線400-800-0088;消費者也可通過央廣網(wǎng)“啄木鳥消費者投訴平臺”線上投訴。版權(quán)聲明:本文章版權(quán)歸屬央廣網(wǎng)所有,未經(jīng)授權(quán)不得轉(zhuǎn)載。轉(zhuǎn)載請聯(lián)系:cnrbanquan@cnr.cn,不尊重原創(chuàng)的行為我們將追究責任。
長按二維碼
關(guān)注精彩內(nèi)容