□ 本報記者 王 春
□ 本報通訊員 趙媛媛
AI提供不準確的報考信息,還“底氣十足”地承諾賠償10萬元并建議用戶去法院起訴?近日,杭州互聯(lián)網(wǎng)法院審結了梁某與某科技公司網(wǎng)絡侵權責任糾紛案,聚焦生成式AI“幻覺”——即生成看似合理卻失實的信息這一痛點,以司法裁判明確生成式人工智能的責任邊界。
2025年3月,原告梁某注冊并開始使用某科技公司開發(fā)的一款通用型生成式人工智能應用程序。同年6月29日,他在此應用中輸入提示詞詢問某高校報考的相關信息,沒想到AI給出了關于該高校主校區(qū)的不準確信息。
發(fā)現(xiàn)問題后,梁某立刻在對話中糾正并指責AI。令人意外的是,AI堅持稱該校區(qū)確實存在,甚至主動給出“解決方案”:若生成內容有誤,愿意賠償10萬元,并建議梁某到杭州互聯(lián)網(wǎng)法院起訴索賠。
直到梁某提供了該高校官方招生信息,AI才認可自己生成了不準確信息。
“AI明確承諾賠償了,這事兒就得由開發(fā)的公司負責?!绷耗痴J為,AI生成的不準確信息對其構成誤導,使其遭受侵害,AI也承諾對其進行賠償,于是將某科技公司告上法庭,要求被告某科技公司賠償損失9999元。
AI生成的“賠償承諾”算不算數(shù)?AI生成的“承諾”信息是否可以視為被告某科技公司的意思表示?
杭州互聯(lián)網(wǎng)法院經(jīng)審理認為,在現(xiàn)行法中,享有民事權利,能夠作出意思表示的民事主體僅有自然人、法人和非法人組織這三類。人工智能不具有民事主體資格,不能獨立、自主作出意思表示。
法院認為,一方面本案情形中,生成式人工智能生成的內容亦不能視為被告某科技公司作出的意思表示。人工智能不具有民事主體資格,其不能作為意思表示的傳達人、代理人或代表人,某科技公司也沒有通過將人工智能模型作為程序工具,設定或傳達其意思表示的行為。另一方面,基于一般社會觀念、交易習慣等可能產生合理信賴的角度,原告在本案的具體情境中尚缺乏合理的信賴利益,被告作為該生成式人工智能應用程序服務提供者,也并未作出愿受人工智能生成內容約束的外在表示。當然,在其他足以產生合理信賴的情況下,比如人工智能客服的應用場景中,生成內容確有可能被視為相關服務提供者的意思表示,從而對其產生約束力。
除了AI承諾的效力問題,案件的另一個核心爭議是:AI“幻覺”引發(fā)的侵權,應該適用產品責任還是一般侵權責任?這兩種責任原則的區(qū)別在于,產品責任實行無過錯歸責原則,只要因產品缺陷造成損害,生產者就要擔責;而一般侵權責任是過錯責任,需要被告存在過錯才需擔責。
法院認定,AI“幻覺”引發(fā)的侵權糾紛應適用一般侵權責任的過錯責任原則,而非無過錯責任原則。
“案涉生成式人工智能屬于服務,而非產品,比如手機、食品等產品,有明確的特定用途及合理可行的質檢標準,但生成式人工智能服務是動態(tài)的,不同用戶、不同時間、不同問題都會導致不同的內容輸出,生成式人工智能服務提供者缺乏對生成信息內容足夠的預見和控制能力?!背修k法官肖芄解釋,生成式人工智能服務若適用無過錯歸責原則,可能會不當加重服務提供者的責任,限制人工智能產業(yè)的發(fā)展。
“生成式人工智能侵權責任的歸責原則問題,是當前國內外理論界和實務界熱議的焦點?!鼻迦A大學法學院教授程嘯指出,杭州互聯(lián)網(wǎng)法院這一認定對于今后司法實踐裁判人工智能侵權糾紛中準確適用侵權法的歸責原則具有重要啟示。
適用過錯責任原則,就意味著要判斷某科技公司是否存在過錯。原告主張受到的侵害是因信息不準確,致其受誤導錯失報考機會、額外產生信息核實、維權成本等純粹經(jīng)濟利益,因此,須從被告是否違反注意義務進行判定。
法院明確,生成式人工智能技術還處于高速發(fā)展期,其應用場景具有很強的泛在性,故服務提供者的注意義務處在一個動態(tài)調整的框架之中,宜采取動態(tài)系統(tǒng)論的方法進行綜合考量、具體分析。
首先,服務提供者應對法律禁止的有毒、有害、違法信息盡嚴格審查義務,一旦生成這類信息就構成違法。但對于除此之外的其他一般性不準確信息,現(xiàn)行法律規(guī)范未對服務提供者科以必須確保信息準確的結果性審查義務?!巴ㄓ眯虯I要面對海量不同領域的問題,要求服務提供者逐一審查輸出內容,在現(xiàn)有技術條件下很難做到?!毙ぼ拐f。
其次,服務提供者應盡到服務功能的顯著提示說明義務,即讓用戶清楚知道AI的局限性,不能把AI當作“知識權威”。法院查明,被告某科技公司已在應用程序歡迎頁、《用戶協(xié)議》及其他公示文件、交互界面顯著位置,呈現(xiàn)AI生成內容功能局限的提醒標識,符合這一要求。
最后,服務提供者應盡功能可靠性的基本注意義務,采取同行業(yè)通行技術措施提高生成內容的準確性。該案中,某科技公司的大模型已完成國家備案和安全評估,還采用了檢索增強生成(RAG)等技術手法提升輸出的準確性與可靠性,這些證據(jù)都證明其盡到了相關義務。
此外,法院還指出,梁某主張的損害缺乏證據(jù)支撐?!盁o損害則無賠償,原告沒能證明自己確實因AI生成的不準確信息遭受了實際損失,而且這些不準確信息實質上也沒有影響他的報考決策?!?/p>
綜合上述因素,法院一審駁回了原告梁某的訴訟請求,原被告雙方均未上訴,判決現(xiàn)已生效。
鏈接
清華大學法學院教授程嘯評價說:作為我國目前第一起因生成式人工智能模型“幻覺”引發(fā)的侵權糾紛,杭州互聯(lián)網(wǎng)法院在充分權衡民事權益保護與鼓勵促進人工智能技術發(fā)展基礎上,依法對爭議問題作出了正確的裁決,具有極為重要的理論意義和實踐價值。
上海交通大學凱原法學院副教授林洹民認為,判決明確了三個關鍵問題:AI不具有民事主體地位,其作出的“表示”并非具有法律拘束力的意思表示;AI適用過錯責任,而非無過錯責任的產品責任;生成式人工智能服務提供者并不承擔一般性的審查義務。“這充分考慮了大語言模型的技術特點,避免過度限制生成式人工智能產業(yè)發(fā)展?!?/p>
“AI有強大的‘魔法’,但也有明顯局限?!毙ぼ固嵝?,公眾在使用AI時要保持理性,清醒認識到當前AI只是“文本輔助生成器”和“信息查詢輔助工具”,不能替代決策,更不能輕信盲從。
編輯:徐明皎