成人性生交天码免费看,亚洲午夜性视频,日韩精品**aa久久毛片,欧美毛片免费看,久久精品在线免费视频,精品看片,最近中文幕mv免费高清

互聯(lián)網(wǎng)法治

理論研究

網(wǎng)絡(luò)法治須與技術(shù)創(chuàng)新同頻共振

趙精武

近段時間以來,OpenClaw應(yīng)用下載與使用情況火爆,其強大的自主決策功能吸引了不少用戶安裝體驗。阿里、騰訊等互聯(lián)網(wǎng)企業(yè)相繼跟進部署服務(wù),在社交平臺上甚至出現(xiàn)了上門收費代裝OpenClaw的服務(wù),一場“養(yǎng)蝦”熱潮迅速升溫。

與“豆包”“元寶”等公眾熟知的人工智能產(chǎn)品不同,OpenClaw的突破在于電腦桌面端部署與開源生態(tài):其接入基礎(chǔ)模型應(yīng)用程序編程接口,以系統(tǒng)權(quán)限調(diào)度本地與網(wǎng)絡(luò)資源,并與移動端實時互聯(lián),從而打通了從指令到執(zhí)行的閉環(huán)。在OpenClaw的幫助下,用戶可通過自然語言指令讓AI直接操作系統(tǒng)工具,實現(xiàn)文件整理、郵件發(fā)送、數(shù)據(jù)分析等全流程自動化,且可以在后臺24小時運行,讓智能體首次具備了真正意義上的“數(shù)字員工”屬性。

然而,高度自主決策功能的實現(xiàn),依賴用戶開放足夠的數(shù)據(jù)訪問權(quán)限,這也意味著用戶本地存儲的文件、數(shù)據(jù)、密鑰均處于風險不確定狀態(tài)。從媒體公開報道看,部分用戶已遭遇OpenClaw錯誤刪除電子郵件、重要文檔等技術(shù)故障。尤其需要注意的是,若用戶未能正確卸載,殘留文件仍會對用戶的個人計算機產(chǎn)生安全威脅。這些風險的出現(xiàn),也印證了技術(shù)創(chuàng)新背后機遇與風險并存的客觀規(guī)律,人工智能技術(shù)也不例外。近期,國家互聯(lián)網(wǎng)應(yīng)急中心、中國互聯(lián)網(wǎng)金融協(xié)會等部門也陸續(xù)發(fā)布風險提示,提醒公眾重視安全風險,審慎安裝。

2026年1月1日起施行的新修訂的網(wǎng)絡(luò)安全法明確提出,加強風險監(jiān)測評估和安全監(jiān)管,促進人工智能應(yīng)用健康發(fā)展。當前智能體應(yīng)用尚處于創(chuàng)新探索階段,其存在的網(wǎng)絡(luò)安全風險也確實為治理實踐提出諸多新問題:一方面,智能體的功能定位是“私人定制”的專屬服務(wù),需要獲取足夠多的用戶個人信息進行訓(xùn)練,進而形成符合用戶使用習慣的信息服務(wù)模式,但這也讓個人信息保護法中的“最小必要原則”面臨被虛置的風險。由于智能體的作用是為用戶提供全方位的便捷化服務(wù),因此難以界定哪些信息屬于實現(xiàn)其功能所“必要”的范疇。另一方面,以開源社區(qū)為依托的智能體應(yīng)用技術(shù)更新周期極短,網(wǎng)絡(luò)安全風險更為復(fù)雜。這既包括開源生態(tài)體系固有的技術(shù)漏洞、惡意代碼植入等安全風險,也涉及高頻率更新帶來的質(zhì)量不穩(wěn)定、故障頻發(fā)等問題。

人工智能技術(shù)的創(chuàng)新迭代,對現(xiàn)行網(wǎng)絡(luò)安全法治體系提出了更高的延展性要求,即網(wǎng)絡(luò)安全規(guī)范體系應(yīng)當與人工智能技術(shù)保持同步規(guī)劃、同步發(fā)展的狀態(tài)。現(xiàn)行的網(wǎng)絡(luò)安全法等法律法規(guī)已逐漸明確了核心治理邏輯和治理規(guī)則,因此當下的工作重點除了“立法”更要“釋法”,即明確現(xiàn)有網(wǎng)絡(luò)安全法律條款如何適用于智能體安全風險治理實踐。

第一,網(wǎng)絡(luò)安全法治體系需要延展網(wǎng)絡(luò)安全風險的分級分類框架,為不同風險等級的智能體行為設(shè)置差異化的保護措施。例如,對于資金流出、安全配置修改等風險極高的行為,可一律禁止智能體自主執(zhí)行;對于郵件回復(fù)等行為,則需要由人來進行最終確認。同時,要對不同領(lǐng)域的風險容忍度進行分級,在此基礎(chǔ)上出臺智能體技術(shù)應(yīng)用的負面清單,并根據(jù)技術(shù)發(fā)展、產(chǎn)業(yè)動態(tài)等因素適時調(diào)整。如對涉及國家安全、金融安全及關(guān)鍵信息基礎(chǔ)設(shè)施等高風險敏感領(lǐng)域,應(yīng)明確禁止使用端側(cè)智能體;對風險容忍度相對較高的領(lǐng)域,則可基于行業(yè)特征,明確不得使用智能體的具體場景。

第二,網(wǎng)絡(luò)安全法治體系需要擴展智能體網(wǎng)絡(luò)安全漏洞的專項治理措施。具體而言,可以考慮將提示詞注入、視覺對抗攻擊、數(shù)據(jù)“投毒”及其他針對多模態(tài)大模型感知、推理技術(shù)特征的攻擊方式,納入網(wǎng)絡(luò)安全法所述的“惡意程序”和“安全缺陷、漏洞”范疇,從而將其納入人工智能安全法律規(guī)制范圍。

第三,網(wǎng)絡(luò)安全法治體系需要囊括智能體開源社區(qū)與開源平臺的主體責任。開源社區(qū)應(yīng)當塑造開發(fā)者“技術(shù)向善”的倫理規(guī)范,防范開源社區(qū)和開源平臺成為網(wǎng)絡(luò)攻擊的重災(zāi)區(qū)或中轉(zhuǎn)站,通過社群規(guī)范等方式,強化安全風險提示與說明。

智能體應(yīng)用的網(wǎng)絡(luò)安全治理,既關(guān)系到人工智能產(chǎn)業(yè)的創(chuàng)新發(fā)展,也關(guān)系到我國現(xiàn)代化治理能力和治理水平的提升。面對智能體等人工智能技術(shù)難以預(yù)料的創(chuàng)新周期和發(fā)展方向,網(wǎng)絡(luò)安全法治體系需以更靈活、全面的方式,預(yù)防相伴而行的風險,同時也要為技術(shù)創(chuàng)新預(yù)留探索空間,最終實現(xiàn)技術(shù)創(chuàng)新與法治體系的一體化發(fā)展。

(作者系北京航空航天大學法學院副教授、工業(yè)和信息化智慧法治工信部重點實驗室執(zhí)行主任)


編輯:林楠特