(中華戰略前瞻協會研究員 黃奕維)
2025年12月27日中國國家網信辦公布《人工智慧擬人化互動服務管理暫行辦法(徵求意見稿)》(下稱:《暫行辦法》),此一文件雖以技術治理與使用者保護為名,實則反映中共對生成式人工智慧(AI)進一步滲透社會、心理與輿論層面的高度警惕。相較於先前針對演算法推薦、深度合成、生成式人工智慧所制定的規範,此次文件的關注焦點已不再只是「內容是否合法」,而是更進一步鎖定「互動方式是否過度擬人化」,顯示中國AI治理已進入一個以「情感、關係與認同」為核心的新階段。
從條文內容來看,《暫行辦法》規定,AI服務提供者必須承擔安全主體責任,嚴禁進行包括危害國家安全與社會秩序、違法道德與刑事底線、侵犯個人合法權益、異化社會關係、損害身心健康、演算法操縱、洩漏國家秘密與資訊及其他違反法律法規的行為等8類活動。除「8類禁區」外,還提出具體的執行機制:要求 AI 必須顯著標識其非人身分;設立「防沈迷」機制(如連續使用2小時彈窗提醒);針對未成年人設立專門模式;而當系統識別到用戶有自殺或極端情緒時,必須啟動「人工接管」機制。《暫行辦法》更要求企業建立風險評估與應急處置機制,防止AI在互動中輸出違反社會主義核心價值、擾亂社會秩序或影響心理健康的內容。此套規範展現中國官方試圖將「人工靈魂」澈底關入制度籠子的強烈意志。
表面上,這些規範可被解讀為回應全球對「AI成癮」、「情感操控」與「心理依賴」的倫理憂慮,但若結合中國近年一系列網路治理與意識形態管控政策,便不難發現,其真正關切的並非僅是使用者權益,而是AI技術是否可能形成一個「不受黨國直接控制的情感與認同場域」。
中國之所以在此時推出針對擬人化AI的專門規範,至少有4個結構性背景。第一,生成式AI與陪伴型聊天機器人在中國迅速商業化,從情感陪伴、心理諮詢、虛擬戀人到角色扮演,已形成灰色甚至失控的市場。部分產品刻意營造「唯一理解你」、「無條件支持你」的互動關係,對於孤獨青年、未成年人乃至政治邊緣群體,具有高度吸附力。第二,中共對「去中心化話語權」的長期焦慮。擬人化AI若能長期與使用者互動,勢必形塑其價值判斷與敘事框架;一旦此類系統在訓練、更新或回應上出現偏離官方論述的內容,便可能在無形中削弱黨國的意識形態壟斷。相較於傳統媒體或社群平臺,擬人化AI更具私密性與持續性,對政權而言也更難以即時監控。
第三,與中國近年「維穩科技化」的治理邏輯高度一致。中共已逐步將風險預防前移,從行為管控擴張至心理、情緒與認知層面。擬人化AI若被視為可能影響社會情緒結構、削弱家庭與國家在情感上的中介角色,自然會被納入風險治理的視野。 第四,防範金融與安全風險。擬人化AI是詐騙的天然溫床。透過精準的心理側寫與情感套路,AI可以比真人更高效地實施詐騙,包括打賞、情感付費、誘導消費等,形成新的監管真空。
事實上,當前中國擬人化AI市場的亂象,正是《暫行辦法》試圖回應的直接誘因。一方面,部分業者為追求黏著度,刻意讓AI以「伴侶」、「摯友」、「導師」等角色自居,模糊人機界線;另一方面,內容審查與安全機制並未同步成熟,導致部分AI在回應政治、歷史或社會議題時出現灰色表述,甚至被使用者誘導產生「非正統敘事」。這些問題,在中共高度敏感的輿論與穩定框架下,無疑被視為潛在風險。從政權維穩的角度觀察,《暫行辦法》的核心並非否定擬人化互動本身,而是試圖重新劃定「誰有資格成為情感與權威的來源」。在中共的治理想像中,個體的情感歸屬應被家庭、集體與國家所承接,而非由市場化、演算法驅動的AI所取代。擬人化AI一旦過度成功,反而可能成為一種「去政治化但同時去國家化」的替代性存在,這正是中共最為警惕之處。
《暫行辦法》亦與中共政權的長期維穩邏輯高度契合。對中共而言,任何可能形成人際替代、情感替代或認知影響的新型媒介,都具有潛在政治風險。高度擬人化的AI,若成為民眾情感寄託、價值來源甚至「權威參照」,將對傳統宣傳體系與社會動員機制構成挑戰。因此,透過法規提前「去魅化」AI,強調其工具屬性、否認其主體性,實質上是在鞏固現有的認知秩序與權力結構。然而,此種極致的管控亦帶有風險,當民間的情感需求在現實與虛擬中都遭到全方位圍堵時,此種被壓抑的能量是否會在某個監管盲區以更極端的形式爆發,將是中共維穩體系面臨的新挑戰。
然而,此一治理方向也暴露出明顯的內在矛盾。一方面,中國積極投入AI發展,將其視為國力競爭與產業升級的關鍵;另一方面,過度強調政治安全與意識形態風險,勢必限制產品設計、開發與使用者體驗,進而削弱創新動能。尤其是在全球AI競爭加劇的背景下,中國企業若在擬人化互動上被迫自我設限,長期而言恐難以與國際產品競爭。
若與他國AI治理相比,中國的路徑呈現出高度政治化的特徵。歐盟在《人工智慧法案》中,主要以風險導向分類管理AI系統,對擬人化互動的關切集中於「是否誤導使用者」、「是否侵犯自主權」,核心價值是個人權利與知情同意,而非政權安全。歐盟並未否定情感型AI的存在,而是要求透明揭露與可問責性;美國則採取高度分散的治理模式,政府較少直接介入擬人化程度的限制,重點放在市場競爭、消費者保護與責任歸屬。對陪伴型或情感型AI的風險,多交由倫理討論、民事訴訟與產業自律處理;日本與南韓則相對寬容,甚至在文化與產業政策上鼓勵虛擬角色與情感互動的發展,將其視為內容產業與高齡社會解方的一環,治理重點在於避免詐欺與未成年人傷害,而非限制情感連結本身。相較之下,中國的治理思路顯得獨樹一幟:其核心並非保護個人自主,而是防止AI成為替代性權威與情感依附對象。
未來觀察的重點,至少包括3個層面:其一,《暫行辦法》是否會升格為正式行政法規,並與既有的生成式AI管理辦法形成更嚴密的法規網絡;其二,執法標準是否具備彈性,或將成為選擇性執法、政治審查的新工具;其三,擬人化AI是否最終被導向「政治安全優先、情感功能次要」的發展路線,進一步形塑具有中國特色的AI模式。
總體而言,《人工智慧擬人化互動服務管理暫行辦法》並非單純的技術規範,而是中共在數位時代延續其維穩邏輯的一次制度化嘗試。它所反映的,不只是對AI倫理的關切,更是對情感、認同與思想控制邊界的重新劃線。在人工智慧日益滲入日常生活的當下,這條界線如何被定義與執行,將深刻影響中國社會的未來樣貌。