科技日報記者 劉垠
4月29日,科技部官網公布《虛擬現實技術研發倫理指引》(以下簡稱《指引》),意在著力構建虛擬現實技術研發的倫理框架,規范相關技術創新路徑,防控潛在倫理風險。
這份由國家科技倫理委員會人工智能倫理分委員會制定的文件明確,從事虛擬現實技術的主體應主動開展倫理評估(審查),設置相應審查機構(機制),產品或技術應按照國家有關規定獲得倫理審查通過后方能上市。
“虛擬現實技術正成為全球科技競爭的一個戰略制高點。其核心價值不僅在于拓展人類感知維度與認知邊界,更承載著推動產業升級、重構社會形態的巨大潛能。”清華大學蘇世民書院院長薛瀾教授在接受科技日報記者采訪時說,但虛擬現實技術的深度應用伴生多維倫理挑戰。
值得關注的是,由于沉浸式體驗、角色扮演、感官剝奪和技術依賴,虛擬現實技術使得行為主體容易出現道德意識虛化、自我意識弱化、價值認同偏移等價值異化的倫理問題;虛擬現實技術因其虛擬環境的設計、交互機制和技術手段,存在行為操控、行為依賴等倫理風險;虛擬現實技術的誤用、濫用,將加劇社會安全、社會責任等問題。
為此,《指引》明確了虛擬現實技術研發的基本原則、倫理要求、倫理問題、倫理評估(審查)等,提出了虛擬現實技術研究與應用的一般要求:合法合規、知情同意、隱私保護和個人信息保護、風險防控、責任明晰、群體保護、警示標識。
在薛瀾看來,《指引》的特點表現為體現共識度、注重覆蓋面、力求操作性。“文件覆蓋虛擬現實技術從研發、產品化到場景落地的主要類型與重要環節,特別強化對社交娛樂、教育培訓等高頻率民生場景的規范要求,以及對兒童等特殊群體的專項保護。”他說。
針對虛擬現實技術研發,《指引》構建了覆蓋虛擬現實技術全生命周期的倫理評估(審查)機構(機制)。具體而言,虛擬現實技術倫理評估(審查)需進行全流程閉環管理,重點針對虛擬場景中的身份混淆、行為成癮、價值觀偏移等特有風險進行預判。與此同時,需采用多維度手段對虛擬現實產品或技術進行審查,檢測虛擬環境對認知決策的潛在影響;需對虛擬現實產品或技術采取動態化評估方法,建立用戶年齡分級、使用時長預警等適配性審查標準等。
當前,以生成式人工智能、多模態交互為代表的人工智能技術深度融入虛擬現實領域,為虛擬現實技術研究和應用帶來新機遇。然而,技術融合也帶來認知滲透、社會關系重構等新型倫理挑戰:生成式人工智能和虛擬現實的結合可能模糊虛實邊界,導致用戶產生持續性認知偏差;算法推薦機制在虛擬環境中形成的“信息繭房”,可能加劇價值觀極化;虛擬身份的多重映射特性,更易引發網絡欺詐、數據濫用等社會問題……
薛瀾表示,為此,《指引》依據“合理控制風險”與“維護個人權益”原則,從“風險防控”與“警示標識”兩大維度作出針對性部署:要求實現可審核、可監督、可追溯、可信賴,提升安全評估和管控能力,確保人始終能可靠控制虛擬現實技術,采取有效措施避免和預防虛擬現實技術的誤用、濫用、惡用。
《指引》還要求虛擬現實產品在設備、界面、交互場景及說明書中以文字、語音、音頻或者通用符號等顯性標識形式醒目提示潛在風險,明確說明技術應用可能誘發的健康風險、行為異化、自我意識干擾等問題,并注重警示標識的動態性、可識別性。