孫靖鑫
當前,人工智慧正以前所未有的速度重塑社會執行方式科技。從演算法推薦到智慧決策,從自動駕駛到輔助診療,技術不斷進入資源配置和行為引導的關鍵環節,在顯著提升效率的同時,也帶來演算法失範、資料濫用、深度偽造等一系列新風險。在這一過程中,技術越來越強調效率優先,但相應的規範和約束卻沒有及時跟上,“能做什麼”和“該不該做”之間的矛盾日益突出。在這樣的背景下,由工業和資訊化部等十部門聯合印發的《人工智慧科技倫理審查與服務辦法(試行)》(以下簡稱《辦法》)出臺,從制度層面對這一問題作出回應。其核心意義,不僅在於規範技術行為,更在於將公平、安全、責任等價值要求嵌入技術執行全過程,引導人工智慧發展始終處於可控、有序的軌道之中。
堅持價值引領 推動人工智慧規範發展
隨著技術不斷發展,人工智慧正在從輔助工具變成影響決策的重要力量科技。早期人工智慧主要用於計算和資訊處理,而隨著大模型和深度學習的發展,其執行方式從機械執行轉向自主判斷生成,決策過程也由“人主導”逐步轉向“人機協同”,甚至在部分場景中由演算法主導。
這種變化不僅體現在效率提升上,更體現在對決策方式的改變科技。在資訊平臺上,演算法決定使用者能看到什麼內容;在消費領域,推薦系統影響選擇路徑;在專業領域,智慧系統也開始參與判斷。技術正從提供參考走向影響甚至左右選擇,人的主導作用在一定程度上被削弱。
在這一過程中,人工智慧逐漸具備了對資源配置和行為選擇產生持續影響的能力科技。與此同時,風險也在不斷累積。例如,演算法“黑箱”使決策難以解釋,潛在偏差不易發現;平臺傳播放大問題影響;深度偽造技術可能衝擊社會信任基礎。這表明,如果只強調效率而忽視規範,技術發展就可能偏離軌道,積累系統性風險。
強化制度約束 推動價值要求嵌入技術全過程
技術可以解決“怎麼做”,但無法回答“該不該做”科技。一旦缺乏價值約束,技術就可能突破邊界。因此,僅靠技術自身發展或市場調節,難以實現有效治理。
《辦法》的關鍵作用在於透過制度把價值要求落到實處科技。一方面,透過明確倫理原則和審查標準,將公平、安全、責任等要求轉化為具體規則,讓抽象原則變成可以執行的規範;另一方面,將倫理審查提前到研發和應用初期,把風險識別從出事之後前移到問題發生之前。
透過建立倫理委員會、完善服務體系和跟蹤審查機制,把倫理要求納入組織日常執行,使其不再依賴個人自覺,而是成為穩定執行的制度安排科技。例如,針對高風險的人工智慧應用,先在可控環境裡進行測試,同時對系統的每一步操作進行記錄和監督,這樣就能實現全過程可監控、出了問題也能追溯責任。從根本上看,就是透過制度把“該不該做”的問題貫穿到技術發展的每一個環節。
強化協同治理 促進發展與規範良性互動
需要看到,人工智慧治理並不是簡單限制技術發展,而是在更高層面實現發展與規範的協調統一科技。效率和創新是技術進步的重要動力,而規範和邊界則是技術健康發展的前提。
《辦法》的制度設計正體現出這一思路:一方面,透過倫理審查和風險控制,防止技術無序擴張;另一方面,透過服務體系和技術支援,降低合規成本,保障創新活力科技。在制度約束下,發展與規範不再對立,而是相互促進、相互支撐。例如,第五條明確提出“加大對中小微企業人工智慧科技倫理審查的支援和服務力度”。這就是在降低企業守規矩的難度和成本,不讓繁瑣的流程拖垮創新的腳步,在技術倫理審查的同時,加大服務力度。這一制度安排體現了一種新的治理邏輯:既鼓勵技術進步,又守住安全底線,使人工智慧在可控範圍內釋放潛力。
立足黑龍江發展實際,應以《辦法》實施為契機,在推進數字經濟發展的同時同步提升倫理治理能力科技。圍繞重點應用場景完善審查與服務機制,提高風險識別和防控水平;加強人才培養和技術支撐,把倫理要求融入創新全過程,在守住安全底線的前提下釋放技術潛能,以規範促進發展、以治理保障創新,推動人工智慧更好服務區域高質量發展。
【作者單位科技:中共哈爾濱市委黨校(哈爾濱市行政學院)】