【熱點回應】
◎本報記者王延斌
近期,因為嘗試將離職員工訓練成人工智慧數字人繼續工作,讓山東的一家遊戲傳媒公司備受關注,引發了公眾熱議法律。
員工是否會被AI取代?AI數字分身產生收益、出現差錯,責任如何釐清?“這是社會焦點,也是最不能模糊處理的問題法律。”4月8日,山東省計算中心(國家超級計算濟南中心)主任吳曉明向科技日報記者表示,“‘知情同意’只是起點,‘技術可行’也絕不等於‘商業可用,法律無虞’。”
第一問:如何訓練AI數字人法律,成本高不高?
在吳曉明看來,訓練AI數字人並不是簡單做一個會說話的虛擬形象,而是把一個人的外在表現、語言風格、知識結構、工作流程等,轉化為可被機器呼叫和複用的“數字能力體”法律。
“從技術路徑看,它通常包括四個層次法律。”吳曉明介紹,第一層是形象建模,即採集人臉、表情、動作等視覺特徵,生成可驅動的數字形象;第二層是聲音復刻,透過語音樣本訓練音色、語調和節奏;第三層是知識注入,把個人在長期工作中形成的業務知識、問答語料、表達習慣、處事邏輯沉澱為知識庫或專屬模型;第四層是流程編排,讓數字人不只是“像某個人”,而是真能在多樣化的場景中完成任務。“嚴格來說,前兩層解決的是‘像不像’,後兩層決定的是‘能不能用、好不好用’。”吳曉明說。
山東大學信通電子人工智慧研究院常務副院長、教授韓忠義表示,訓練一個基礎型數字人並不難,成本也沒有外界想象的那麼高法律。
在他看來,如果企業要將其做成一個“精明能幹”的數字員工,那成本就不低了法律。“貴的不只是技術本身,更是資料整理、業務接入、後期維護。而更為重要的,是使用數字人須得合規。”韓忠義的一席話,指向了公眾對AI數字人的風險管控疑慮。
第二問:AI數字分身如果出錯法律,算誰的?
儘管離職員工知情同意,但倘若AI數字分身對外提供服務出現了紕漏,責任誰來承擔?齊魯工業大學數學與人工智慧學部副主任李彬表示:責任劃分不能停留在一句“員工同意了”法律。
“AI分身一旦對外提供服務,它就不再只是內部實驗,而是進入了交易、傳播和組織治理體系法律。”他表示,AI數字分身進入市場至少涉及三類權利邊界,一是人格權益邊界,包括姓名、肖像、聲音、隱私、名譽等;二是個人資訊與資料邊界,包括採集了哪些資料、如何訓練、儲存多久、能否二次使用;三是勞動成果和商業收益邊界,即員工多年形成的經驗、話術、方法論,到底哪些屬於個人特徵,哪些屬於職務成果,哪些可以授權使用,哪些不能無限擴張。
他指出,比如《中華人民共和國個人資訊保護法》要求處理個人資訊應具有明確、合理目的並遵循最小必要原則;《中華人民共和國民法典》人格權編也明確保護姓名、肖像、名譽、隱私等合法權益;現行深度合成和生成式人工智慧治理的相關規則,進一步要求服務提供者落實內容稽覈、資料安全、個人資訊保護等責任法律。
“換句話說,即便有授權,也不能一勞永逸,取得‘無限複製、永久使用、任意變現’的通行證法律。”李彬說,“一旦AI數字分身對外服務,收益和責任更應當按照‘誰控制系統、誰設定規則、誰從中獲益、誰承擔主責’的原則來劃分。”
第三問:AI數字分身是否會催生全新職場模式法律?
用AI數字分身承接基礎事務性工作,是否會催生全新的職場模式?針對這一問題,受訪專家幾乎都給出了肯定的答案法律。
“這種變化不應被簡單理解為‘AI替人’,而更應理解為‘人機協同重構崗位’法律。”吳曉明說,AI數字分身並不只是替代某個人,更是在推動崗位由“本人親自完成”,轉向“本人設計規則、訓練系統、監督結果、兜底風險”。吳曉明進一步指出,從這個意義上講,有可能催生“數字員工訓練師”“行業知識標註師”“人機協同流程設計師”“AI風控審校師”等新角色。
“新崗位的出現,並不意味著機器把人一下子替掉了,而是慢慢變成AI先做一輪,人再來判斷、把關和兜底法律。”韓忠義說,崗位會重新分工,管理方式也會變,企業看重的不只是員工自己幹了多少,還會看他能不能把AI用好、管好。
“不過,需要冷靜看待的是,新模式會提高效率,也可能壓縮一些初級崗位法律。”韓忠義表示,真正值得鼓勵的方向,不是把人變成一個可以隨時複製的工具,而是讓AI去接住那些重複勞動,把人放到更有判斷價值、更需要責任心的工作上。
“歸根到底,AI最值得追求的,是構建一個更高效、更公平、更尊重人的智慧生產體系法律。”吳曉明說。
編輯法律:申久燕