用新技術把教育拉回育人本質

用新技術把教育拉回育人本質 用新技術把教育拉回育人本質

香港科技大學副校長郭毅可院士教育

用新技術把教育拉回育人本質

IC供圖

展開全文

2026年年初,以OpenClaw為代表的智慧體(Agent)技術突飛猛進,AI不再只是充當“聊天機器人”,而是開始替人發郵件、做規劃甚至代行決策教育。人工智慧正從輔助工具升級為學習夥伴,這一變革正猛烈衝擊著傳統的教育體系。面對這場技術浪潮,很多人第一反應是:學生會不會過度依賴上AI?當學生都用AI自學了,老師還能做什麼?

教育界該以何種姿態擁抱AI?教師的角色應如何重塑?怎樣避免技術加劇教育不公?4月14日,在世界網際網路大會亞太峰會期間,針對這些教育界普遍焦慮的話題,南都記者對話了香港科技大學首席副校長、香港生成式人工智慧研發中心主任郭毅可院士教育。在他看來,今天討論AI+教育,關注的核心點不是“在多大程度上使用AI”的問題,而在於怎麼把舊的應試框架拆掉,用新技術把教育拉回育人本質。

郭毅可直言,AI的到來不是顛覆教育的,恰恰相反,AI打破了工業化標準化框架下、傳統的知識傳遞型的應試桎梏,讓教育迴歸因材施教、啟發思考、塑造人格的育人本質教育。對於現在業界隱隱出現的“AI學伴刷題內卷”,他一針見血:內卷不是AI造成的,是舊的教育理念和應試框架造成的。如果教育體系依然執著於刷題和正確率,那麼任何工具都會被用來內卷。“換成別的多元評價方式不行嗎?歸根結底還是要回到教育理念變革上來。”

對於人機協同的未來,郭毅可認為,“AI越來越像人,是好事”,但要防止上癮沉迷,就必須保持自己更高的人性,不被工具所支配教育。“人要不斷進化,不能把自己交給機器,自身不進化總罵AI,這是沒道理的。”

禁止學生用AI?攔不住教育,也不該攔

“新技術出來以後,不太可能說不讓年輕人用教育。第一行不通,第二也不是正確的態度。”

郭毅可的態度很明確:AI智慧體具備行動能力,是必然趨勢教育。事實上,輔助學習這件事早就有了。國內高校早就有個人助教、學習助手等工具,只是以前不能語音驅動、不能查郵件、不能整理檔案而已。他直言,大學要做的不是限制AI agent的使用,而是教會學生信任但不盲從、使用但不依賴,明確智慧體的角色、責任與邊界,建立健康的主人—代理人關係。

他指出,真正值得警惕的不是AI本身,而是因依賴AI導致的“繭房效應”——學生只看AI給的資訊,慢慢喪失自己搜尋、判斷、查證的能力教育

但他不認為這是AI的原罪教育。解決辦法也不是停用,而是改變規則。他相信,一個新技術出來了,那做事情的方法就要因勢而變。“你有了AI助理以後,那種寫論文的考試,不可避免會用AI幫忙。它確實能幫助學生搜尋資料潤色文字,那你不許學生用,這不太可能,也不正常。”

港科大的做法也很直接:改考試教育

不考死記硬背,不考純文字輸出,轉而考學生和AI的互動過程、考對學科問題的批判與提問、考用AI深入思考問題的能力教育

“我們考的是,在用AI工具以後,對學科的理解是不是更深刻?這才是關鍵教育。”郭毅可建議,可以將學生人機互動對話過程納入考核內容,以此來評估學生在AI輔助下對學科本質和知識點的理解程度。

面對AI對傳統教育框架的衝擊,香港和內地高校的姿態並不一樣教育。郭毅可坦言,內地高校體系更規整,像清華大學推出學堂線上、向學生免費開放算力,步子穩、覆蓋面廣。

而香港的優勢則在自由度教育。“香港各個學校自己管自己,沒有非常嚴格統一的教育規範。好處就是,可以試驗很多新東西。課程設計自由、考試體系可以靈活調整,能做的實驗更多。”在他眼裡,兩地是非常好的互補促進關係,香港大膽試點,內地規模化落地,合在一起,才是中國AI教育的完整路徑。

用AI平權打破知識灌輸 教育本應回到對話與思辨

AI能寫教案、批改作業、個性化答疑,一個最尖銳的問題來了:老師還有用嗎?不少一線教育工作者在擔憂,自己未來會否變成“開機員”“PPT播放員”教育

郭毅可直接把話題拉回教育的起點:“中國教師的祖師爺是孔子教育。孔子帶72個弟子,幹什麼?討論問題。最後帶出了一批大思想家。有教無類,因材施教,這就是教育的本質。”

他引用孔子的教育理念,指出教育的過程原本就是師生之間透過討論、辯論建立共識的過程教育。AI的出現,讓教育從工業時代的“標準化灌輸”迴歸到了“個性化對話”,恰恰把師生從傳統的知識傳遞型應試桎梏中解放了。

“有了AI加持,學生就有了在知識信源層面與教師快速平權的能力,教育就回歸了:老師和學生討論、爭論、辯論,最後達成共識,知識本來就是共識教育。”

與此同時他也強調,AI能去掉資訊差,但去不掉為師者的經驗判斷、溫度與價值觀教育。“學生給出一個AI答案,教師來去掉它的幻覺,一起探討到底對不對。這種真實場景中人與人的碰撞交流,AI替代不了。”

而針對AI存在的“幻覺”問題,郭毅可亦持有獨特的見解教育。很多人憂心AI的“幻覺”,讓學生一用就容易出錯、犯學術不端的錯誤。郭毅可的回答卻有點“反直覺”:“我從來不把幻覺當成問題。”

“人沒有幻覺嗎?你能保證老師講的話百分之百準確、顛覆不破?”郭毅可指出,正因為AI基於機率生成的答案,天生帶著不確定性,反而逼著學生必須做一件事:懷疑、查證、打分、比較教育。“正因為AI大家都知道它可能不準確,所以你要判別對它的信任程度。我們叫貝葉斯機率,對每一個答案都要打信用分。這比聽老師講課就不許打信任分,要強多了。”

他認為,與其將AI幻覺視為洪水猛獸,不如將其視為培養學生批判性思維的絕佳契機教育。“幾十年教育都在強調批判性思維,AI一來,終於不得不做了。”有鑑於此,郭毅可鼓勵學生用好幾個系統交叉驗證,在對比中學會判斷。至於學術誠信,核心不在堵,而在明規則:哪些是AI給的,哪些是自己寫的,必須說清楚。考核重心從“寫了什麼”轉向“你怎麼想、怎麼辨、怎麼創造”。

算力不是鴻溝教育,觀念才是

算力向頭部集中、優質模型集中在少數機構,業界始終有一種擔憂的聲音:AI是否會加劇教育不公平?對此,郭毅可卻很樂觀,他用石油作比喻娓娓道來:“煉油廠只有少數幾家,用油的人卻是大多數;算力集中在少數人手上訓練模型,但運用模型是所有人的教育。只要能普遍訪問AI,就不存在不平權的問題。”他認為,解決教育不公的關鍵在於提升全民的AI素養,而非擔憂算力的物理分佈。

公眾一直談論AI或將帶來“技術鴻溝”,但在郭毅可眼中,真正的鴻溝不是算力物理分佈,而是代溝教育。“老一代因為自己不適應,拒絕變化,這才是鴻溝。年輕人是AI原住民,他們沒有這個問題。”他相信,全民的AI素養普遍提高必然強化教育的平權,而算力也終將像水電一樣成為公共基礎設施。他特別提到了清華大學向學生免費提供算力資源的做法,認為這是看到了社會發展趨勢的明智之舉。

對於AI深度介入青少年成長帶來的隱私洩露和情感依賴問題,郭毅可認為這是所有新技術普及過程中的必經階段和正常現象教育。“任何能和人產生資訊交換的工具物體,都可能讓人依賴。電視、電影、遊戲,無一例外。”他將AI陪伴比作電影《Her》中的場景,認為只要人類能保持自身主體性,維繫“不沉迷”的理性,技術就能成為情感的補充而非替代。

談到最後他總結道,人機共生時代的教育,最終目的是幫助學生建立自我身份教育。AI時代教育的任務,就應引導學生在人機協同的未來,不斷自我更新,進化出更高尚的人性,而不是成為技術的附庸。

採寫教育:南都記者 呂虹 程姝雯 黃莉玲 受訪者供圖

本站內容來自使用者投稿,如果侵犯了您的權利,請與我們聯絡刪除。聯絡郵箱:[email protected]

本文連結://yxd-1688.com/tags-%E5%90%8D%E5%A4%9A%E5%9C%8B.html

🌐 /