“一項政策的出臺,將會影響哪些人,是否會造成對部分群體的不公?企業在進行商業決策、推廣品牌時會不會有倫理風險?人工智能(AI)倫理大模型可以為這些問題提供答案。”12日,在東南大學“全球首個系統級倫理垂域大模型—‘問道’”的新聞發布會中,東南大學AI倫理實驗室主任王玨對該模型作出如此描繪。
“問道”擁有倫理風險評估與審計、倫理困境模擬與決策推演、倫理對齊輔助設計、動態知識庫與案例教學、倫理學前沿探索與范式革新等五大功能,目前免費向用戶開放。
“‘問道’致力于成為用戶的倫理思考伙伴與決策支持系統,試圖幫助科研機構、科技企業、倫理審查機構、政策制定者以及公眾在復雜的技術與社會問題中,洞察多元價值,守護共同善。”王玨說。

多場景應用從源頭避免偏見和風險
“AI生成內容有沒有著作權?”
記者在“問道”大模型中輸入上述問題,模型幾秒鐘便生成答案,其中包括結論摘要、背景原理、建議和信息來源類別說明。
與眾不同的是,大模型在背景原理部分,援引了《中華人民共和國著作權法》的基本原則和《人工智能生成合成內容標識辦法》。
“‘問道’的知識庫不是全能的,但力求輸出的內容是有理有據的。”王玨說。
“問道”由東南大學AI倫理實驗室主任、人文學院教授王玨牽頭設計,東南大學移動通信全國重點實驗室、毫米波全國重點實驗室、教育部移動信息通信與安全前沿科學中心以及江蘇省道德發展智庫等跨學科平臺共同研發。
“問道”可以做什么?在團隊設計的應用場景中,該模型可以作為企業倫理審查官,自動審核商業決策、廣告文案、算法模型是否存在倫理風險;也可以作為AI研發的“合規檢測工具”,在產品設計之初就注入倫理考量,從源頭避免偏見和風險;還可以作為學生的倫理導師,通過模擬真實的道德困境,培養學生的批判性思維和道德決策能力。
“我們希望用AI的技術能力,去主動加速、強化人類社會的倫理建設,讓‘道德進步’不再滯后于‘技術進步’,實現‘用技術解決技術帶來的道德問題’。”王玨說。
五大功能覆蓋倫理治理全流程
作為首個系統級倫理垂域大模型,“問道”構建了覆蓋倫理治理全流程的功能矩陣。
王玨解釋,在五大功能中,就倫理風險評估與審計而言,模型通過系統識別算法中的公平性、隱私與安全等隱患,實現倫理風險前置防控。
在倫理困境模擬與決策推演中,模型通過構建高擬真道德場景,輔助用戶進行多視角推演與決策優化。
在倫理對齊輔助設計時,模型將價值觀原則轉化為可執行、可量化的工程技術標準與算法規范,為人工智能產品提供從理念嵌入到合規落地的全鏈路方案。
就動態知識庫與案例教學來說,模型匯聚全球倫理規范與典型案例,支持智能檢索和情境學習,提升專業知識的獲取效率。
此外,模型致力于倫理學前沿探索與范式革新,通過深度文獻挖掘與理論分析,協助學者洞察倫理發展規律,推動學術研究范式跨越升級。
“整體上,‘問道’能夠對AI應用中的各類風險進行系統識別與評估,并從中國語境出發提出具有可操作性的治理路徑。”王玨說。
將灌注的數據建成“知識樹”減少大模型“幻覺”
隨著AI的廣泛應用,“AI幻覺”也隨之產生。當AI“吸收”的原始數據不足、錯誤或本身帶有偏見,都會讓其生成錯誤的觀點和事實。
“我們以結構與約束減少幻覺,以透明與追溯克服倫理‘黑箱’。”王玨說,“問道”并非依靠“大而多”的訓練,而是依靠“結構化知識構建+多模式應答+分層安全機制+自動優化循環”四大體系形成的技術閉環。
該模型的技術開發人員、東南大學信息科學與工程學院博士研究生繆鈺杰解釋:“我們在通用大模型基座的基礎上,為‘問道’灌注了經典的倫理學著作、我國具有重大意義的倫理學案件、涉及倫理學的法律法規,以及自動駕駛、生物基因等近年來社會熱點事件中的倫理規范。”他說,團隊以目錄感知的方式輸入數據,形成一棵“知識樹”,從而在向用戶輸出信息時,可以讓用戶了解哪些內容來自哪本書的哪個章節。這種方式除了可以為用戶提供結構化的知識圖譜,還能降低大模型的“幻覺”。
王玨表示,未來,“問道”將持續優化人機交互機制,注重開發的系統性和漸次性,向專家和用戶開放反饋通道,形成模型迭代的良性閉環,并進一步拓展其在科研、產業與教育等場景的深度應用,為推動人工智能與社會倫理協同發展貢獻智慧。
友情鏈接: 政府 高新園區合作媒體
Copyright 1999-2025 中國高新網chinahightech.com All Rights Reserved.京ICP備14033264號-5
電信與信息服務業務經營許可證060344號主辦單位:《中國高新技術產業導報》社有限責任公司