前不久,科技部、教育部、工業和信息化部等十部門印發《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》),這是我國構建科技倫理治理體系的里程碑文件,也是我國推進科技倫理治理制度體系建設的重要開篇。
自1956年達特茅斯會議提出“人工智能”這一概念以來,人工智能已歷經了3次變革,逐步從系統級的知識推理向深度學習發展。當前,以ChatGPT為代表的自然語言處理,助推了通用人工智能(AGI)的演進,也再一次將人工智能技術推向了飛速發展的黃金期,使其迅速成為新的重要使能技術,被廣泛應用于經濟社會的各個領域,帶來新的產品和服務。然而,隨著人工智能技術的廣泛應用,由此可能引發的AI技術濫用、個人隱私侵犯、算法歧視、倫理道德沖擊等諸多科技倫理問題已成為國際社會關注的焦點,亟待認真應對、規范治理。
在通用人工智能掀起全球熱潮的同時,《審查辦法》恰逢其時地為我國人工智能的健康發展系上了“安全帶”,也將有力促進我國加快構建良性健康的數字經濟社會秩序。
《審查辦法》以“促進負責任創新”為核心理念,以強化科技倫理管理主體責任為抓手,指導開展問題導向的科技倫理治理,推動構建一套發展與安全并重、創新與倫理并行的科技監管與治理機制。在推進這套機制落地的過程中,要兼顧技術的創新發展與安全監管,我認為,有幾點工作值得高度重視。
一是創新主體要自覺壓實科技倫理管理主體責任,將科技倫理要求貫穿科技活動全過程。科技倫理治理是科技創新能力和水平的重要體現,直接影響科技創新的質量和效率。隨著人工智能等新興數字技術的廣泛應用,其帶來的倫理風險也愈發復雜多變。創新主體應結合《審查辦法》要求,加快優化組織架構和管理流程,構建權責明晰的科技倫理管理體系,建立倫理風險預判機制,在設計、研發和應用等科技活動的各個階段,要持續地識別、分析與管理倫理風險。同時,壓實科技創新管理責任,責任主體既要對科研目標負責,也要對科技倫理負責,提高科研人員的倫理意識,大力宣貫科技倫理道德教育,確保責任主體始終秉持科技向善理念,踐行負責任創新。
二是面向科技倫理治理持續開展研究,以技術創新應對科技倫理治理的問題與挑戰。科技倫理治理應始終與科研技術的創新發展緊密結合、同頻共振,用技術創新解決技術發展中的問題。創新主體應借助技術手段輔助開展科技倫理審查與監管,通過研發或使用新的技術工具、創新技術方法,重點解決技術在公平性、安全性、可解釋性、隱私保護等方面面臨的挑戰。目前,人工智能大模型相關應用加速落地,然而,在人工智能大模型的數據清洗、敏感詞判別、合規使用以及基于國外企業和機構提供的大模型底座熱啟動等方面仍存在不少漏洞和風險,如不加以規范治理,將可能對人類行為、人身健康、社會意識形態等方面造成危害,更有甚者,將嚴重威脅我國科技創新生態的有序發展。
三是加強國際科技治理合作,把握全球科技治理研究動態,謀劃中國科技治理合理路徑。科技價值觀始終是國際科技治理的核心議題,由于政治體制和民族文化等各不相同,各國科技倫理治理的理念與路線也不盡相同。我們既要積極擁抱國際科技創新網絡,在科技治理手段上與國際規范相銜接,推動科技更好地增進人類福祉、為人類社會發展服務。同時,也要立足我國國情,探索形成具有中國特色的治理方案,靈活運用清單動態調整機制,隨時準備應對新問題、新挑戰。此外,要積極發起全球科技倫理治理交流與對話,大力宣傳中國科技倫理治理的創新實踐,進一步增強我國科技創新的傳播力和影響力。
在可預見的未來,智能技術向“強人工智能”逐步演進,科學智能(AI for Science)、具身智能等新方向也不斷涌現,智能技術、數字技術對經濟社會的作用與影響將會越來越突出,這一過程必將伴隨著成倍增長的技術挑戰,科技倫理治理問題也將變得更加突出、更加緊迫。總之,科技倫理治理是一項復雜的系統性工程,既需要政府、學界、產業界等多方通力合作,也需要科技工作者的潛心研究和不懈努力,相信在不久的將來我們會在科技倫理治理方面取得更豐碩的成果。
(作者系國家科技倫理委員會委員、中國工程院院士)