跳到主要內容

[標題]最新消息

新加坡宣布新的AI安全措施

2025年2月新加坡在法國巴黎舉行的人工智慧行動高峰會(AIAS)上宣布新的AI安全措施「全球AI保證試點(Global AI Assurance Pilot)」,旨在因應AI產品與服務的跨領域特性,強化新加坡及全球公民的AI安全保障。

【建立可信任的AI環境:全球AI保證試點】 此倡議由新加坡的AI安全治理核心機構「AI Verify基金會」發起,將針對生成式AI應用的技術測試建立規範、開發測試工具與實踐測試流程,召集AI測試供應商以及正在部署生成式AI應用的公司共同參與。目標塑造AI保證標準和服務,發展本地和國際第三方AI保證市場,為AI治理框架提供實際投入,藉由外部保證提高人們對生成式AI應用建立信任,促進生成式AI的廣泛採用。 此倡議將開發測試工具,測試重點為技術層面,而非流程合規性測試,針對個別用例而非整個組織,並專注於應用而非底層基礎模型。參與的AI應用涉及至少一個大型語言或多模態模型的使用,試點預計涵蓋醫療、金融、教育等產業,以及聊天機器人與程式碼助手等功能,測試領域包括安全與健康、行業監管要求、不公平待遇、透明度與救濟等。

【新加坡的AI治理核心:AI Verify基金會與AI模型治理框架】 AI Verify基金會隸屬於新加坡資訊通信媒體發展局(IMDA),該機構自2020年推出「AI模型治理框架(Model AI Governance Framework)」以來,一直是國際AI治理的先驅。2024年5月,IMDA更新了這一框架以應對生成式AI不斷變化的局面,新的版本為生成式AI技術建立一套系統性且平衡的管理方法,以應對其潛在風險並促進創新。 框架圍繞著九個關鍵維度展開,包括問責制、數據、可信任的開發與部署、事件報告、測試與保證、安全、內容溯源、安全與對齊研發,以及AI的公益應用。此架構目標建立一個值得信賴的AI生態系統,全球AI保證試點計畫將成為生成式AI模型治理架構建立最佳實踐。

【更廣泛的倡議:國際合作與區域洞察】 除了全球AI保證試點,2025年2月新加坡也宣布其他新的AI安全措施,通過AI安全研究所網絡(AISI)與日本合作,評估大型語言模型在非英語環境中的表現,涵蓋10種語言和5種危害標準,確保AI在不同語言環境中的安全性。新加坡發布「AI安全紅隊挑戰評估報告」分析大型語言模型在亞太地區不同語言和文化中的表現,提出統一的測試方法,幫助制定區域安全問題的基準和自動化測試。

相關連結:
全球AI保證試點倡議 (另開視窗)