跳到主要內容

[標題]最新消息

澳洲國家AI中心發布《人工智慧應用指南》

澳洲國家AI中心(NAIC)於2025年10月21日發布《AI應用指南》,旨在引導澳洲企業以安全且負責的方式採用AI技術,並與澳洲既有的AI倫理原則以及國際標準保持一致。透過六項可操作的關鍵實踐,協助組織建立信任並有效規劃、管理和使用AI。


為了適應不同組織在AI應用與治理方面的成熟度與複雜程度,該指南設計兩個版本,一為適用於剛開始採用AI的組織提供可執行步驟,著重於將AI與業務目標相契合,建立治理機制。而另一版本為管理更複雜系統或正在擴展AI的組織而設計,提供詳細技術訊息,加強治理與改進監督,並將負責任的AI實踐融入系統、流程和決策之中。指南的六項負責任AI治理和應用實踐涵蓋:

  1. 確定責任人:建議組織指定高階領導擔任治理總負責人,以及為每個AI系統指定專人負責,以應對可能對個人和企業產生重大影響的自動化決策。
  2. 了解影響並據此制定計畫:建議組織開展利害關係人影響評估,以防止系統放大偏見或產生不準確資訊等大規模負面後果。
  3. 衡量和管理風險:建議組織建立風險篩選流程,識別不可接受的風險,並制定風險管理流程與緩解計劃,以因應傳統IT、狹義AI、通用AI以及AI系統之間的差異。
  4. 分享重要訊息:建議組織公開AI使用情況,詳實記錄其關鍵資訊,以建立問責制和信任。
  5. 測試和監控:鑑於AI系統的行為難以預測且會隨時間改變,確保系統按預期運行並檢測效能變化。
  6. 人為控制:建議組織建立清晰的人工干預點,以便人們在必要時可以暫停、覆蓋或關閉系統。


此份《AI應用指南》鼓勵組織根據自身的具體情況、限制和使用場景靈活運用這些指導原則,提供了實施負責任AI的框架,也強調記錄存檔的重要性,建議組織記錄每項執行的關鍵實踐活動,以便在必要時進行審核,從而在不斷發展的AI應用中持續學習和改進其治理體系。這套指南為澳洲企業在AI的創新與信任之間,提供審慎平衡的發展方向。

相關連結:

支援更安全地採用人工智慧:澳洲企業最新指南