圖片來自網(wǎng)絡
只要是被應用在重要架構(gòu)的AI系統(tǒng)都被視為高風險,從重大的基礎設施、教育/職業(yè)訓練、產(chǎn)品的安全配件、招募/員工管理系統(tǒng)、必要的私人與公共服務、執(zhí)法、移民/庇護/邊境管制管理,以及司法與民主程序等。
在這些高風險領域嵌入AI系統(tǒng)時,都必須遵守嚴格的義務,包括經(jīng)過適當?shù)娘L險評估,擁有高品質(zhì)的訓練數(shù)據(jù)集,記錄活動利于追蹤,詳細的文件,適當?shù)娜藶楸O(jiān)督,以及高度安全與精確性。
此外,所有遠程的生物辨識系統(tǒng),都被列為必須符合嚴格限制的高風險應用,原則上禁止執(zhí)法機構(gòu)于公共場合中使用相關系統(tǒng),少數(shù)的例外則可能出現(xiàn)在找尋失蹤兒童、避免緊急的恐怖威脅,或者是用來偵測與定位已確定或涉嫌重大刑事案件的犯人,在使用前必須獲得司法機構(gòu)或其它獨立機構(gòu)的授權(quán),且必須限制使用時間。
有限風險的AI應用則具有透明化義務,例如使用者必須知道自己是與聊天機器人對話。最小風險的AI應用包括AI影音游戲或垃圾郵件過濾機制等,歐盟表示,絕大多數(shù)的AI系統(tǒng)都落在這個類別,而該類別亦允許人們自由使用,不會受到新法規(guī)的規(guī)范。
相關法案將會在歐洲議會及歐盟會員國采納之后實施。