人工智慧(Artificial Intelligence, AI)的快速發展雖能加速產業創新、引領社會變革;但所導致的負面影響,也是我們所不容小覷的。美國聯邦貿易委員會(Federal Trade Commission, FTC)近日(2021/4/19)針對人工智慧所生的偏見風險提出多項建議;3日後,歐盟執委會(European Commission)也公布了以風險為基礎的《人工智慧法律框架》(legal framework on AI)草案,將人工智慧系統區分為不同風險等級,並依據等級的差異而有不同之效果。
FTC認為,AI的發展雖能徹底改變醫學、金融、媒體、商業等產業運作方式,但產業在適用AI時,亦可能產生令人擔憂的偏差結果;例如COVID-19的預測模型可以協助有效分配加護病房床位、呼吸器或其他醫療資源,但若AI模型所選用的資料集本身即帶有偏差,則可能導致醫療資源的分配產生歧視性分配不公的結果。因此,為了促使組織運用人工智慧時,能秉持真實、公正及平等之精神,FTC建議,組織在一開始設計人工智慧系統時,即應思考如何改善資料集,消弭可能產生的偏見,再者,不管是否已開始使用該人工智慧系統,組織應時時確保所適用之人工智慧並未有任何種族、性別或其餘受保護族群之偏見情事發生,此外,組織應藉由公開原始碼或公開演算法結果之方式,使外界得以檢視該演算法是否會對消費者造成損害,強化人工智慧系統之透明性及獨立性。最後,問責制度之建立也是極其必要的,FTC表示,當組織疏於建立問責制度,如發生人工智慧偏見而致生差別待遇及不公平結果時,FTC得依
《聯邦貿易委員會法》(Federal Trade Commission Act)第5條、《公平信用報告法》(Fair Credit Reporting Act, FCRA)或《公平信用機會法》(Equal Credit Opportunity Act, ECOA)加以處分。
相較於FTC是針對人工智慧之偏見造成之公平交易秩序影響提出建議;歐盟執委會於4月21日提出《人工智慧法律框架》草案則是較全面性地就人工智慧系統進行規範 ,據執委會說明,該草案以人工智慧風險為基礎,根據風險高低區分不同之適用規範;倘若該AI技術將導致「無法接受之風險」(unacceptable risk),則此技術是被禁止的,例如用於供政府進行社會評分(social scoring)之人工智慧系統、用於操縱人民行為或決定,進而使人民做出有害且違反其自由意志決定之人工智慧系統、用於執法之即時性生物辨識系統等。倘若該AI技術被認定為「高風險」(high-risk),例如用於關鍵基礎設施、教育及培訓、聘僱、司法事務之人工智慧技術,則該等AI技術於上市前,應遵守嚴格之規範,包括執行風險評估與風險降低措施、提供AI系統高品質之資料集,以減少歧視性結果發生、留存活動紀錄以確保該人工智慧設計過程得以追溯、提供清楚且足夠之資訊給使用者等;而若AI技術僅有「最小風險」(minimal risk),因不會有風險或僅對人民造成極小之風險,歐盟將不會對此類技術進行干預。縱使執委會希望藉由本草案的提出解決AI所帶來的特定風險問題,保障企業與人民,並強化人工智慧技術於歐盟之創新與投資;多數專家仍認該草案之風險等級分類過於簡化且模糊,將無法有效保障消費者權益。