【法律】加州新人工智慧僱傭法規將於2025年10月1日生效:企業如何合規?| 鄭博仁律師

法律 時間:08/11/2025 瀏覽: 3364

【帕薩迪納】隨著人工智能(AI)在職場中的應用日益普及,加州民權委員會(California Civil Rights Council)近期發布了一系列新法規,旨在規範AI在招聘、晉升及其他僱傭決策中的使用。這些新規將於2025年10月1日正式生效,並對《公平就業與住房法》(Fair Employment and Housing Act, FEHA)的現有框架進行修訂。前檢察官、現任南加州知名審判出庭律師鄭博仁(Paul P. Cheng, Esq.)指出,此舉延續了加州近年來加強監管職場AI的趨勢,企業應密切關注並提前做好合規準備。



新法規的核心內容與法律影響

加州民權部門強調,自動化決策系統(Automated-Decision Systems)在僱傭環境中的廣泛應用可能加劇現有偏見,導致歧視性結果。這些系統包括依賴AI、機器學習、演算法或統計模型的計算程序,用於篩選求職者、評估員工表現或決定晉升機會。新法規明確規定,此類技術的應用必須符合FEHA的反歧視要求,並對企業的合規義務提出了更具體的規範。

1. 擴大「雇主」定義,涵蓋第三方代理機構
新法規將「雇主」的定義擴展至包括招聘、篩選求職者的第三方代理機構(如人力資源公司或AI技術供應商)。這意味著,若代理機構使用的AI工具導致歧視性結果,雇主可能需承擔連帶責任。

2. 強化數據記錄保存義務
雇主必須保留與自動化決策系統相關的所有數據,包括求職者或員工提供的資訊、系統生成的決策結果等,保存期限至少為四年。此舉旨在便於監管機構審查AI系統是否存在潛在歧視。

3. 禁止基於保護特徵的歧視性AI應用
法規明確禁止雇主或代理機構使用可能對性別、種族、殘疾等受保護群體造成歧視性影響的AI工具。例如,若AI評估測試涉及與殘疾相關的隱性問題,可能構成非法醫療詢問。

4. 企業合規抗辯的關鍵因素
雇主若主動進行反偏見測試(anti-bias testing)並根據結果調整AI系統,可在面臨歧視指控時作為有利抗辯依據。反之,若企業完全未採取任何合規措施,則可能面臨更高的法律風險。

企業應如何應對?

鄭博仁律師強調,儘管新法規多數是對現有反歧視法的延伸,但其明確了AI技術在僱傭決策中的法律責任歸屬。企業應採取以下措施以降低風險:
  • 審查現有AI工具評估所使用的自動化系統是否存在潛在歧視風險,必要時聘請法律及技術專家進行合規審計。
  • 完善記錄保存機制:確保所有與AI決策相關的數據均依法存檔,避免因記錄缺失導致舉證困難。
  • 加強內部培訓:管理層及人力資源部門應充分了解新法規要求,避免無意中違反FEHA規定。

加州的新AI僱傭法規再次體現了立法者對技術應用中公平性的高度關注。企業必須正視合規義務,避免因AI系統的潛在偏見而面臨訴訟或罰款。鄭博仁聯合律師事務所將持續追蹤相關法律發展,為客戶提供最新合規建議。



若您的企業對AI僱傭法規、勞工法或商業法有任何疑問,歡迎聯繫鄭博仁聯合律師事務所中文服務團隊,電話 626.570.8888 或電郵 CN@pprclaw.com我們將竭誠為您提供專業法律支援。

更多內容,歡迎訂閱鄭博仁律師微信公眾號PaulChengLawGroup,或《律師怎麼說》YouTube頻道。



聯繫方式:
電話:(888) 381-4244
電郵:info@pprclaw.com
網站:www.PPRCLaw.com

版权归原作者所有。如有侵权请联系我们,我们将及时处理。

打開微信,使用 “掃描QR Code” 即可將網頁分享到我的朋友圈。

親愛的商家負責人:貴公司需要新聞發布的平台嗎?華人工商新聞網為您提供24小時的中英文訊息平台,無論是新品上市的促銷快訊、社區活動、消費情報、專欄寫作...都歡迎您與我們聯繫。請電(626)280-8588,獲得更完整的訊息。