《彭博》的實驗表明,OpenAI GPT3.5在使用虛構姓名進行簡歷排序時存在明顯的種族偏見。該實驗通過從選民和人口普查數據中提取與特定種族或族裔關聯至少90%的姓名,隨機分配給同等資格的簡歷。
在對這些簡歷進行1,000次排序時,GPT3.5傾向于更頻繁地偏向某些族裔的姓名,違反了評估對受保護群體的工作歧視的基準。實驗涉及的四個職位(人力資源業務合作伙伴、高級軟件工程師、零售經理和金融分析師)中,與黑人美國人相關的姓名在金融分析師和軟件工程師角色中最不可能被GPT評為最優秀候選人。
實驗還顯示,GPT在不同職位下的性別和種族偏好存在差異。盡管GPT并不一致地偏向某一特定群體,但在不同情境下會選擇贏家和輸家。此外,使用較少使用的GPT-4進行測試時,同樣發現了明顯的偏見。
對于《彭博》的詳細問題,OpenAI回應稱,使用GPT模型“開箱即用”的結果可能不反映其客戶使用模型的方式。企業在使用其技術時通常會采取進一步減輕偏見的措施,包括微調軟件的響應、管理系統消息等。
盡管生成式AI技術在人力資源領域的應用引起了廣泛關注,但這項實驗強調了在使用這些技術進行招聘和聘用時可能出現的嚴重自動歧視風險。對AI模型的偏見進行調整仍然是AI公司和研究人員面臨的主要挑戰,而自動招聘系統可能進一步加劇企業多樣性努力的難度。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。