使用AI招聘听起来像防伪计划归根结底,人有缺陷和偏差事实证明 AI也是
批评人工智能-提供我们告诉你的看着我们说话长期以来一直担心技术会从劳动力中消除工作
新研究显示AI以意想不到的方式这样做:依据性别、种族和年龄对合格候选人进行歧视
AI有可能平分招聘场-除了它由人训练拆散它
哪里有偏差
理论上 AI驱动筛选工具完美无法思考或判断,所以它能作出客观决策,对吗?不完全
AI通过率上升,报告偏向事件数也上升数位2023
六月布隆贝格报告分析五千张稳定传播生成图像强化性别与种族定型
高薪工作一贯由浅色调主体表示,低薪工作则与深皮相关联。
谈到性别时,也观察到相似的陈规定型观念。收银员和社工等角色主要由妇女代表,而政治家和工程师图像几乎全由男性主播事实上最大数数据集职业由男性主体显示
启动稳定AI代言人运行稳定分送响应布隆贝格所有AI模型都基于数据集偏向问题就在这里
公司拥有或获取数据集训练AI模型使用这些数据集AI模型执行基于观察模式的任务数据集有缺陷表示模型有缺陷
等同人工智能模型用于招聘时会怎么样查询工作日系统软件公司提供人力资源和财务解决方案
现时面对集体诉讼由Derek Mobley牵头的求职者表示他们的AI筛选工具歧视老年、黑人和残疾人申请者
莫布利 — — 40岁黑客诊断焦虑和抑郁 — — 声称自2018年以来,他申请约100个职位并每次都被拒绝,尽管满足工作条件。表示有数目不明的人报告同一种歧视
工作日发言人表示公司定期进行内部审核和法律评审,以确保守规并诉讼无功
由陪审团判定是否属实但它不是第一次AI招聘软件显示偏差
2017年亚马逊匿名拆卸自身AI驱动筛选工具因为在以男性为主的行业中,女性申请人不太可能认为有资格工作。
在今年7月 斯坦福大学研究人员发现 七大AI检测工具常误分类写作非本地英语由 AI生成
AI检测工具测量文本易混淆性简言之,句子下一词越复杂或出人意料,AI生成的可能性越小。
非本地英语语言者可能使用较简洁词因词表有限,检测工具更有可能将这些申请者的工作标注为自定义AI
Standford案例关乎等级职场非本地求职者根据使用词被认为不那么合格
事件都指向相同的问题:当AI工具培训时,当文化、种族和性别差异存在时,它会反映公司正试图消除的完全偏差。
政府在AI招聘偏差上说什么
有一阵子,他们不常说
2019年 伊利诺斯州开立法案 要求雇主通知候选人视频访谈期间AI分析.
马里兰州随后还禁止使用面部识别法就业前面试时不经申请人同意使用面部识别法。
2021年平等就业机会委员会启动全机构倡议,称为“人工智能算法公平倡议”,以监测和评估技术在招聘实践中的使用
同年,纽约市议会通过了一项法律,要求使用AI技术的雇主向申请人披露并每年审核偏差问题
执法开始于2023年7月但不是每个人都视此为胜算
一些批评者表示它不够具体,留有漏洞其他人则呼唤它不覆盖对老年或残疾者的歧视
并进化成AI创举美国司法部和EEOC发布联合指南提醒雇主使用AI驱动工具就业决策时有歧视风险
表示反对盲目依赖AI,工作日今天正面临同样的问题
最近EEOC从一系列目击者-包括计算机科学家、法律专家、雇主代表-听到讨论AI职场潜在利弊的听证会
下一个AI招工
多公司遍全美已经整合AI招聘过程内2022学习SARCM发现79%的公司使用自动化和/或AI招聘
未来几年内,各组织应期望对其雇用实践进行更多监督。
纽约新法应在全国产生多米诺效果,据报加利福尼亚州、新泽西州、佛蒙特州和纽约正在制定自己的法律规范AI招聘使用
资源密集联合企业如亚马逊可以建设、培训测试工具以获取更好的结果公司通过第三方商贩购买工具的风险更高 — — 和侵犯民权的风险更高。
彻底审核过程对公司使用人工智能技术就业至关重要
外卖经商很快,它将不够说, "并非我们干的 AI计划人性两端 新AI招聘软件