智能制造全生命周期生态服务平台

首页> 项目申报> 资讯详情

招聘工作将最先被人工智能取代

小树 来源 : 千家网 2018-08-13 17:21    阅读量:2   

人工智能时代,很多岗位都很危险,那么最危险的是什么呢?目前来看,应该是人事。

员工推荐,这一过程往往会让未被充分代表的群体离开,但仍占公司招聘的大部分。研究发现,招聘人员和招聘经理也会对这一过程产生自己的偏见,他们通常会选择“听起来不错”的名字和教育背景。

招聘工作将最先被人工智能取代0

招聘工作将最先被人工智能取代

在整个管道过程中,公司缺乏种族和性别多样性,在公司高层中,代表人数不足的人正在减少。在财富500强企业中,只有不到5%的首席执行官是女性——而且只有三位黑人ceo。财富500强公司的种族多元化几乎同样令人沮丧,2016年新任命的五名董事会成员中,有四人是白人。

“识别高潜力的候选人是非常主观的,”CorpU的首席执行官Alan Todd说,他是一个领导发展的技术平台。“人们根据无意识的偏见选择他们喜欢的人。”

人工智能的拥护者辩称,这项技术可以消除其中的一些偏见。Entelo和Stella IO等公司没有依靠人们的感情来做出招聘决定,而是使用机器学习来检测某些工作所需的技能。然后,人工智能将匹配那些拥有这些技能的候选人。这些公司声称不仅要找到更好的候选人,而且还要找出那些以前在传统过程中没有被承认的人。

例如,Stella IO的算法只根据技能对候选人进行评估,例如,创始人Rich Joffe说。“这个算法只允许根据我们告诉它的数据进行匹配。它只被允许看技能,它只被允许看行业,它只被允许看一层公司。”他说,这限制了偏见。

Entelo今天发布了无偏见的采购模式,这是一种进一步匿名招聘的工具。该软件允许招聘人员隐藏姓名、照片、学校、就业差距和年龄标记,以及替换性别特定的声明,以减少各种形式的歧视。

人工智能也被用于帮助培养内部人才。CorpU与密歇根大学罗斯商学院建立了合作关系,建立了一个20周的在线课程,利用机器学习来识别高潜力的员工。托德说,那些排名最高的人通常不是那些已经在晋升的人,而且经常表现出在招聘过程中被忽视的内向性格。

“人类的决策非常糟糕,”康奈尔大学信息科学系助理教授Solon Borocas说,他研究机器学习的公平性。但他警告说,我们也不应该高估技术的中立性。

Borocas的研究发现,在招聘过程中,机器学习很像它在面部识别中的应用,会导致无意识的歧视。算法可以携带那些编程的人的隐式偏见。或者,他们可能倾向于偏爱某些特定的品质和技能,而这些品质和技能在给定的数据集中体现出来。Borocas解释说:“如果你用来训练系统的例子不能包括某些类型的人,那么你开发的模型可能真的很难评估这些人。”

并不是所有的算法都是平等的,人工智能社区也存在分歧,哪些算法有可能使招聘过程更加公平。

一种机器学习依赖于程序员来决定在看候选人时应该优先考虑哪些品质。这些“受监督”的算法可以用来扫描那些去常春藤盟校的人,或者那些表现出某些品质的人,比如外向的人。

“无人监督”的算法决定了他们自己的哪些数据是优先排序的。这台机器根据现有员工的素质和技能做出自己的推断,以确定未来员工所需要的技能。如果这个样本只包含一个同质的群体,它就不会学习如何雇佣不同类型的个体——即使他们在工作中表现出色。

公司可以采取措施来减轻这些形式的偏见。人工智能招聘初创公司Pymetrics让程序员对其算法进行审计,以确定它是否对任何性别或种族群体都有偏好。例如,大量考虑邮政编码与种族密切相关的软件,可能会对黑人候选人产生偏见。审计可以捕获这些偏见,并允许程序员纠正它们。

Stella IO还让人类监控人工智能的质量。“虽然没有任何算法能保证万无一失,但我相信它比人类好得多,”创始人Joffe说。

波拉卡斯同意,在人工智能的帮助下,雇佣员工比现状要好。然而,最负责任的公司承认,他们不能完全消除偏见,并迎头解决。“我们不应该把它看作是一颗银弹。”他警告说。

声明: 本网站原创内容,如需转载,请注明出处;本网站转载内容(文章、图片、视频等资料)的版权归原网站所有。如我们转载或使用了您的文章或图片等资料的,未能及时和您沟通确认的,请第一时间通知我们,以便我们第一时间采取相应措施,避免给双方造成不必要的经济损失或其他侵权责任。如您未通知我们,我们有权利免于承担任何责任。 我们的联系邮箱:news@cecb2b.com。

好文章,需要你的鼓励!
分享到:
参与评论
剩下299
热门搜索
相关问答
中发智造自媒体
微信公众号
头条公众号
微博公众号
最新最热 行业资讯
订阅栏目 效率阅读