差,不讲个人卫生。1967年篇被广泛引用心理学论文指出,“对人不感兴趣”和“不喜欢与人密切接触活动”是“程序员显著特征”。[62]结果,公司找到这些人,他们成那代顶尖程序员,而他们心理状况则成种自应验预言。
既然如此,这种隐藏偏见如今又卷土重来,也就不足为奇,这是因为有越来越多秘密算法参与到招聘过程中。美国数据科学家、《数学杀伤性武器》书作者凯茜·奥尼尔为英国《卫报》撰文,解释在线技术招聘平台Gild(现已被城堡资本公司收购并纳入公司内部[63])如何通过梳理求职者“社交数据”,[64]也就是他们在网上留下痕迹,让雇主获得远超求职者简历信息。这些数据被用来根据“社交资本”给候选人排名,“社交资本”基本上是指程序员对数字社区有多不可或缺。这可以通过他们在GitHub或StackOverflow等开发平台上共享和开发代码时间来衡量。但是Gild筛选出海量数据也揭示其他模式。
例如,根据Gild数据,经常访问某个特定日本漫画网站“预示着强大编码能力”。[65]因此,访问这个网站程序员会得到更高分数。这切听起来都很令人兴奋,但正如奥尼尔所指出,访问漫画网站就能得到加分,这实在让关心多样性人心中警铃大作。正如们所见,女性承担全世界75%无偿照护工作,她们可能没空花几个小时在网上聊漫画。奥尼尔还指出:“如果像大多数科技网站样,那个漫画网站也由男性主导,并且带有性别歧视基调,那这个行业中很多女性可能会避免使用它。”简而言之,Gild看起来有点像卡耐基夏校项目中那位男性计算机科学老师算法。
毫无疑问,Gild并无意创造种歧视女性算法。他们本意是消除人类偏见。但是,如果你不解这些偏见是如何运作,如果你不收集数据、不花点时间来建立基于证据程序,你就将盲目延续过去不公正。因此,Gild程序员没有考虑到女性与男性在线上和线下生活差异,他们无意中创造个对女性存有潜在偏见算法。
但这还不是最麻烦。最麻烦是们不知道问题到底有多严重。大多数这类算法都是保密,并以专有代码形式得到保护。这意味着们不知道这些决策是如何做出,也不知道它们隐藏什偏见。们之所以解Gild算法中这种潜在偏见,唯原因是它个创建者碰巧告诉们。因此,关于这些人工智能歧视性,这是个双重性别数据缺口
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。