人类倾向于做出可疑的决定。我们有偏见,受情绪反应驱动,预测能力差,很难同时考虑多个数据点。这让人工智能比人类拥有了决策优势,它不仅有可能让我们变得更聪明,还能让我们保持公正。问题在于,人工智能会从人类行为产生的数据中学习(借助明确的领域知识),蓝冠代理深度学习的风险之一是在培训期间引入偏见,这可能来自许多来源。最终,用于训练模型的蓝冠测速数据集是无限的。因此会模仿我们的偏见。这导致了反映我们种族主义、性别歧视和其他偏见的算法。许多organizations-Diversity。人工智能就是一个例子——它们专注于发现和对抗人类偏见。这项工作是必要的,我赞赏这种宝贵的努力。
消除人工智能中偏见的一个方法是包容性地聘用员工。建立人工智能团队,实现跨种族、性别、性取向、年龄、经济条件等方面的多样性。我想说的是,如果你做到了这一点,你就会创造出更好的人工智能,因为你的团队会更善于发现偏见,不同的背景会驱动更多的创造性思维,而更多样化的团队会提高你在整个企业范围内扩展解决方案的能力。
不同的团队更善于避免编程中的偏见,因为他们更善于预测潜在的问题。例如,医疗服务提供商最近使用了一种为大型保险公司创建的算法,引导有较高需求的患者转向为他们提供额外护理的项目。问题是,这个算法基于病人过去就医的频率来做出治疗决定,这有利于病人获得更好的保险、更多的时间、更多的钱等等。这一受青睐的病人群体中,白人居多。对于病情较重但时间和金钱较少的患者,该算法未能推荐额外护理,其中包括一大批黑人患者。这产生了一个意外的种族分类,白人病人被引导到比黑人病人更好的治疗。我们不知道是哪家公司发明了这项技术,但我猜这不是一个多样化的团队。在这种偏见公布之前,黑人团队成员和那些背景不太富裕的人可能已经看到了这种偏见的可能性。
思维的多样性也推动创造性思维。2006年,网飞公司宣布了一项竞赛,若有团队能够成功创建其现已闻名的推荐引擎的原型,将获得100万美元的大奖。获胜的队伍是贝尔科务实的混乱。他们是怎么做到的?首先,他们与来自150个国家的20,000支队伍进行多轮比赛。然后,在比赛的后期阶段,团队开始互相合并。获胜的队伍是三支队伍的组合:BellKor, Pragmatic Theory和BigChaos。准确性、结合模型的能力以及从人类行为中洞察事物的能力,都是成功原型的关键,而每个团队都有这些关键优势之一。这清楚地表明,从蓝冠测速开发的角度来看,此培训方案为质量保证和可用性/可玩性测试提供了潜在的“实验室”。多玩家游戏开发中始终存在两个挑战:确保蓝冠官网游戏可以长时间运行而不会崩溃或变得不同步,以及在多个玩家和设备之间测试各种场景。
思维的多样性会带来更好的结果。不同背景的团队成员为项目带来不同的想法,这将推动高级人工智能的发展。
最后,部署和扩展人工智能需要的不仅仅是技术知识。设计直观界面的能力,与用户和领导协作的能力,沟通变化的能力,对用户有同情心的能力,是成功扩展AI的关键品质。对最终用户感同身受是培训、传达潜在的积极影响等要素的关键。跨功能组(IT、数据科学、商业)的协作和沟通对于确保采用人工智能解决方案也至关重要。研究表明,女性在这些技能上可能比男性表现得更好。这里的关键是要有高情商的团队成员,无论他们是女性、男性还是非二元性的。至少,开发人工智能的团队应该与采用人工智能的人相似。一个以白人或男性为主的团队可能很难与一个更广泛的、不那么同质化的组织建立联系。
我们可以而且必须做更多来提高AI开发中的团队多样性。我致力于增强团队的多样性,我的旅程才刚刚开始。当然,我们不能止步于雇佣多元化的员工。我们还需要建立一种反种族主义的文化,意识到无意识的偏见,持续的对话和教育,你应该敦促你的人力资源团队,如果它还没有。我知道很难找到数据科学家,我也不是说组建这样的团队会很容易。但这是值得的投资,即使这意味着你在培养人才或重新培训和提升团队成员的技能。你可能无法打响指为你的下一个人工智能项目雇佣一个多样化的团队,蓝冠测速网络中的塔可以使用定向或全向收发器。定向天线可以是扇形天线,可以发出一定角度的扇形波,也可以是聚焦天线,可以发出窄波束。但如果你想让你的团队开发出更聪明、更好、更无害的人工智能,那么尽一切努力建立一个多元化的团队。