如果您在一个技术相对先进的组织中,数据是蓝冠注册AI (尤其是机器学习)的核心组成部分,因此在优化AI模型的同时蓝冠代理要考虑许多因素,同时要在准确性和处理现实世界中通用输入的能力之间取得平衡。您已经了解了新技术对问题和机会的新方法的需求或促进。但说到人工智能,你还什么都没看到。人工智能带来了很多问题,比如风险和可解释性,而大多数商业和技术领导者才刚刚开始理解这些问题。此外,人工智能将是决定未来市场赢家和输家的决定性因素。
毕马威(KPMG)发表了一份针对30家在人工智能领域处于领先地位的公司的深入研究报告,其中许多观点都被提了出来。毕马威的作者们预测,首先,未来3年内,直接参与人工智能工作的员工数量将从平均375人增加到约600人。他们还希望在这段时间内将人工智能人才和技术的投资翻一番。
麻省理工学院斯隆管理评论(MIT Sloan Management Review)和赛仕集团(SAS)最近对2280名商界领袖进行了调查,结果发现,尽管我们仍处于人工智能的早期阶段,但现在就开始考虑人工智能对组织和风险的影响还为时不早。
商业领袖需要直接参与人工智能活动。毕马威的调查显示,蓝冠注册AI正在通过自然语言处理来帮助驱动各种形式的机器人,以帮助人类。例如,机器人可以用来将饮料运送到酒店房间,或将比萨饼运送到房屋,同时让接收者提出问题以获取信息。40%的受访者表示,业务部门的高管也将在人工智能领域担任领导角色。报告称:“人工智能需要数据管理、分析、IT基础设施和系统开发方面的技术人员,以及业务和运营专家之间进行更多的合作。”“这意味着,组织领导人需要确保传统的竖井不会妨碍人工智能的努力,他们必须支持所需的培训,以便在整个员工队伍中培养技能。”
CIO和CTO必须真正参与进来。毕马威和麻省理工学院的调查都显示,首席信息官和首席技术官将在人工智能领域发挥主导作用。这些高管“将需要优先发展基础技术能力,从基础设施和网络安全,到数据管理和开发流程——在这些领域,那些拥有更先进人工智能实现的企业已经处于领先地位。”“人工智能将改变首席信息官的角色,他们”还将需要管理软件开发和部署流程的重大变化,这也是大多数受访者对人工智能的期望。许多cio还将负责监督或支持正式的数据治理工作。”
人工智能将需要加强对风险管理和道德规范的关注。研究发现,先进企业只是刚刚开始加强治理、控制和问责制,以管理人工智能的风险。在毕马威的研究中,只有25%至30%的公司投入巨资开发控制框架和方法,以提高人工智能的信任度和透明度。
麻省理工学院的调查还发现,“很少有从业者采取行动制定政策和流程来管理风险,包括道德、法律、声誉和金融风险,”报告称。那些拥有更先进人工智能实践的企业,正在建立技术治理和风险管理的流程和政策,包括提供方法来解释它们的算法如何交付结果。调查发现,蓝冠怎么样?网络经过几代人的发展,每一代都产生了新的规范,技术和解决方案。此外,蓝冠测速已经成为新应用程序的基础连接平台,包括物联网设备,机器人技术,虚拟和增强现实以及移动游戏。大约一半的人正在采取行动创建组织结构来管理人工智能风险:26%的人拥有一个制定政策和管理人工智能风险的团队,24%的人计划创建一个团队。
在麻省理工学院的调查中发现的人工智能风险包括以下几点:
投资回报不足
产生不良信息
使用不道德
支持有偏见的、可能是非法的决定
产生人类无法解释的结果
难以预料,难以妥善管理
可解释性将变得至关重要。在可解释性方面已经有了一些行动,麻省理工学院的调查报告将其定义为“识别模型用于产生结果的关键因素的能力,这些关键因素可能是决策支持系统的建议或自动化流程中的行动。”“拥有最广泛AI实现的受访者中,55%的人会向内部利益相关者解释,42%的人会向外部利益相关者(如客户)解释。”