赠软件计划 最高待遇 欢迎谘询
QQ5825-5957

蓝冠怎么当代理?人工智能的伦理问题:抽象无处不在,但规则在

 
蓝冠怎么注册 人工智能的伦理问题:抽象无处不在,但规则在哪里?


为我们做决定的机器:什么可能出错?随着人工智能研究取得惊人的进展,论文、演讲和研讨会年复一年地提出了这个问题。结果,蓝冠怎么注册算法中根深蒂固的偏见只是众多问题中的一个。
 
哈佛杂志主编乔纳森·肖今年早些时候写道:“人工智能可以聚合和评估大量的数据有时会超出人类能力的分析的,从而使AI招聘建议,确定以秒为单位的信誉贷款申请人,并预测罪犯再犯的可能性。”
 
再说一遍,有什么可能出错呢?
 
墨尔本大学圣三一学院讲师Stephen Fleischresser说:“如果我们要避免人工智能批评者所设想的一些更灾难性的场景,人工智能的发展需要强有力的道德指导。”
 
Edd Gent在SingularityHub网站上说:“对隐私、透明度和算法以意想不到的方式扭曲社会和政治言论的能力的担忧,导致企业、政府、甚至超国家组织纷纷就如何进行合乎道德的人工智能开发发表声明。”
 
所以,问题就变成了,谁来管理AI商店?如果我们已经想象了人工智能的画面会出什么问题,是谁,是哪一个人,哪一个团体,如果有的话,正在试图引导所有的谈话并领导一套工作规则?
 
《自然机器智能》(Nature Machine Intelligence)杂志上发表了一篇有关这方面的文章,很及时。这篇论文没有给出单一的解决方案,但它确实动摇了对话。正如它的标题所写,“仅靠原则无法保证人工智能合乎道德。”
 
作者Brent Mittelstadt就职于英国牛津大学牛津互联网研究所和英国伦敦大英图书馆艾伦·图灵研究所。
 
Fleischresser将Mittelstadt描述为“一位伦理学家,蓝冠怎么当代理?其研究主要涉及与算法、机器学习、人工智能、预测分析、大数据和医学专家系统相关的数字伦理”。
 
问题不在于缺乏对话;Mittelstadt说:“人工智能(AI)伦理现在是学术界和政策圈讨论的一个全球话题。”“至少有84个公私合作项目发表声明,描述了指导人工智能道德发展、部署和治理的高层次原则、价值观和其他原则。”
 
问题是,在所有的讨论中,善意的利益相关者并没有走得太远。崇高的声明和粗体原则的支持层可能已经就位,但顶层在哪里?“伦理学真正困难的部分——实际上是将规范理论、概念和价值转化为人工智能从业者可以采用的良好实践——就像谚语所说的那样,被踢在路上。”
 
虽然崇高的原则是值得称赞的,“迄今为止,人工智能伦理倡议在很大程度上产生了模糊的、高水平的原则和价值声明,承诺是行动指导,但在实践中提供的具体建议很少……尽管如此,人工智能公司和开发商承诺遵守高水平的道德原则和自我监管准则,这为政策制定者提供了一个不采取新规的理由。”
 
Mittelstadt说:“有原则的方法对治理的影响可能有限。缺失的是:一个统一的监管框架,为“数据主体和用户设定明确的受托责任”。他说,缺乏信托关系意味着用户“不能相信开发人员在实践中实现道德原则时会以他们的最佳利益行事”。
 
这篇论文详细阐述了作者认为人工智能伦理未来值得关注的领域。
 
法律和专业问责是讨论的关键领域之一,即“相对缺乏法律和专业问责机制”。为什么这是一个问题:“不能把对自律框架的认真、长期承诺视为理所当然。”
 
作者提出了一个基本的问题:鉴于现有的人工智能法律和专业问责机制的这些弱点,人们必须问:“仅仅确定良好的意愿和最好的希望就足够了吗?”如果没有配套的惩罚机制和治理机构在自治失败时介入,有原则的做法就有可能只是提供关于道德或值得信赖的人工智能的虚假保证。”
 
在人工智能伦理方面,我们将何去何从?
 
作者表示,这种“有原则的”方法需要合作监督。在部门和组织层面考虑“有约束力和高度可见的责任结构”以及“明确的实施和审查过程”。“专业和制度规范可以通过定义明确的需求来建立,蓝冠怎么注册1956帐号包括设计、透明的伦理审查、模型和数据集的文档化以及独立的伦理审计。”