赠软件计划 最高待遇 欢迎谘询
QQ5825-5957

蓝冠代理:如何对抗AI的黑暗面


 
蓝冠代理:如何对抗AI的黑暗面


 
想象一下,你被一个刺耳的警报声吓得惊慌失措,蓝冠注册AI允许机器人执行恒定/实时校正并学习生产产品的最佳路径。蓝冠怎么样?他们能够在执行重复且通常很危险的任务时这样做,而这可能会使人的注意力下降。尖叫着要你马上躲起来。你的智能电视上用红色显示着“无人机袭击”的字样,当你试图对正在发生的事情进行合理化解释时,你一英寸一英寸地向窗户靠近,你会发现一个被摧毁的城市景观,你完全不敢相信。一群胡蜂乱飞,寻找变态来毒杀他们,无人驾驶的坦克消灭街上的一切,先进的数字双卫星成功地用先进的EMT攻击瘫痪了我们的电网系统。网络罪犯已经利用这种情况,传播一种致命病毒的“深度假新闻”,在群众中引起恐慌和歇斯底里。生物黑客则更进一步,他们威胁说,如果政府不给他们提供可观的报酬,他们就会释放出人工智能制造的流感病毒。
 
如果没有适当的指导方针,这种噩梦般的局面就有可能变成现实。值得庆幸的是,在现实世界中,白宫科技政策办公室(White House Office of Science and Technology Policy)已经制定了一项全面的人工智能安全战略计划,以应对危机和末日场景。此外,强大的运动在政府和私营部门的研究和开发工作部署应对黑暗的人工智能,如:监管原则,增加人工智能研发资金,促进茎教育和培训计划,加强我们与20国集团(G20)和经合组织国际合作伙伴。
 
正是因为人工智能具有巨大的邪恶能力,才使得它如此危险,再加上它与社会的巨大相关性,有必要创造、推出和实施严格的道德标准和先发制人的措施,作为打击人工智能的手段。
 
黑暗的人工智能场景和恶意的人工智能应用
 
黑暗人工智能是一个概括的术语,它封装了任何邪恶的事情,一个自主系统能够执行给定的正确输入(有偏差的数据,未经检查的算法,等等)。以下是一系列潜在的人工智能黑暗场景,从经济不法行为到隐私篡改,不一而足:
 
联合国儿童基金会和杜克大学将加快解决月经卫生问题
 
鉴于某些恶意的人工智能应用,例如:智能尘埃和无人机、面部识别和监视、假新闻和机器人,以及智能设备监听,上述场景有能力实现。无人驾驶飞机和大量无法探测到的智能尘埃(或微型机电系统)可以共同摧毁整个电网和智能基础设施系统。面部识别赋予自主系统识别数百万个人特征的权利,由于克隆技术和机器人技术的发展,这些特征可以以深度伪造图像和视频的形式被激活。随着物联网技术成为国内网络罪犯和外国间谍的有效间谍渠道,智能家居设备将隐私侵权推向了一个新的高度。此外,不受约束的人工智能进入人口监测,很快就会遇到自由权的问题,这可能会扭曲我们的治理法律。

目前的行动,以打击黑暗AI
 
联合国、世界经济论坛(World Economic Forum)、联合国犯罪与司法研究所(UNICRI)、20国集团(G20)、经合组织(OECD)和白宫已经启动了一系列反黑暗人工智能行动。此外,像微软这样的公司通过一套人工智能原则,帮助动员了群众反对黑暗人工智能的草根运动,这些原则在定义围绕负责任的人工智能的工作场所行为准则方面发挥了重要作用。微软人工智能的首要原则包括公平、可靠和安全、隐私和安全、包容、透明和问责。
 
以上所有的原则都有助于阐明一场决心与人工智能作斗争的新时代草根运动。这场以社会为导向的对抗自主系统的运动,是通过取消公共面部识别、禁止无人机监控、强调所有人工智能框架下的责任、问责制和伦理道德而发起的。
 
在非企业前线的战斗黑暗的自治系统,联合国裁军事务办公室(ODA)已经扩充到包括核武化的AI的威胁,2018年,ODA的秘书长发出议程题为“裁军为子孙后代”解决黑暗的AI在未来几年。联合国犯罪和司法研究所(UNICRI)的人工智能和机器人技术中心(Centre for AI and Robotics)也采取了措施,与人工智能和全球执法机构合作,试图打击人口贩运、腐败、恐怖主义和犯罪活动。此外,美国政府最近向联邦部门和机构提交了一份备忘录,其中列出了10项人工智能原则,并强调了围绕自主系统的公私透明度。作为这份备忘录的一部分,美国政府已表现出致力于打造更安全的人工智能的决心。美国首席技术官迈克尔·克瑞特西奥斯发表声明称,过去一年里,特朗普政府在人工智能领域取得了长足进步,采取了“历史性行动”。最后,G20和OECD还制定了具体的目标,通过以问责制和公众信任为核心的伦理自主系统框架,打击黑暗人工智能。
 
Intouch International的数据显示,近70%的美国互联网用户要求制定更严格的国家隐私法,88%的美国人担心自己的个人数据。鉴于数据泄露的频率越来越高,以及职业生涯毁灭性的“深度造假”(由深度学习算法炮制的虚假媒体)的传播,人们有理由担心人工智能会利用个人数据。那么,我们如何才能减轻私人信息的武器化呢?
 
围绕伦理和负责任的人工智能的媒体和会议讨论引起了对这个问题的关注,但还不够;此外,制定更严格的隐私准则只是成功的一半。2018年的欧洲GDPR立法可能有助于保护普通公民免受个人数据操纵;然而,该法律并没有解决数据泄露问题,也没有进一步惩罚那些不遵守GDPR的公司。难怪45%的欧洲人仍然担心他们的数字足迹。美国也经历了类似的困境。例如,《算法问责法》(Algorithmic Accountability Act)规定,拥有大量数据的大型企业必须对人工智能系统进行影响评估,而这些系统有可能造成偏见、歧视和隐私方面的伤害。然而,该法案并没有要求企业公开发布影响评估,这意味着如果企业确实出现失误,没有人需要知道。

尽管人工智能目前的问责制远非完美,但G7、G20和经合组织(OECD)在创建和实施这些原则方面发挥了领导作用。例如,作为七国集团(G7)和二十国集团(G20)多方利益相关者会议的一部分,这两个组织都概述了公众对人工智能的信任是支持问责措施的核心。缺乏公众对自治制度的支持直接阻碍了企业和政府项目的透明度,使得利用问责制来加强隐私保护变得更加困难。此外,经合组织还发布了一套人工智能原则,其中问责制是确保隐私法规得到满足的核心原则和工具。
 
最后,未能惩罚不遵守数据隐私标准的企业,以及企业在对个人信息管理不当保密方面的越权行为,都是支持人工智能追求黑暗野心的因素。七国集团(G7)、二十国集团(G20)和经合组织(OECD
 
更加强调可解释的人工智能(XAI)
 
想象一下,你把实验室的钥匙交给一个你信任的人,结果却发现自己被锁在门外,对里面的破坏情况毫无头绪。现在想象一下,受信任的人是一个自主系统,实验室是一个你编写的机器学习算法,而你是一个无能的软件工程师,似乎无法解释人工智能如何使用你的算法来发动一轮恶意勒索软件攻击。不难想象黑盒AI能够造成多么严重的伤害。幸运的是,黑暗人工智能的这一面已经成为一种潜在解毒剂的催化剂:一种被称为可解释人工智能(XAI)的运动,它主张自主系统应该能够解释它们的动机和行为。
 
美国国防部高级研究计划局(DARPA)是XAI的主要倡导者之一。该机构已经启动了一个项目,重点放在它所称的“第三波人工智能系统”上。“XAI实现的一个例子是,为自主系统提供更简单的算法,这样工程师就能更好地控制和理解AI的决策过程。”因此,可解释性是约束自治系统权力的有效机制。
 
此外,XAI可以与问责措施携手合作,加强数据隐私立法,从而大大降低了暗人工智能的威胁。因此,立法机构在制定涉及人工智能监管的法律时,应该考虑将XAI纳入其中,因为可解释性本身就可以用来监督AI的能力。
 
解决偏见问题
 
性别歧视,无辜一方被判有罪,这些只是自主系统计算有偏见结果的一些例子。有很多原因可以影响算法做出不公平的决定,首先是数据本身。数据是由人类编辑的,而不是人工智能。这就是为什么由不同的个人组成的团队来收集和处理数据是很重要的,否则输入到算法的信息将呈现出倾斜的偏好。最近出现在研究文献中的“公平约束”以及针对IBM等公司的企业度量评估可以进一步增强多样性。
 
例如,IBM的AI公平360 (AIF360)工具包于2018年首次亮相,作为公司监控数据和机器学习模型中的偏见的一种手段。还推动“反事实的公平”机器学习模型,它定义了公平,当一个人被等同于现实世界中当个体将被反事实的世界(或相反),人属于另一个人口。
 
将公平约束与雇佣不同团队收集初始数据相结合,是对抗人工智能不公平歧视的可行方式。此外,一个公正的人工智能可以帮助加强伦理人工智能立法的框架,因为伦理代码的本质要求在法律问题上平等对待个人。
 
执行道德规范和标准
 
AI的道德标准并不是什么新东西,而是对抗黑暗AI所必需的。但是,目前的情况是不够的。这里的关键问题是,伦理AI的状态主要是作为一种建议,而本质上的建议并不需要被采纳(以前面讨论的算法责任法案为例)。在采用这些标准方面已经有了一些进展。

例如,IBM的AI公平360 (AIF360)工具包于2018年首次亮相,作为公司监控数据和机器学习模型中的偏见的一种手段。还推动“反事实的公平”机器学习模型,它定义了公平,当一个人被等同于现实世界中当个体将被反事实的世界(或相反),人属于另一个人口。
 
将公平约束与雇佣不同团队收集初始数据相结合,蓝冠代理人工智能通常专注于使软件更智能,允许机器做出独立决策,并模仿人类学习和改善的方式。是对抗人工智能不公平歧视的可行方式。此外,一个公正的人工智能可以帮助加强伦理人工智能立法的框架,因为伦理代码的本质要求在法律问题上平等对待个人。
 
执行道德规范和标准
 
AI的道德标准并不是什么新东西,而是对抗黑暗AI所必需的。但是,目前的情况是不够的。这里的关键问题是,伦理AI的状态主要是作为一种建议,而本质上的建议并不需要被采纳(以前面讨论的算法责任法案为例)。在采用这些标准方面已经有了一些进展。例如,五角大楼最近列出了一套道德AI原则,作为其“道德清洗项目”的一部分,它有义务遵守这些原则。此外,给予G20和G7更多的信任可以帮助它们迅速建立广泛的道德标准。20国集团和7国集团都可以成立执法管理小组,负责实施道德准则,并处理数十亿通过反黑客机制保持全球联网的物联网设备。最后,应该高度考虑在政府(类似于阿联酋)建立一个人工智能办公室,负责人工智能政策、执行、监管和协调,其中包括一个类似fcc的办公室。
 
没有伦理建议AI转化成具体的立法实施机制,修改的行为准则,包括人工智能和利用身体像G20,七国集团和我们自己的政府,寻求建立公正的自治系统,以及坚持问责和隐私标准,是不可能的,只会在黑暗的艾未未的支持服务工作。
 
不依赖人工智能来得到所有的答案
 
过度依赖机器学习算法为我们提供正确答案,可能很快导致危险的结果。或许过度依赖的最令人不安的例子之一是战争:让人工智能决定杀死谁或何时与敌机交战。或者以一个不那么可怕的情况为例,一个自主系统决定谁应该被雇用,谁应该被解雇。依靠人工智能来解决问题,意味着在关键的决策过程中会消除至关重要的人力投入,而这可能很快导致灾难。为了缓解人工智能的这一面,我们必须在各个行业实施统一的立法限制,限制自主系统的决策能力,并建立一项法律强制规定,要求人类在任何寻求结果的过程中提供最终发言权。
 
我们将何去何从?
 
人工智能只是前进,每一个新的人工智能应用都为自主系统将数据武器化和追求邪恶打开了另一扇窗。然而,通过立法强调问责措施,XAI,击败偏见和道德准则的执行,有可能打击黑暗AI。每一秒,解决AI邪恶一面的紧迫性都在增加。现在比以往任何时候都更需要从过去的文明错误中吸取教训,从蓝冠测速开发的角度来看,此培训方案为质量保证和可用性/可玩性测试提供了潜在的“实验室”。多玩家游戏开发中始终存在两个挑战:确保蓝冠官网游戏可以长时间运行而不会崩溃或变得不同步,以及在多个玩家和设备之间测试各种场景。为最坏的情况做好准备。