城市网

我们是否会同意只有一套关于人工智能道德发展的规则

导读 澳大利亚是上周签署了一套新的人工智能(AI)系统发展政策指南的42个国家之一。然而,澳大利亚有自己的道德准则草案,以供公众咨询,其他一些

澳大利亚是上周签署了一套新的人工智能(AI)系统发展政策指南的42个国家之一。

然而,澳大利亚有自己的道德准则草案,以供公众咨询,其他一些国家和行业机构已制定了自己的人工智能指南。

那么为什么我们需要这么多指导方针,并且它们中的任何一个都是可执行的吗?

新原则

最新的政策指导方针是经济合作与发展组织(OECD)的人工智能建议书。

它促进了负责任地开发值得信赖的人工智能的五项原则。它还包括五项促进国家政策和国际合作的补充战略。

鉴于这来自经合组织,它在促进经济改善和创新以及培养基本价值观和信任人工智能发展之间衔接。

这些建议很广泛,不具备法律甚至规则的力量。相反,他们寻求鼓励成员国将这些价值观或道德观纳入人工智能的发展。

但AI对我们意味着什么?

很难就人工智能提出具体建议。这部分是因为AI不是单一应用程序带来单一风险或威胁的一件事。

相反,人工智能已经成为一个引用大量不同系统的总称。每种方法通常旨在使用计算技术收集和处理数据,适应变化,并采取合理行动以实现其目标,最终无需人为干预。

这些目标可以与翻译语言,识别面孔,甚至下棋等不同。

特别擅长完成这些目标的AI类型通常被称为狭义AI。一个很好的例子是象棋游戏AI。这是专门为下棋而设计的 - 并且非常擅长 - 但在其他任务中完全没用。

另一方面是一般人工智能。这是人工智能,据说它将取代大多数(如果不是全部)任务中的人类智能。这还有很长的路要走,但仍然是一些AI开发人员的最终目标。

然而,正是人工智能的这种想法驱动了许多围绕人工智能的恐惧和误解。

许多指南

经济合作与发展组织(OECD)的建议是针对这些担忧以及一些非常实际的人工智能问题,是世界各国政府和其他机构的一些项目和指导方针中的最新一项,这些项目和指导方针旨在为人工智能开发提供道德方法。

其中包括电气和电子工程师协会,法国数据保护机构,香港私隐专员办事处和欧盟委员会的倡议。

澳大利亚政府资助CSIRO的Data61来开发人工智能道德框架,该框架现已公开反馈,澳大利亚学术委员会尚未公布其关于澳大利亚人工智能未来的报告。

澳大利亚人权委员会与世界经济论坛一道,正在审查和报告人工授精对人权的影响。

这些举措的目的是鼓励或推动人工智能的道德发展。但这预示着不道德的行为。人工智能的恶作剧是什么?

不道德的人工智能

一项研究确定了三种广泛的潜在恶意AI使用。这些目标:

中国正在发展一个令人关注的领域,一些地区正在开发与使用人工智能技术进行大规模监视相关的社会信用体系。

该系统可以识别违反社会规范的人(例如,劫掠,与犯罪分子交往或滥用社交媒体)并从个人借记社会信用点。

当信用评分降低时,该人的自由(例如旅行或借钱的自由)受到限制。虽然这还不是一个全国性的系统,但报告表明这可能是最终目标。

除了这些故意滥用AI之外,还有一些无意识的副作用,即构建不良或实施狭窄的AI。这些包括偏见和歧视以及信任的侵蚀。

建立人工智能共识

社会在道德方面有所不同。即使是社会中的人也会对他们认为的道德行为有所不同。那么如何才能就人工智能的道德发展达成全球共识呢?

鉴于人工智能开发的范围非常广泛,任何与道德人工智能相关的政策在我们能够确定可能构成某些商定的全球规则基础的道德行为的共同规范之前,还不能更具体。

通过以上述报告和指南的形式发展和表达我们认为重要的价值观,权利和规范,我们正致力于在各国之间建立信任。

各种指导方针中出现了共同的主题,例如需要考虑人权,安全性,透明度,可信赖性和问责制的人工智能,因此我们可能正在走向一些全球共识。