原标题:谷歌发布人工智能新原则:产品不会用于武器和不合理监控工作 谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)。东方IC 资料 美国当地时间6月7日,谷歌发布针对AI(人工智能)的新原则,明确不会允许将其人工智能产品用于军事武器,或不合理的监控工作,试图平衡“不作恶”的口号和技术的广泛应用之间的矛盾。 根据路透社看到的一封内部电子邮件,谷歌的一个9人员工委员会起草了这份人工智能新原则。 在新公布的原则中,谷歌表示,不会追求“会导致或可能导致造成整体伤害的技术”,也不会开发用于军事武器的人工智能。 需要注意的是,目前还不清楚,这一原则是否会阻止谷歌继续开展Project Maven,该项目向美国国防部提供了用于无人机的成像工具。谷歌发言人此前曾表示,该无人机不是用来发起进攻性攻击的。 此外,谷歌首席执行官桑达尔·皮查伊表示,谷歌将在网络安全、军事招募和搜救等领域寻求政府合同。“我们希望明确的是,虽然我们不开发用于武器的人工智能,但我们将继续与政府和其他许多领域的军队合作。” 据《华尔街日报》报道,谷歌目前正在竞购一份价值数十亿美元的合同,内容是将五角大楼的数据转移到云端。 谷歌最近因以名为“Project Maven”的合作伙伴的方式向美国国防部提供图像识别技术而受到内部员工的广泛批评。此外,人工智能系统的潜力可以比军事专家更准确地发现无人机,或者通过大量收集在线通信来识别不同政见者,这也引起了学术界伦理学家和谷歌员工的担忧。 据知情人士向《华尔街日报》透露,本月早些时候,谷歌告诉其员工,不会续签“Project Maven”的项目合同,而这一决定又遭致一些认为公司不应该因支持国家安全而被干扰。纽约共和党代表皮特·金(Pete King)在推特上发表消息称,谷歌没有寻求扩大无人机交易“对美国国家安全而言是一个失败”。 一位谷歌内部员工告诉路透社,如果上述原则落实,公司将不会参加去年的无人机项目。“尽管此项工作重点放在非攻击性任务上,但也太过接近武器装备。” 一位知情人士在上周告诉路透社,谷歌计划在明年3年兑现对无人机项目的承诺。对此,超过4600名员工则请求谷歌尽快取消交易,最近几周有至少13名员工辞职,借此表达呼吁。 除申明AI技术不会用于军事武器外,谷歌的新原则还表示,它不会追求意图造成人身伤害的AI应用程序。 谷歌还呼吁开发AI的员工和客户“避免对人们造成不公正的影响”,特别是在种族、性别、性取向和政治或宗教信仰方面。 需要注意的是,谷歌方面承认,技术可能具有意想不到的用途,可能会因此对社会造成危害。因此其表示,将会保留“当我们意识到我们的技术被用于与自身原则不一致的用途时,阻止或停止使用我们技术的权利”。 但据路透社报道,谷歌内部员工对其表示,执行会很困难,因为谷歌无法追踪其工具的使用情况,其中有一些还可以免费下载并用于私人用途。 桑达尔·皮查伊在最新发表的博文中阐述公司新原则称,“这些不是理论概念,是具体的标准,将积极主导我们的研究和产品开发,并将影响我们的业务决策。” 此外,谷歌方面还表示,人工智能的新应用应该有益于整个社会,寻求避免不公平的偏见并进行安全测试。同时还应该包含数据隐私原则和科学上的卓越性,并且要受到人工干预。 对此,《华尔街日报》评论称,这些新原则旨在帮助公司避免在开发可能产生有害副作用的新技术时出现失误。这些新原则也同样是一个窗口,让外界了解开发智能新机器的复杂决策。但是,“虽然这些原则详细阐述了人工智能的许多道德考虑,却没有制定清晰的标准,从而达至能阻止谷歌进行有争议性项目的目的。” |