Google 更新了公司最新的「AI 原则」,原版本包含:公司不会追求武器,或目标是直接对人造成伤害的技术,同时也不会追求违反国际公认规范的监视技术,目前这些原则皆被移除。
外媒认为,Google 最新版的 AI 原则反映了公司要向更多客户提供 AI 技术和服务的野心,包括向政府机构。
Google DeepMind 首席执行官 Demis Hassabis 在近日的一篇博客文章中表示,「在日益复杂的地缘政治环境中,全球正在竞争 AI 领导力,我们认为民主应该要在 AI 发展中领先」。Palantir 的首席技术官则认为,美国要在 AI 竞赛中获胜,是需要全国的努力不仅仅是国防部。
Google 原本提到会考虑广泛的社会和经济因素,而在新 AI 原则中则表示,公司会在「总体收益可能大大超过可预见的风险和缺点」的领域发展,也在博客文章中强调会与广泛接受的国际法和人权原则保持一致。
Google 在 2018 年发布 AI 原则,公司在当时拒绝继续签属一份政府合约「Project Maven」,该计划是要协助政府通过 AI 分析和解释无人机影像,续约失败之前数千名员工签署了反对合约的请愿,也有数十名员工辞职。AI 原则指出,Google 不会开发武器、部分监视系统或破坏人权的技术。
不过,被解雇的道德 AI 研究团队负责人 Timnit Gebru 指出,Google 是否有遵守该份 AI 原则始终受到质疑,也有前员工表示,对这些原则的不同解释以及来自高层的压力,也让遵守 AI 原则变得具挑战性。
Google 云端平台和各种 AI 驱动产品的政策仍「禁止侵犯他人的合法权利,从事或促进非法活动」,例如会对个人、群体造成严重伤害或死亡的恐怖活动、暴力,但外媒表示 Google 和以色列政府签订的云端合约 Project Nimbus 也遭到质疑和抗议。
:Jocelyn
:Sherlock
本文初稿为 INSIDE 使用 AI 编撰;快加入 INSIDE Google News 按下追踪,给你最新、最 IN 的科技新闻!