谷歌无意放弃与美军方的合作 部分员工放弃抗争
北京时间5月15日凌晨消息,今年三月份时有消息称,谷歌正和美国军方合作,即利用机器学习技术分析无人机采集的视频数据。有部分谷歌员工自那时起就一直抗议公司的该决定。很多员工都曾在一次请愿活动中对该合作关系表达了不满,而有一部分员工则开始放弃此次抗议。 谷歌员工认为此次与美国军方合作的机器学习项目有违该公司长期以来坚持的信条,即“不作恶”。该项目名称为Project Maven,旨在利用机器学习技术识别无人机采集到的视频中的物体,该任务对于机器学习技术来说很简单,且只需很少的人员用于评估识别结果。 据彭博社报道,今年四月份谷歌公司内部发起了一次向该公司首席执行官桑达尔·皮查伊(Sundar Pichai)的请愿活动,要求他取消与军方的合作项目并承诺不开发“军事软件”,该请愿活动当天就获得了超过3000名员工的签名。 而与此同时,据Gizmodo报道称,已经有十多名员工退出了此次抗议活动。他们的理由是此次使用的机器学习技术TensorFlow是开源的,而且军方可能已经用上了。另外,即使谷歌放弃这次合作,军方也会和其他科技公司进行合作。 谷歌承认公司内部对于该合作关系的担心确实存在,并正在制定“开发和使用机器学习技术时需遵守的条款和安全政策”。然而,到目前为止该条款还没制定出来。 另外,随着政府和军方为实现云服务和人工智能技术,在科技公司上花的钱越来越多,皮查伊需要权衡人才留存和政府关系间的利弊。谷歌云服务在最近几年中被越来越多的企业采用,也打入了部分政府部门市场。 稿源:,稿件以及封面源自网络;
欧美专家提议建立第三方机构以监管人工智能
据英国《卫报》网络版近日报道,专家表示人工智能会做出严重影响人们正常生活的决定,因此应该建立一个第三方机构确保人工智能使用的透明度和公平性。人工智能的崛起已经导致计算机算法的数量出现爆发式增长,如今已被银行、警察局以及其他机构所广泛使用,但这些算法可以做出一些严重影响人们正常生活的决定。然而,由于科技公司向来对其算法的工作机制讳莫如深——避免其他公司抄袭——他们极少披露有关人工智能如何做出某些决定的详细信息。 人工智能的快速崛起 伦敦阿伦·图灵研究中心和牛津大学的一研究小组在最新报告中呼吁创建值得信赖的第三方机构,以便对人们认为做出错误判断的人工智能决定进行调查。根据现行法律,因人工智能失误而遭受损失的人可以提出挑战,但最新报告却发现这些法律并不能给人们带来有效保护。 根据英国《数据保护法案》规定,人们有权对人工智能做出的决定进行挑战。但与其他国家的企业一样,英国的企业无需公布他们认为属于商业机密的信息。在实践中,这意味着企业不必对人工智能的某个决定做出全面解释,只要描述计算机算法的具体工作机制就行了。例如,如果一个人申请信用卡被拒绝,他可能会被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚申请被拒的原因。 提高算法决策过程的透明度 2018 年欧盟成员国以及英国将施行一项新法规,对挑战人工智能决定的细则做出解释。《一般数据保护条例》草案以法律形式诠释了所谓的“解释权”,但最新报告作者认为,在去年获批的最终版本并未在法律上对这种权利做出任何保证。即便是建立了第三方人工智能监管机构,如何对算法的失误进行管理可能仍是一个难题。强制企业解释人工智能决策过程可能会引发抗议,因为一些现代的人工智能方法“基本上都像谜一样”,比如深度学习。 稿源:据 cnbeta 内容整理;封面与配图:百度搜索
Evernote 新隐私条款允许雇员访问未加密笔记,明年 1 月生效
近日 Evernote 官方发布 隐私条款更新说明,为了进一步优化提升 Evernote 的使用体验,公司会将机器学习技术用于分析帐户数据,因此不可避免需要人工审核部分数据以确保系统正常运行。Evernote 表示,此次隐私条款的更新不影响 Evernote 三大数据保护法则: 数据是用户的; 数据是受保护的; 数据是可转移的。 Evernote 已在公司各个层面进行严格规定,确保用户数据的所有权严格属于用户自己,只有用户进行分享操作后,这部分数据才是共享的。 然而,这是否意味着所有 Evernote 员工都可以访问用户数据呢?Evernote 给出了否定的答案,并表示公司会将权限控制在尽可能小的范围内,并严格限制可以访问的数据类型和范围。只有在隐私条款限制范围内、并且是为了履行用户或业务的需求时,才可以进行有限的访问。 使用 Evernote 桌面客户端(如 Windows 或 Mac 版)的用户可以对笔记内的任何文本进行加密,被加密的部分只有输入密码后才能看见,不会参与到机器学习功能的分析中。 稿源:Evernote ,封面:百度搜索