分类: 人工智能

Facebook 低调开发 AI 技术工具:自动扫描代码找漏洞

新浪科技讯 北京时间9月14日上午消息,Facebook低调开发和部署了一种名为SapFix的人工智能(AI)工具,可以自动扫描代码,寻找漏洞,然后测试不同的补丁,并向工程师推荐最佳修补方案。 这款工具是在Facebook的@Sacle工程大会上宣布的,目前已经应用于Facebook庞大的代码库。该公司还计划最终向外部开发者分享该工具。 “据我们所知,这是第一次通过自动的端对端测试和修补,在Facebook这种规模的代码库中部署机器生成的修复方案。”Facebook开发者工具团队写道,“这是AI混合模式的重要里程碑,可以进一步证明基于搜索的软件工程可以降低软件开发阻力。” SapFix既可以与Sapienz配合使用,也可以独立使用,Sapienz是Facebook之前的自动化漏洞发现工具,与SapFix配合使用时,可以针对Sapienz发现的问题推荐解决方案。 这些工具可以帮助小团队开发更加强大的产品,也可以帮助大公司节约很多浪费在技术上的时间。对于Facebook这种还有很多其它问题需要处理的公司来说至关重要。   稿源:新浪科技,封面源自网络;

百度推出 EZDL 没有编程经验也可训练AI

据美国科技博客 VentureBeat 报道,如果没有技术知识和正确的工具,训练机器学习算法是一项艰难的工作。本周,针对那些没有足够财力或精力学习专业知识的人,百度发布了一个名为 EZDL 的在线工具,使得任何人不用编写一行代码就可以轻松地构建、设计和部署人工智能(AI)模型。 百度 AI 技术生态部总经理喻友平表示,百度的 EZDL 在构建时以性能、易用性和安全性为基础,主要针对三大类机器学习:图像分类、物体检测和声音分类。它的目标受众是中小型企业,旨在“打破障碍”,使得每个人都能“以最方便、最公平的方式”使用人工智能。 为了训练模型,EZDL 需要为每个模型分配 20-100 个图像或超过 50 个音频文件,并且需要训练 15 分钟到一个小时。(百度声称,超过三分之二的模型准确率超过 90%。)生成的算法可以部署在云中,通过 API 访问,或者以支持 iOS、Android 和其他操作系统的软件开发工具包的形式下载。 喻友平称,家居装饰网站“家图网”使用 EZDL 训练模型,来自动识别房间的设计风格,准确度达到 90%。此外一家未透露名称的医疗机构利用 EZDL 建立了一个用于识别血液检测显微镜图像的模型,还有一家安全监控公司使用 EZDL 设计了声音检测模型,可以识别“异常”的音频模式,用来判断是否发生了入室盗窃。 喻友平表示:“作为人工智能领域的全球领导者之一,百度践行了通过技术让复杂世界变得更简单的使命。百度将继续领导和促进人工智能的发展和应用。我们通过公司的全球业务部门,致力于与全球社区共享百度的核心技术、能力和资源……我们很高兴看到来自全球的 AI 创新应用,我们希望通过开放平台来普及人工智能的应用,我们将帮助世界各地的开发者和企业取得更大的成功。” 在推出百度大脑之后的两年时间里,百度明确了自己在人工智能领域的雄心壮志。它表示,目前已有超过 600,000 名开发人员正在使用 Brain 3.0(百度大脑于 2018 年 7 月发布的最新版本),用于 20 个行业的 110 个 AI 服务项目。 同样在今年 7 月份,百度揭开了神秘昆仑芯片的面纱,这是一款百度自行研发专为进行设备边缘计算和数据中心处理模型而设计的 AI 芯片。百度声称该芯片能够实现260TOPS和512 GB /秒内存带宽。(谷歌的Tensor Processing Unit最高可达100 petaflops) 今年 8 月,百度公司宣布,其对话人工智能助手 DuerOS 已经达到了 1 亿台设备的安装量,比 6 个月前增加了 5000 万部。迄今为止,已有 200 多家合作企业推出了 110 款支持 DuerOS 驱动的设备,DuerOS 也汇集了超过 16000 名开发者。 喻友平称:“我们寻求为人工智能创建一个真正的生态系统,实现人工智能技术的民主化。技术没有国界。”     稿源:网易科技,封面源自网络;

利用 AI 技术,黑客能用麦克风听出你在屏幕上看什么

网易科技讯 8月25日消息,据《连线》网站报道,你可能认为只有通过观看电脑屏幕才能看到屏幕上的东西。但一个研究团队发现,他们能够通过监听和分析显示器正常发出的超声波,收集到惊人数量的信息,比如显示器上面输入的内容。 这项技术于周二在圣巴巴拉举行的Crypto 2018年大会上进行了演示。它可以让攻击者通过分析在屏幕附近录到的录音——比如来自网络电话或者视频聊天的录音——来发起各种形式的秘密监视。之后,攻击者可以根据泄露的声音提取有关显示器上的内容的信息。虽然距离越远信号越弱,特别是使用低质量的麦克风的时候,但研究人员仍然可以从在30英尺远的地方取得的录音提取显示器发出的声音。 特拉维夫大学和哥伦比亚大学的密码学和系统安全研究员伊兰·特罗默(Eran Tromer)参与了这项研究,他说道,“我想,我们可以从中学习该如何去适应我们的物理环境中的意外情况,以及理解我们使用的这些设备背后的物理机制。”声泄漏是“一种现象,在这个例子中这不是设计师有意而为的,但它确实存在,因此形成了安全漏洞。” 被攻击是有可能的,原因是所谓的“物理侧信道”——数据暴露不是来自软件错误,而是来自于泄露计算机硬件和它处理的数据之间的信息的无意交互。在对显示器的研究过程中,研究团队——还包括密歇根大学的丹尼尔·吉恩金(Daniel Genkin),宾夕法尼亚大学的米希尔·帕塔尼(Mihir Pattani),特拉维夫大学和康奈尔科技学院的罗埃·舒斯特尔(Roei Schuster)——发现,在他们调节电流的时候,很多屏幕的电源板发出高音或者听不见的吱吱声。这种吱吱声是根据屏幕的内容渲染处理器的不同功率需求而改变的。用户数据和物理系统之间的这种连接带来了意想不到的监听机会。 “有一天,我碰巧在浏览一份特别枯燥乏味的法律协议,上面有很多行小字体。”特罗默说道,“那些字实在太小了,于是我将其放大,然后我意识到房间里的环境噪音发生了变化。于是我将字体缩小回来,声音也随之变回来了。过了一会,我意识到是某种图像周期性的东西在影响声音的周期性。” 研究人员测试了几十台不同尺寸的液晶显示器,从中发现它们发出各种各样的声音。他们测试的显示器在2003年至2017年之间出产,涵盖了几乎所有的主流制造商。 所有的电子产品都会发出呼呼声和吱吱声,但显示器会产生一种特定的被证明对攻击者特别有用的声音。“这种声音的特点是频率很高,因此它可以承载多得多的信息。”舒斯特尔指出,“它确实是受到了某种敏感的东西的调节,在这里就是屏幕信息。” 在证实了那些超声波以后,研究人员接着试图基于它们来提取信息。他们开发了一个程序,生成不同的黑白相间的线条或组块,然后在循环显示它们时录制音频。有了一定的数据基础以后,他们就开始在显示器上展示热门网站、谷歌Hangouts和人脸,同时进行测量,看看是否能够透过录音将它们区分开来。 屏幕上显示斑马条纹图案时的屏幕信号频谱图 研究团队将所有的这些信息作为训练数据输入到机器学习算法当中,并开始根据录音中捕捉到的听不见的声音,对屏幕上的内容进行越来越精确的解读。对于一些斑马图案和网站,研究人员有90%至100%的成功率。他们甚至开始注意到,他们的系统有时可以从他们的机器学习模型从未遇到过的屏幕录音中提取有意义的数据。 “即使攻击者不能在特定的显示器型号上进行演练,他们的攻击也还是很有可能会成功。”舒斯特尔称。 随后,研究团队扩大了研究范围,训练该系统破译屏幕上的字母和单词。虽然这是一个更具挑战性的任务——单词不像网站布局那样遵循可靠的视觉模式——但研究人员可以在大字体的单词上产生靠谱的结果。正如吉恩金所指出的,白色屏幕上的黑字在很多方面与斑马纹相似,虽然单词组合有无数种,但系统只需要学习罗马字母表中的26个字母。 研究人员甚至意识到,他们可以检测出人们在智能手机屏幕键盘上输入了些什么,有一定的准确性。通常情况下,数字键盘被认为比机械键盘更加安全,因为机械键盘在用户进行输入时会发出声音,造成输入内容的泄露。研究证明,数字键盘也不能幸免于这些声音侧信道的攻击。 虽然研究人员在一些实验中使用了高质量的专业麦克风,但他们主要是研究消费级的麦克风,比如网络摄像头和智能手机上的麦克风。他们发现,它们完全可以被利用来提取屏幕发出的声音。例如,如果攻击者想监视与她视频聊天的人的屏幕,她只需录下来自他们的麦克风的声音输出即可。 在另一个场景下,比如面试时,攻击者可以把智能手机放在他们旁边的桌子或椅子上,在面试官盯着背对攻击者的屏幕时,利用手机来录下房间里的噪声。研究人员还注意到,智能助手设备中的麦克风可以接收到显示器的声音。因此,如果你把这些设备放在你的显示器附近,智能助手发送到云处理平台的音频片段很可能就来自该显示器。由于来自显示器发出的声音主要是超声波,像喧闹的音乐或者说话这样的听得见的声音不会干扰到麦克风的接收能力。 研究人员说,这凸显了减轻这些攻击的巨大挑战。在大多数的空间全面部署无线电频率来干扰屏幕发出的声音,是不切实际的。制造商可以在显示器内部更好地保护电子元件,但这会增加制造成本。另一种解决方案是,开发专门的反制软件,操控显示器正在处理的信息,使其更难识别。但你需要将这些措施嵌入到每一个应用程序当中,研究人员坦言这可能不现实。不过,至少在浏览器或人们经常使用的视频聊天程序上面,值得考虑那么做。 对于黑客来说,使用这种的声屏障攻击显然比网络钓鱼或用恶意软件感染电脑要复杂得多,也需要耗费更多的精力。但研究人员表示,他们对自己能达到的精确度感到惊讶,而有动机的攻击者可能会进一步完善他们的机器学习技术。鉴于如今有如此之多的屏幕在无意间泄露这些信号,对于技术娴熟且有足够动力去尝试的攻击者来说,这个世界就像是一个游乐场。   稿源:网易科技,封面源自网络;

AI 公司面临隐私问题 不少仍坚持原则拒绝商业机会

TechWeb报道,7月8日消息,据国外媒体报道,当一家由美国中央情报局支持的风险投资基金表示对拉纳·埃尔·卡利乌比(Rana el Kaliouby)的面部扫描技术感兴趣时,这位计算机科学家和她的同事进行了一些反思——然后拒绝了这笔投资。 卡利乌比是波士顿初创公司Affectiva的联合创始人兼首席执行官,该公司已经对其人工智能系统进行了培训,创建了一个包含600多万张面孔的摄影库,可识别出一个人的情绪,是高兴还是悲伤、疲倦还是愤怒。 她说:“我们公司对你们监视别人的事情不感兴趣。” 由人工智能驱动的计算机视觉技术不断更新,不仅加速了自动驾驶汽车的竞争,并为Facebook和谷歌上越来越复杂的照片标注功能提供了动力。但是,随着这些能够窥探人们的“人工智能之眼”被安装在商店的收银台、警察的随身相机,以及在战场上找到了新的用武之地,科技公司正在努力平衡商业机会和道德决策,而这些决策可能会导致他们失去客户或是员工失去工作。 卡利乌比说,“不难想象,利用实时的人脸识别技术可识别撒谎行为——或者,在一个专制政权的手中,监控人们对政治言论的反应,以根除不同意见。”但是,这家从麻省理工学院一个研究实验室中走出来的小公司,已经为自己做出限制。 卡利乌比说,该公司已经避开检测“任何安保、机场,甚至是谎言检测的事项”。相反,Affectiva与汽车制造商合作,试图帮助那些外表看上去疲惫的司机保持清醒,并与消费者品牌合作,商家希望了解人们对某款产品的反应是喜欢还是厌恶。 这种不安反映出,人们对这个时刻都在监视的人工智能全视系统的能力和可能存在的弊端感到不按——就连当局也越来越渴望能使用它们。 上个月,在马里兰州安纳波利斯的一家报纸报道一起致命枪击事件后,警方说,他们在确认这名不愿合作的嫌疑人后,立即开始了面部识别。他们这样做的目的是利用一个国家数据库,其中包括过去被捕者的照片。更有争议的是,这其中还包括每个注册了马里兰州驾照的人。 向执法部门提供的初步信息显示,警方之所以利用面部识别技术,是因为嫌疑人显然是为了逃避被确定而损坏了指纹。后来那份报告被证明是错误的,警方说他们使用面部识别是因为指纹识别结果受到延迟。 今年6月,位于佛罗里达州的奥兰多国际机场宣布,计划在今年年底前,对所有进出国际航班的乘客进行面部识别扫描。美国其他几个机场已经在对一些国际航班进行扫描,但不是全部。 中国公司已经在使用智能相机来实时地记录那些乱穿马路的人。亚马逊在西雅图的新开的无收银员商店中配备了头顶摄像头和传感器,目的是通过追踪购物者拿起和放回的每一件商品,解决了店内行窃行为。 即使是最大的科技公司,对这项技术的担忧也受到了动摇。例如,谷歌最近表示,在员工抗议谷歌的人工智能技术应用到军事应用后,该公司将退出一份防御合同。这项工作涉及对来自伊拉克和其他冲突地区的无人机视频进行计算机分析。 类似对政府合同的担忧也激起了亚马逊和微软内部的不和。谷歌此后发布了人工智能指南,强调使用“对社会有益”和避免“不公平偏见”。 然而,到目前为止,亚马逊已经顶住了来自员工和隐私倡导人士日益增长的压力,他们要求其停止向警察部门和其他政府机构出售的公司强大人脸识别工具Rekognition。 自本世纪初计算机视觉技术出现突破以来,商业和政府对这项技术的兴趣迅速增长,人们使用类似大脑的“神经网络”来识别图像中的物体。2012年,在YouTube视频中训练电脑识别猫还是一项早期的挑战。现在,谷歌有款APP不仅能识别猫,还能告诉你这猫是哪个品种。 今年6月,在盐湖城举行了一场计算机视觉和模式识别领域的重要学术会议。多伦多约克大学的计算机科学家、会议的组织者迈克尔·布朗说,这原本是一个充满“书呆子”令人昏昏欲睡的学术会议,现在成为淘金热的商业世博会,吸引了很多大公司和政府机构。 布朗说,研究人员当场被给予高薪工作。但在提交给会议的数千份技术文件中,很少有涉及公众对隐私、偏见或其他道德困境的广泛担忧。他说:“对于这个原本应当重视的问题,我们可能不会进行过多的讨论。” 创业公司正在开辟自己的道路。迈阿密面部识别软件公司Kairos的首席执行官布赖恩·布雷斯基恩(Brian Brackeen)制定了一项全面政策,禁止向执法部门或政府监控部门出售该技术。他在最近的一篇文章中辩称,该技术“为道德败坏者的严重不当行为打开了大门”。 相比之下,总部位于波士顿的创业公司Neurala正在为摩托罗拉开发软件,用于警察佩戴的随身相机,它可以根据人们的穿着和长相在人群中确定一个人。首席执行官马克斯·范思哲(Max Versace)表示,“人工智能是社会的一面镜子”,因此该公司只选择有原则的合作伙伴。 他说,“我们不是那种极权主义、奥威尔式的阴谋的一员。”   稿源:TechWeb,封面源自网络;

澳大利亚与 IBM 签订 10 亿澳元合同,用于量子、区块链、人工智能项目

【环球网综合报道】据澳大利亚“新快网”7月6日报道,澳大利亚联邦政府与国际商业机器有限公司(IBM)达成价值10亿澳元(约合人民币49亿元)协议。IBM将向澳大利亚各个政府机构提供计算机硬件设备及软件服务。 据澳大利亚《金融评论报》报道,特恩布尔政府5日宣布与IBM达成5年合作协议,利用政府的大宗采购能力为全体部门及机构争取到折扣优惠。无论政府机构规模或支出如何,均能在合同期限内获取常规软件升级。 这是澳大利亚联邦史上最高金额的IT采购合同,也是IBM首次与国家政府签订这类协议。 澳大利亚数字化转型助理部长基南(Michael Keenan)表示:“作为IBM产品及服务的主要买家之一,这项协议将使得政府信息通信技术投资回报最大化,确保纳税人的钱花得值。” 协议还涉及科研部分。IBM墨尔本研究与开发团队将研究如何加快区块链、人工智能及量子计算在公共服务领域的发展。黄金海岸(Gold Coast)及堪培拉的工程师与开发人员,工作重点则将是保护数据的安全性以及使用超级计算机为政府服务。   稿源:环球网,原标题《澳大利亚政府与IBM签订10亿澳元大单》,封面源自网络;

日本新型人工智能安全摄像头揭示未来监控将自动化

自动化监控的世界正在蓬勃发展,新的机器学习技术使闭路电视摄像机能够在没有人工监控的情况下发现不轨行为。日本电信巨头NTT East和创业公司Earth Eyes研发的人工智能安全摄像机就可以做到这点。 安全摄像头被称为“AI Guardman”,旨在帮助日本的店主发现潜在的扒手。它使用卡内基梅隆大学的开源技术来扫描现场流,并估计它可以看到的任何姿势,系统然后尝试将此姿势数据与预定义的“可疑”行为进行匹配。如果它看到一些值得注意的事情,它会通过连接的应用程序提醒店主。 AI Guardman已经在开发至少几年了,但上个月,NTT East和Earth Eyes分享了一些使用相机进行早期试验的结果,根据日本IT媒体的报道,NTT East和Earth Eyes声称AI Guardman减少了约40%的商店盗窃。目前,新的深度学习技术使我们能够比以往更快更便宜地分析视频画面,日本,美国和中国的大量公司正在开发具有类似功能的产品。类似的功能也正在进入家庭安全摄像机,像亚马逊和Nest这样的公司提供了基本的AI分析,如发现宠物和人群之间的差异。 不过,AI Guardman值得注意的是,它是一款具有先进功能的产品,客户可以购买,插入并开始运行,而不会有太多延迟。 NTT East的一位发言人告诉The Verge说,这款相机将于7月底开始销售,预计价格约为2150美元,云端支持每月订购费用为40美元。 NTT表示,希望在未来三年内将相机引入1万家商店。   稿源:cnBeta,封面源自网络;

谷歌开发AI新工具:预测病人死亡时间 将应用到诊所

新浪科技讯 北京时间6月19日上午消息,谷歌旗下的Medical Brian团队开发了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。 一名身患乳腺癌晚期的女士来到一家城市医院,她的肺里已经充满液体。她看了两位医生,还做了一次放射扫描。医院的电脑读取了她的生命体征,估计她在住院期间去世的概率为9.3%。 之后轮到谷歌出场。该公司开发的一种新型算法读取了这位女士的175,639个数据点,然后测算其死亡风险为19.9%。她几天之后便去世了。 今年5月,这位女士的故事被匿名发表在谷歌的一篇研究报告中,希望借此凸显神经网络在医疗行业的潜力——这种技术很擅长使用数据自动学习和提升。谷歌开发了一种工具,可以预测很多病人的结果,包括他们可能的住院时间、再次住院的概率以及短期内死亡的概率。 最令医疗专家印象深刻的在于,谷歌可以筛选之前无法获得的数据:埋藏在PDF文件中的注释或旧资料中的潦草笔记。这个神经网络会获取所有非常规信息,经过分析之后进行预测。不仅如此,它的速度也比目前的技术大幅加快,准确率同样大幅提高。谷歌的系统甚至可以显示具体哪项记录导致其得出现有的结论。 医院、医生和其他医疗服务提供商多年以来都希望更好地利用海量电子病历和其他病人数据。如果能在合适的时间分享和突出更多信息,就有可能拯救更多生命——至少也可以帮助医护人员减少写论文的时间,多投入一些精力来治病救人。但目前用来挖掘医疗数据的方法成本太高,而且非常繁琐耗时。 斯坦福大学副教授、谷歌论文的联合作者尼加姆·沙阿(Nigam Shah)表示,当今的预测模型所花费的时间有多达80%用在了“枯燥的粗活”上。谷歌的方法则避免了这种模式。“完全不必担心这个问题。”沙阿说。 谷歌人工智能主管杰夫·迪恩(Jeff Dean)今年5月表示,谷歌的下一步计划就是将这套预测系统应用到诊所。迪恩负责的医疗研究部门Medical Brain正在开发多款能够预测疾病的人工智能工具。 谷歌内部对该项目也非常振奋。“他们终于发现一种具有商业前景的新型人工智能应用。”一位谷歌员工说。自从谷歌在2016年自称是一家“人工智能优先”的公司之后,他们在这一领域的多数工作都用于改进现有的互联网服务。而Medical Brian团队的成果给谷歌提供了进入全新市场的机会——这也是该公司联合创始人拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)反复尝试的。 Alphabet医疗部门前高管、投资公司Foresite Capital董事总经理维克·巴佳吉(Vik Bajaj)表示,如今的医疗软件大都是程序员手工编写的。与之相对,谷歌的方法则会让及其自主理解数据。“他们明白哪些问题值得解决。”他说,“他们现在已经做了很多小型实验来了解究竟哪些方向富有成果。” 迪恩认为,人工智能系统可以引导医生采用某些特定的医疗和诊断方式。还有谷歌研究人员表示,现有的模型忽略了一些明显的医疗事件,包括病人之前是否接受过手术。他表示,目前这些手动编写的模型是医疗领域“明显而巨大的障碍”。但此人拒绝透露身份。 尽管谷歌认为潜力很大,但想要利用人工智能来改进医疗结果仍然要面临很大挑战。其他公司也在尝试把人工智能应用到医疗领域,IBM旗下的沃森部门就是典型例子,但也只能帮助企业节约资金,并把技术融合到报销系统中。 谷歌一直以来都希望获取数字病例,但结果喜忧参半。为了开展最近的研究,谷歌与加州大学旧金山分校和芝加哥大学达成协议,得以匿名获取460亿份病例数据。谷歌的人工智能系统为每家医院分别开发预测模型。如果要为所有医院开发统一模型,就会遭遇更大的挑战。谷歌正在寻找新的合作伙伴,以便获取更多数据。 更加深入地挖掘医疗数据只会进一步增加谷歌已经掌握的海量信息。“谷歌这样的科技巨头将会具备独一无二、近乎垄断的能力来挖掘我们生成的所有数据。”数据公司Immuta首席隐私管安德鲁·波特(Andrew Burt)说。他和儿科肿瘤专家萨缪尔·沃尔琴伯姆(Samuel Volchenboum)在最近的一篇专栏文章中表示,政府应该阻止这些数据成为少数几家公司的特权地带。 谷歌对待病例数据非常小心,尤其是在外界对数据问题日益敏感的当下。英国监管者去年批评Alphabet旗下的DeepMind人工智能实验室,指责其在没有告知病人的情况下利用一款应用来分析他们的公开病例数据。而在最新的研究中,谷歌及其合作医院都坚称他们的数据经过匿名处理,而且获得了病人许可。沃尔琴伯姆表示,如果要向规模更小的医院和医疗网络扩张,该公司在维护数据方面会遭遇更多挑战。 不过,他还是认为这些算法可以拯救生命、节约资金。他希望病例数据能够与其他统计信息结合起来。最终,人工智能模型可以包含当地的天气和交通数据,以及其他可能对病人的结果构成影响的因素。“医院就像一个有机体。”他说。 没有几家公司比谷歌更懂得分析这样一个“有机体”。该公司和Alphabet旗下的Verily都在开发各种设备,并追踪更多的生物学信号。即便消费者没有大量使用可穿戴健康追踪设备,谷歌也可以利用其他数据来源。该公司掌握天气和交通数据,而Android手机也可以知道人们的步行信息,甚至可以了解他们是否心情低落或其他轻症信息。这都可以提供给医疗算法进行分析。 病例也只是谷歌人工智能医疗计划的一部分。该公司的Medical Brian为放射科、眼科和心脏病科都设计了人工智能系统。他们也在皮肤病学领域开展研究,利用一款应用来识别恶性皮肤病:他们还让在产品经理身上涂抹了15个假纹身,用来检测系统的效果。 迪恩强调,这项实验严格遵循医疗顾问提供的建议,而不仅仅依靠满怀好奇心的软件程序员。谷歌还在印度开展了一项新的实验,使用该公司的人工智能软件来过滤眼球图像,以便尽早识别出糖尿病视网膜病变。迪恩表示,在发布之前,谷歌找来3名视网膜专家对早期研究结果展开了激烈辩论。 假以时日,谷歌可以将这些系统授权给诊所使用,或者通过该公司的云计算部门,以“诊断即服务”的方式提供给他们。作为谷歌在云计算领域的重要竞争对手,微软也在开发预测性人工智能服务。为了对该服务进行商业化,谷歌需要首先获取更多病例,但不同的医疗提供商所存储的数据差异较大。谷歌可以购买数据,但却有可能遭到监管者或消费者的反对。谷歌与加州大学旧金山分校和芝加哥大学的协议并非商业交易。 该公司表示,目前就设定商业模式还为时尚早。Medical Brian团队成员彭丽丽(Lily Peng)在5月的谷歌年度开发者大会上提到,他们在心脏病风险识别方面的准确率已经超过人类。但她还是补充道:“我还想再强调一遍,该技术目前还处于早期。”   稿源:新浪科技,封面源自网络;

以色列专家谈人工智能、网络安全: 新一轮科技革命利弊并存

新一轮科技革命正在悄然改变着世界,以技术创新著称的以色列也在不断推动新技术的广泛和深入应用。以色列专家们认为,人工智能、网络安全、基因工程等技术会在新一轮科技革命中得到进一步发展,为人类带来巨大变化。同时他们也担心会产生一定弊端。 特拉维夫大学戴维·曼德洛维奇博士对新华社记者表示,在某个特定的技术领域,往往5到10年就会出现新一轮科技革命。10年前的科技革命主要出现在通信和互联网技术领域,未来10年内,人工智能、基因工程等领域都有望出现新一轮科技革命。研究如何扩大新技术的应用将会给社会带来巨大影响。 以色列网络安全公司塞塔雷首席执行官马克·加齐特认为,随着人工智能和物联网技术的发展,会产生新的网络安全威胁,为此未来基于人工智能的自动网络安全工具会得到快速发展。网络安全技术正从防止外部病毒入侵发展到具备监测未知网络攻击和自动采取防御措施的能力,且未来出现错误警报的概率有望大幅下降。目前以色列的网络安全技术已朝这个方向发展。 专家们普遍认为,自动驾驶将是未来发展的重要方向,是人机互动的一个重要应用领域,此外物联网技术发展前景巨大。数字健康也将是新一轮科技革命的重点领域。 以色列非营利性机构创业国度中心总经理盖·希尔顿认为,目前数字健康技术的应用可以让医生进行快速诊断,但未来这一领域的发展可以让人类得到预见性的判断、预防和药物治疗。曼德洛维奇认为,生命科学是未来科技革命的一个重要领域,主要表现在基于基因工程开发出的个性化治疗方案和药物,有助于使人们的寿命更长,生活质量更高。 农业方面,以色列正朝着精细和智能农业发展。专家认为,未来以色列农业领域也将运用大量的人工智能技术,例如通过向智能手机传输相关数据便能预见农作物可能出现的病虫害。 以色列专家们同时认为,新一轮科技革命在改变人类的生活和生产方式的同时也会出现一定弊端。以色列工学院校长佩雷茨·拉维表示,随着机器人和自动设备的广泛应用,很多产业会出现人工闲置,导致失业,这可能会迫使人们改变就业方式。同时过度沉迷于高科技产品会导致人们忽视在现实世界的社交和沟通,这一点在青少年中表现尤为明显和严重。   稿源:新华网,新华社记者:陈文仙、杜震,封面源自网络;

谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。 去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。 据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。 一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。 此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。 今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。   以下为桑达尔•皮查伊署名的原文(翻译): AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。 在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。 我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。 我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。 AI应用的目标 我们将根据以下的目标来评估AI技术的应用,我们相信AI应该: 1、对社会有益 新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。 AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。 2、避免制造或加强不公平的偏见 AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。 3、为安全而建立并经受考验 我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。 4、对用户负责 我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。 5、纳入隐私设计原则 在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。 6、鼓励科技美德的高标准 技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。 我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。 7、适用这些原则的应用 很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性 性质与独特性:我们是提供独特的技术还是更普遍的技术 规模:该技术的使用是否会产生重大影响 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案 哪些AI应用我们不追求 除了上述目标,我们不会在以下应用领域设计或部署AI: 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。 违反普遍接受的国际法和人权原则的技术。 我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。 长期的人工智能 虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。 我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。   原文地址:https://www.blog.google/topics/ai/ai-principles/ 稿源:环球网,封面源自网络;

印度宣布将利用人工智能开发武器 系统正制定路线图

据VentureBeat北京时间5月22日报道,印度政府官员今天宣布,该国将利用人工智能(AI)技术开发武器、防御和监视系统。“世界正朝着人工智能驱动的生态系统发展,而印度也在采取必要的措施,为未来战争打造我们的国防力量,”印度国防部长阿杰伊·库玛(Ajay Kumar)在一份声明中说。 据《印度时报》报道称,目前一个17人的工作组正在为印度军方制定人工智能路线图。未来两年,工作组将向政府推荐将机器学习运用于空军、海军、陆军、网络安全、核、生物资源等的方式。具体而言,它将涉及自主化武器系统和无人监视等领域。 上述17人小组以Tata Sons公司主席纳塔拉詹·钱德拉塞卡兰(Natarajan Chandrasekaran)为首,还包括印度陆军、海军、原子能委员会和财政部成员。预计该小组将在未来三个月内向印度政府提交首份报告。 “工作组将提出建议……在地区建立战术威慑,研究潜在的革命性武器,并智能、自主的机器人系统,同时加强网络防御,”一位印度官员向媒体说道。 今年4月,印度总理纳伦德拉·莫迪(Narendra Modi)在钦奈举行的国防博览会上表示,人工智能和机器人将成为未来军事最重要的决定因素。他说,印度将凭借在信息技术领域的领导地位,努力利用人工智能技术。 印度的最新声明将很可能引起全球抨击和抵制。此前,包括特斯拉CEO埃隆·马斯克(Elon Musk)和已故天文学家霍金在内的各界人士纷纷呼吁禁止利用人工智能开发自主化武器,称此举很可能引发军备竞赛,甚至是引发第三次世界大战。显然,印度开了一个十分不好的先例。   稿源:凤凰网科技,封面源自网络;