日本新型人工智能安全摄像头揭示未来监控将自动化
自动化监控的世界正在蓬勃发展,新的机器学习技术使闭路电视摄像机能够在没有人工监控的情况下发现不轨行为。日本电信巨头NTT East和创业公司Earth Eyes研发的人工智能安全摄像机就可以做到这点。 安全摄像头被称为“AI Guardman”,旨在帮助日本的店主发现潜在的扒手。它使用卡内基梅隆大学的开源技术来扫描现场流,并估计它可以看到的任何姿势,系统然后尝试将此姿势数据与预定义的“可疑”行为进行匹配。如果它看到一些值得注意的事情,它会通过连接的应用程序提醒店主。 AI Guardman已经在开发至少几年了,但上个月,NTT East和Earth Eyes分享了一些使用相机进行早期试验的结果,根据日本IT媒体的报道,NTT East和Earth Eyes声称AI Guardman减少了约40%的商店盗窃。目前,新的深度学习技术使我们能够比以往更快更便宜地分析视频画面,日本,美国和中国的大量公司正在开发具有类似功能的产品。类似的功能也正在进入家庭安全摄像机,像亚马逊和Nest这样的公司提供了基本的AI分析,如发现宠物和人群之间的差异。 不过,AI Guardman值得注意的是,它是一款具有先进功能的产品,客户可以购买,插入并开始运行,而不会有太多延迟。 NTT East的一位发言人告诉The Verge说,这款相机将于7月底开始销售,预计价格约为2150美元,云端支持每月订购费用为40美元。 NTT表示,希望在未来三年内将相机引入1万家商店。 稿源:cnBeta,封面源自网络;
工信部:推动互联网、大数据、AI 和实体经济深度融合
工信部信软司在中国电子报撰文称,推动互联网、大数据、人工智能和实体经济深度融合,培育壮大经济发展新动能。下一步将持续推进“宽带中国”建设,做好网络提速降费工作,加快推进5G研发和产业化。以IPv6规模部署为契机,加快下一代网络建设,推进工业领域IPv6的应用。实施工业技术软件化行动和“芯火”计划,突破大数据、人工智能、区块链等关键技术和产品瓶颈,发挥我国在互联网应用、智能终端、网络设备等领域的比较优势,带动产业链上下游技术创新的整体性突破。 稿源:,稿件以及封面源自网络;
谷歌开发AI新工具:预测病人死亡时间 将应用到诊所
讯 北京时间6月19日上午消息,谷歌旗下的Medical Brian团队开发了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。 一名身患乳腺癌晚期的女士来到一家城市医院,她的肺里已经充满液体。她看了两位医生,还做了一次放射扫描。医院的电脑读取了她的生命体征,估计她在住院期间去世的概率为9.3%。 之后轮到谷歌出场。该公司开发的一种新型算法读取了这位女士的175,639个数据点,然后测算其死亡风险为19.9%。她几天之后便去世了。 今年5月,这位女士的故事被匿名发表在谷歌的一篇研究报告中,希望借此凸显神经网络在医疗行业的潜力——这种技术很擅长使用数据自动学习和提升。谷歌开发了一种工具,可以预测很多病人的结果,包括他们可能的住院时间、再次住院的概率以及短期内死亡的概率。 最令医疗专家印象深刻的在于,谷歌可以筛选之前无法获得的数据:埋藏在PDF文件中的注释或旧资料中的潦草笔记。这个神经网络会获取所有非常规信息,经过分析之后进行预测。不仅如此,它的速度也比目前的技术大幅加快,准确率同样大幅提高。谷歌的系统甚至可以显示具体哪项记录导致其得出现有的结论。 医院、医生和其他医疗服务提供商多年以来都希望更好地利用海量电子病历和其他病人数据。如果能在合适的时间分享和突出更多信息,就有可能拯救更多生命——至少也可以帮助医护人员减少写论文的时间,多投入一些精力来治病救人。但目前用来挖掘医疗数据的方法成本太高,而且非常繁琐耗时。 斯坦福大学副教授、谷歌论文的联合作者尼加姆·沙阿(Nigam Shah)表示,当今的预测模型所花费的时间有多达80%用在了“枯燥的粗活”上。谷歌的方法则避免了这种模式。“完全不必担心这个问题。”沙阿说。 谷歌人工智能主管杰夫·迪恩(Jeff Dean)今年5月表示,谷歌的下一步计划就是将这套预测系统应用到诊所。迪恩负责的医疗研究部门Medical Brain正在开发多款能够预测疾病的人工智能工具。 谷歌内部对该项目也非常振奋。“他们终于发现一种具有商业前景的新型人工智能应用。”一位谷歌员工说。自从谷歌在2016年自称是一家“人工智能优先”的公司之后,他们在这一领域的多数工作都用于改进现有的互联网服务。而Medical Brian团队的成果给谷歌提供了进入全新市场的机会——这也是该公司联合创始人拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)反复尝试的。 Alphabet医疗部门前高管、投资公司Foresite Capital董事总经理维克·巴佳吉(Vik Bajaj)表示,如今的医疗软件大都是程序员手工编写的。与之相对,谷歌的方法则会让及其自主理解数据。“他们明白哪些问题值得解决。”他说,“他们现在已经做了很多小型实验来了解究竟哪些方向富有成果。” 迪恩认为,人工智能系统可以引导医生采用某些特定的医疗和诊断方式。还有谷歌研究人员表示,现有的模型忽略了一些明显的医疗事件,包括病人之前是否接受过手术。他表示,目前这些手动编写的模型是医疗领域“明显而巨大的障碍”。但此人拒绝透露身份。 尽管谷歌认为潜力很大,但想要利用人工智能来改进医疗结果仍然要面临很大挑战。其他公司也在尝试把人工智能应用到医疗领域,IBM旗下的沃森部门就是典型例子,但也只能帮助企业节约资金,并把技术融合到报销系统中。 谷歌一直以来都希望获取数字病例,但结果喜忧参半。为了开展最近的研究,谷歌与加州大学旧金山分校和芝加哥大学达成协议,得以匿名获取460亿份病例数据。谷歌的人工智能系统为每家医院分别开发预测模型。如果要为所有医院开发统一模型,就会遭遇更大的挑战。谷歌正在寻找新的合作伙伴,以便获取更多数据。 更加深入地挖掘医疗数据只会进一步增加谷歌已经掌握的海量信息。“谷歌这样的科技巨头将会具备独一无二、近乎垄断的能力来挖掘我们生成的所有数据。”数据公司Immuta首席隐私管安德鲁·波特(Andrew Burt)说。他和儿科肿瘤专家萨缪尔·沃尔琴伯姆(Samuel Volchenboum)在最近的一篇专栏文章中表示,政府应该阻止这些数据成为少数几家公司的特权地带。 谷歌对待病例数据非常小心,尤其是在外界对数据问题日益敏感的当下。英国监管者去年批评Alphabet旗下的DeepMind人工智能实验室,指责其在没有告知病人的情况下利用一款应用来分析他们的公开病例数据。而在最新的研究中,谷歌及其合作医院都坚称他们的数据经过匿名处理,而且获得了病人许可。沃尔琴伯姆表示,如果要向规模更小的医院和医疗网络扩张,该公司在维护数据方面会遭遇更多挑战。 不过,他还是认为这些算法可以拯救生命、节约资金。他希望病例数据能够与其他统计信息结合起来。最终,人工智能模型可以包含当地的天气和交通数据,以及其他可能对病人的结果构成影响的因素。“医院就像一个有机体。”他说。 没有几家公司比谷歌更懂得分析这样一个“有机体”。该公司和Alphabet旗下的Verily都在开发各种设备,并追踪更多的生物学信号。即便消费者没有大量使用可穿戴健康追踪设备,谷歌也可以利用其他数据来源。该公司掌握天气和交通数据,而Android手机也可以知道人们的步行信息,甚至可以了解他们是否心情低落或其他轻症信息。这都可以提供给医疗算法进行分析。 病例也只是谷歌人工智能医疗计划的一部分。该公司的Medical Brian为放射科、眼科和心脏病科都设计了人工智能系统。他们也在皮肤病学领域开展研究,利用一款应用来识别恶性皮肤病:他们还让在产品经理身上涂抹了15个假纹身,用来检测系统的效果。 迪恩强调,这项实验严格遵循医疗顾问提供的建议,而不仅仅依靠满怀好奇心的软件程序员。谷歌还在印度开展了一项新的实验,使用该公司的人工智能软件来过滤眼球图像,以便尽早识别出糖尿病视网膜病变。迪恩表示,在发布之前,谷歌找来3名视网膜专家对早期研究结果展开了激烈辩论。 假以时日,谷歌可以将这些系统授权给诊所使用,或者通过该公司的云计算部门,以“诊断即服务”的方式提供给他们。作为谷歌在云计算领域的重要竞争对手,微软也在开发预测性人工智能服务。为了对该服务进行商业化,谷歌需要首先获取更多病例,但不同的医疗提供商所存储的数据差异较大。谷歌可以购买数据,但却有可能遭到监管者或消费者的反对。谷歌与加州大学旧金山分校和芝加哥大学的协议并非商业交易。 该公司表示,目前就设定商业模式还为时尚早。Medical Brian团队成员彭丽丽(Lily Peng)在5月的谷歌年度开发者大会上提到,他们在心脏病风险识别方面的准确率已经超过人类。但她还是补充道:“我还想再强调一遍,该技术目前还处于早期。” 稿源:,稿件以及封面源自网络;
谷歌 CEO 公布 AI 七原则 但继续与美国军方合作
针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。 去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。 据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。 一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。 此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。 今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。 以下为桑达尔•皮查伊署名的原文(翻译): AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。 在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。 我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。 我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。 AI应用的目标 我们将根据以下的目标来评估AI技术的应用,我们相信AI应该: 1、对社会有益 新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。 AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。 2、避免制造或加强不公平的偏见 AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。 3、为安全而建立并经受考验 我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。 4、对用户负责 我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。 5、纳入隐私设计原则 在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。 6、鼓励科技美德的高标准 技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。 我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。 7、适用这些原则的应用 很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性 性质与独特性:我们是提供独特的技术还是更普遍的技术 规模:该技术的使用是否会产生重大影响 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案 哪些AI应用我们不追求 除了上述目标,我们不会在以下应用领域设计或部署AI: 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。 违反普遍接受的国际法和人权原则的技术。 我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。 长期的人工智能 虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。 我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。 原文地址:https://www.blog.google/topics/ai/ai-principles/ 稿源:环球网,封面源自网络;
安全研究人员提醒AI助理需谨防人耳听不到的“海豚攻击”
中美研究人员已经验证了一种可向 Siri 等 AI 助理发出“隐藏式攻击命令”的方法,因其采用了人耳察觉不到的音频,从而强迫智能助理执行非机主下达的恶意命令。《纽约时报》指出,如果被别有用心的人得逞,这种攻击手段可用于拨打电话、打开网站、甚至更糟糕的事情。根据来自加州、伯克利、以及乔治城大学的学生团队在本月发表的一篇研究论文,他们甚至可以将恶意命令嵌入音乐录音或口述文本中。 当在亚马逊 Echo 或苹果 iPhone 附近播放时,普通人只能听到单纯的歌曲或语音。但智能设备能够捡拾起一条潜在的指令,比如向购物车中添加一些东西。 往更危险的层面去讲,恶意攻击者可以下达锁门、卷钱、或购买线上商品等操作 —— 尽管在通常情况下,为了不引起事主的注意,事情都是静悄悄地进行、涉及金额也不会太大。 然而论文作者之一、来自加州大学博客利分校的五年制计算机安全博士生 Nicholas Carlini 坚信,或许早已有恶意攻击者实施过类似的技术: 我们想要知道自己是否能够让它变得更加隐秘,虽然没有证据表明这些技术已经跑出了实验室,但它被人利用只是时间的问题。我的的猜测是,恶意攻击者早已雇人干过我提到的事情。 【视频】:Dolphin Attack_ Inaudible Voice Command 去年的时候,美国普林斯顿和中国浙江大学的研究人员们已经执行过类似的测试,证明了 AI 助理可以通过不被人耳所听到的音频给激活。 如上方的“海豚攻击”演示所示,研究人员打造了一台可以下达隐藏命令的发送器,并顺利地让手机执行了拨打特定电话的操作(另有拍照和发送短信等测试)。 当然,海豚攻击的范围是有限的,因为攻击者必须足够接近接受设备。 稿源:cnBeta,封面源自网络; 相关阅读:Alexa and Siri Can Hear This Hidden Command. You Can’t.
美国提出新法案 希望建立人工智能国家安全委员会
据外媒报道,众议院武装部队新兴威胁和能力小组委员会主席 Elise Stefanik 最近提出新法案,希望建立一个人工智能国家安全委员会。如果该法案通过,美国总统特朗普将在 2019 年某个时候收到关于人工智能的完整报告。该法案将制定“ 2018 年国家安全委员会人工智能法”,并要求临时组建一个 11 人委员会,其目的是对政府进行人工智能的全面审查。它要求在颁布后 180 天内制定初步报告。 根据该法案,委员会成员将负责提供以下方面的见解: 确定美国在人工智能和相关技术方面的竞争力 保持美国人工智能和量子计算机技术的领先地位 人工智能的国外发展情况 鼓励私营企业投资人工智能 劳动力教育和奖励计划,以吸引高质量的候选人加入 AI 领域 与人工智能军事化有关的风险 人工智能的道德 建立鼓励开放源码共享数据的“数据标准” 制定与人工智能相关的隐私和安全措施 以及“委员会认为与国家共同防御有关的任何其他事宜”。 该委员会将要求“不超过 1000 万美元”进行审查,并将于 2020 年 10 月 1 日解散。这当然取决于该法案是否会获得众议院和参议院通过,然后通过总统签署成为法律。目前特朗普尚未公开讨论这个新法案。 特朗普此前仅发布过关于机器人的推文,但它与机器学习或人工智能无关。 相比之下,美国前总统奥巴马花了大量时间讨论人工智能。在 2016 年接受《连线》采访时奥巴马曾表示: 我一直在思考人工智能的监管结构问题,在技术早期,应该百花齐放。政府的管理应该更轻松,大力投资研究,并确保在基础研究和应用研究之间的对话。随着技术的出现与成熟,如何将人工智能纳入已有的监管结构中成了一个更为棘手的问题,政府需要参与更多。 稿源:cnBeta,封面源自网络;
美国政府考虑建设国有 5G 网络 可 3 年内建成
1 月 29 日上午消息,根据美国科技网站 Axios 获取的机密文件显示,美国国家安全官员提议联邦政府接管本国的部分移动网络。Axios 拿到一份幻灯片文件和一份备忘录,两份文件全都来自一名国家安全委员会官员,最近,这些文件提交给特朗普政府其它部门的高级官员评估。 随后根据路透社报道,美国政府一名高级官员证实了 Axios 所报道的内容。他表示 5G 网络国有化选项目前只是在政府较低的层面进行讨论,提交给特朗普本人考虑还需要 6-8 个月的时间。 文件认为,美国应该建一个集中化、全国性 5G 网络,在 3 年之内建成。而如何建造、钱从哪里来等问题,未来 6-8 个月内,特朗普政府内部将会进行激烈的争论。 机密文件摆出两种方案: 第一种,美国政府出钱,建一个单一网络,以前美国的网络基础设施都是私有的,这一次它会成为国有网络,史无前例。 第二种,无线运营商建设自己的5G网络,彼此竞争。文件认为,如果选择第二种方案,花费的时间会更长,成本也会更高。不过文件也说第二种方法有一个优点:相比政府建网,无线运营商自建网络对无线产业造成的商业冲击更小一些。 不过知情人士认为,第二种 “ 选择 ” 实际上不算一个选择,因为美国需要用单一的集中化网络来保护本国,提防威胁。 消息人士还说,白宫将会围绕一些关键问题进行讨论,比如政府是否应该建设并拥有网络,还是让运营商联合组建财团,建设网络,如果组团建设,运营商先要将自己的商业利益放在一边,优先考虑国家利益。 幻灯片指出,美国必须快速开发超快 5G 无线技术,因为中国在制造及运营网络基础设施方面已经成为主导力量。 备忘录认为,对于美国政府来说,最好的办法就是自己建一个网络,然后租赁给运营商使用。不过消息人士称这种方案只是老版方案,较新的方案在政府是否应该建设并拥有网络一事上保持中立。 除此之外,备忘录还认为如果想支持新技术发展,比如无人驾驶技术、VR 技术,美国需要建设一个强大的 5G 网络。备忘录称中国正在慢慢赢得 AI 算法大战,如果不建设这样的网络,在信息领域美国将会永远落后于中国。 稿源:cnBeta、,稿件以及封面源自网络;
微软扩大蒙特利尔研究实验室继续关注人工智能
在 2017 年 1 月收购了位于蒙特利尔的深度学习创业公司 Maluuba 后,微软表示,这座加拿大城市将成为其新的 AI 研发组织所在地。就在这个宣布一年之后,雷德蒙德巨头今天宣布了其蒙特利尔研究中心的大规模扩张,任命了一位新的研究总监。 卡内基梅隆大学机器学习教授 Geoffrey Gordon 将在蒙特利尔领导一个扩大的微软研究团队,微软计划在未来两年内创建一个由 75 位 AI 专家组成的团队,强化学习和自然语言处理方面的专家 Gordon 将帮助当地的研究团队创建AI系统,以完成更复杂的任务。 微软研究院新英格兰,纽约市和蒙特利尔地区的技术研究员兼总经理 Jennifer Chayes 解释说:“ 我们希望做的研究工作将会在今天和明天将 AI 注入到微软的产品中,Geoffrey Gordon 的研究真正涵盖了这一点。他将能够帮助我们改进我们的产品,同时他也将为人工智能做更多的工作奠定基础。” 稿源:cnBeta,封面源自网络;
腾讯安全团队:谷歌 AI 学习系统存在重大安全漏洞
腾讯安全平台部 Blade 团队日前对外发布消息称,该团队在对谷歌人工智能学习系统 TensorFlow 进行代码审计时,发现该系统存在重大安全漏洞,利用该系统进行编辑的 AI 场景,有遭受恶意攻击的可能。据腾讯安全平台部负责人杨勇介绍,TensorFlow 是目前谷歌免费开放给 AI 设计者的编程平台,程序员可以在该平台上进行 AI 组件的设计工作。 杨勇表示,当含有安全风险的代码被编辑进诸如面部识别或机器人学习的 AI 使用场景中,攻击者就可以利用该漏洞完全接管系统权限,窃取设计者的设计模型,侵犯使用者隐私,甚至对用户造成更大伤害。通俗地讲,如果设计人员在给机器人编程时恰好使用了含有该漏洞的组件,那么恶意攻击者就有可能利用漏洞控制该机器人,这是非常可怕的。目前我们在AI安全领域还只是迈出了一小步,未来期待更多的技术人员一起完善 AI ,让 AI 更安全……” Blade 团队表示,TensorFlow 是目前应用最为广泛的机器学习框架之一,已被运用在诸多 AI 场景中,如语音识别、自然语言理解、计算机视觉、广告、无人驾驶等;其一旦被黑客控制,后果不堪设想。目前 Blade 团队已将漏洞的运用机理致函谷歌公司,而该漏洞需要谷歌安全团队对代码重新编辑。对此,一些业内专家也表达了担忧。 上海信息安全行业协会专委会副主任张威认为,当前从事人工智能开发的企业几乎无一例外地将算法和数据相融合,一些数据可能涉及企业和用户的核心秘密,一旦出现安全漏洞,风险较高。张威建议,有关企业应尽快自查是否使用过该平台进行 AI 编程,同时行业内应加强联系沟通,消除安全隐患。 稿源:网易新闻、澎湃新闻,封面源自网络;编辑:青楚
谷歌高管:AI 技术给各国监管机构带来了新挑战
Alphabet 旗下谷歌部门副总裁、机器学习领域中的先驱人物杰弗里·辛顿(Geoffrey Hinton)12 月 4 日称,人工智能(AI)技术在金融服务、医疗保健、交通运输及其他领域中的扩张给各国政府带来了新的挑战,使其不得不对这些行业进行监管。辛顿在路透社周一于多伦多主持召开的 Reuters Newsmaker 大会上表示:“ 这将是个大问题。” 在繁荣发展的深度学习领域中,辛顿是一位先驱人物,他曾领导多伦多大学的一个科学家团队开发出了一些关键算法,这些算法被神经网络系统用于海量数据的运算分析,借此自我训练以鉴别各种模式,从而模仿人类大脑处理某些任务的方式,如驾驶汽车、分析潜在的金融交易或利用医学图像来诊断疾病等。 他说道,自 2012 年以来,这个领域已经取得了繁荣的发展,当时神经网络的进步令谷歌得以为其 Android 移动设备增添了语音识别功能,研究人员则利用这种技术来降低光学识别的出错率。 辛顿还表示,神经网络可自我学习执行复杂操作,这就意味着其开发者不可能确切地告知政府监管机构这种系统是如何运作的。他说道:“你所需要的只是有关正确答案是什么的海量数据和信息,让后就可教会一个庞大的神经网络去做你想做的事情。” 深度学习还正接近于彻底改革某些疾病的诊断方式。辛顿表示,已经学习了以百万计算的医学图像的神经网络将可作出比一部分医师更精确的诊断。他预测,利用神经网络来检测皮肤损伤图像的移动应用将被开发出来,这种应用将可建议用户去看医生,以便在如有必要时做活组织检查。他说道:“我们想要让机器变得更好。” 相关文章: ○ Google AI 创造的 AI 超过人类创造的 AI ○ AI能够自学翻译地球上的任何语言了 ○ 前谷歌首席科学家Yoav Shoham:AI研究的发展还太有限 稿源:cnBeta、,稿件以及封面源自网络;