分类: 人工智能

AI 公司面临隐私问题 不少仍坚持原则拒绝商业机会

TechWeb报道,7月8日消息,据国外媒体报道,当一家由美国中央情报局支持的风险投资基金表示对拉纳·埃尔·卡利乌比(Rana el Kaliouby)的面部扫描技术感兴趣时,这位计算机科学家和她的同事进行了一些反思——然后拒绝了这笔投资。 卡利乌比是波士顿初创公司Affectiva的联合创始人兼首席执行官,该公司已经对其人工智能系统进行了培训,创建了一个包含600多万张面孔的摄影库,可识别出一个人的情绪,是高兴还是悲伤、疲倦还是愤怒。 她说:“我们公司对你们监视别人的事情不感兴趣。” 由人工智能驱动的计算机视觉技术不断更新,不仅加速了自动驾驶汽车的竞争,并为Facebook和谷歌上越来越复杂的照片标注功能提供了动力。但是,随着这些能够窥探人们的“人工智能之眼”被安装在商店的收银台、警察的随身相机,以及在战场上找到了新的用武之地,科技公司正在努力平衡商业机会和道德决策,而这些决策可能会导致他们失去客户或是员工失去工作。 卡利乌比说,“不难想象,利用实时的人脸识别技术可识别撒谎行为——或者,在一个专制政权的手中,监控人们对政治言论的反应,以根除不同意见。”但是,这家从麻省理工学院一个研究实验室中走出来的小公司,已经为自己做出限制。 卡利乌比说,该公司已经避开检测“任何安保、机场,甚至是谎言检测的事项”。相反,Affectiva与汽车制造商合作,试图帮助那些外表看上去疲惫的司机保持清醒,并与消费者品牌合作,商家希望了解人们对某款产品的反应是喜欢还是厌恶。 这种不安反映出,人们对这个时刻都在监视的人工智能全视系统的能力和可能存在的弊端感到不按——就连当局也越来越渴望能使用它们。 上个月,在马里兰州安纳波利斯的一家报纸报道一起致命枪击事件后,警方说,他们在确认这名不愿合作的嫌疑人后,立即开始了面部识别。他们这样做的目的是利用一个国家数据库,其中包括过去被捕者的照片。更有争议的是,这其中还包括每个注册了马里兰州驾照的人。 向执法部门提供的初步信息显示,警方之所以利用面部识别技术,是因为嫌疑人显然是为了逃避被确定而损坏了指纹。后来那份报告被证明是错误的,警方说他们使用面部识别是因为指纹识别结果受到延迟。 今年6月,位于佛罗里达州的奥兰多国际机场宣布,计划在今年年底前,对所有进出国际航班的乘客进行面部识别扫描。美国其他几个机场已经在对一些国际航班进行扫描,但不是全部。 中国公司已经在使用智能相机来实时地记录那些乱穿马路的人。亚马逊在西雅图的新开的无收银员商店中配备了头顶摄像头和传感器,目的是通过追踪购物者拿起和放回的每一件商品,解决了店内行窃行为。 即使是最大的科技公司,对这项技术的担忧也受到了动摇。例如,谷歌最近表示,在员工抗议谷歌的人工智能技术应用到军事应用后,该公司将退出一份防御合同。这项工作涉及对来自伊拉克和其他冲突地区的无人机视频进行计算机分析。 类似对政府合同的担忧也激起了亚马逊和微软内部的不和。谷歌此后发布了人工智能指南,强调使用“对社会有益”和避免“不公平偏见”。 然而,到目前为止,亚马逊已经顶住了来自员工和隐私倡导人士日益增长的压力,他们要求其停止向警察部门和其他政府机构出售的公司强大人脸识别工具Rekognition。 自本世纪初计算机视觉技术出现突破以来,商业和政府对这项技术的兴趣迅速增长,人们使用类似大脑的“神经网络”来识别图像中的物体。2012年,在YouTube视频中训练电脑识别猫还是一项早期的挑战。现在,谷歌有款APP不仅能识别猫,还能告诉你这猫是哪个品种。 今年6月,在盐湖城举行了一场计算机视觉和模式识别领域的重要学术会议。多伦多约克大学的计算机科学家、会议的组织者迈克尔·布朗说,这原本是一个充满“书呆子”令人昏昏欲睡的学术会议,现在成为淘金热的商业世博会,吸引了很多大公司和政府机构。 布朗说,研究人员当场被给予高薪工作。但在提交给会议的数千份技术文件中,很少有涉及公众对隐私、偏见或其他道德困境的广泛担忧。他说:“对于这个原本应当重视的问题,我们可能不会进行过多的讨论。” 创业公司正在开辟自己的道路。迈阿密面部识别软件公司Kairos的首席执行官布赖恩·布雷斯基恩(Brian Brackeen)制定了一项全面政策,禁止向执法部门或政府监控部门出售该技术。他在最近的一篇文章中辩称,该技术“为道德败坏者的严重不当行为打开了大门”。 相比之下,总部位于波士顿的创业公司Neurala正在为摩托罗拉开发软件,用于警察佩戴的随身相机,它可以根据人们的穿着和长相在人群中确定一个人。首席执行官马克斯·范思哲(Max Versace)表示,“人工智能是社会的一面镜子”,因此该公司只选择有原则的合作伙伴。 他说,“我们不是那种极权主义、奥威尔式的阴谋的一员。”   稿源:TechWeb,封面源自网络;

澳大利亚与 IBM 签订 10 亿澳元合同,用于量子、区块链、人工智能项目

【环球网综合报道】据澳大利亚“新快网”7月6日报道,澳大利亚联邦政府与国际商业机器有限公司(IBM)达成价值10亿澳元(约合人民币49亿元)协议。IBM将向澳大利亚各个政府机构提供计算机硬件设备及软件服务。 据澳大利亚《金融评论报》报道,特恩布尔政府5日宣布与IBM达成5年合作协议,利用政府的大宗采购能力为全体部门及机构争取到折扣优惠。无论政府机构规模或支出如何,均能在合同期限内获取常规软件升级。 这是澳大利亚联邦史上最高金额的IT采购合同,也是IBM首次与国家政府签订这类协议。 澳大利亚数字化转型助理部长基南(Michael Keenan)表示:“作为IBM产品及服务的主要买家之一,这项协议将使得政府信息通信技术投资回报最大化,确保纳税人的钱花得值。” 协议还涉及科研部分。IBM墨尔本研究与开发团队将研究如何加快区块链、人工智能及量子计算在公共服务领域的发展。黄金海岸(Gold Coast)及堪培拉的工程师与开发人员,工作重点则将是保护数据的安全性以及使用超级计算机为政府服务。   稿源:环球网,原标题《澳大利亚政府与IBM签订10亿澳元大单》,封面源自网络;

日本新型人工智能安全摄像头揭示未来监控将自动化

自动化监控的世界正在蓬勃发展,新的机器学习技术使闭路电视摄像机能够在没有人工监控的情况下发现不轨行为。日本电信巨头NTT East和创业公司Earth Eyes研发的人工智能安全摄像机就可以做到这点。 安全摄像头被称为“AI Guardman”,旨在帮助日本的店主发现潜在的扒手。它使用卡内基梅隆大学的开源技术来扫描现场流,并估计它可以看到的任何姿势,系统然后尝试将此姿势数据与预定义的“可疑”行为进行匹配。如果它看到一些值得注意的事情,它会通过连接的应用程序提醒店主。 AI Guardman已经在开发至少几年了,但上个月,NTT East和Earth Eyes分享了一些使用相机进行早期试验的结果,根据日本IT媒体的报道,NTT East和Earth Eyes声称AI Guardman减少了约40%的商店盗窃。目前,新的深度学习技术使我们能够比以往更快更便宜地分析视频画面,日本,美国和中国的大量公司正在开发具有类似功能的产品。类似的功能也正在进入家庭安全摄像机,像亚马逊和Nest这样的公司提供了基本的AI分析,如发现宠物和人群之间的差异。 不过,AI Guardman值得注意的是,它是一款具有先进功能的产品,客户可以购买,插入并开始运行,而不会有太多延迟。 NTT East的一位发言人告诉The Verge说,这款相机将于7月底开始销售,预计价格约为2150美元,云端支持每月订购费用为40美元。 NTT表示,希望在未来三年内将相机引入1万家商店。   稿源:cnBeta,封面源自网络;

谷歌开发AI新工具:预测病人死亡时间 将应用到诊所

新浪科技讯 北京时间6月19日上午消息,谷歌旗下的Medical Brian团队开发了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。 一名身患乳腺癌晚期的女士来到一家城市医院,她的肺里已经充满液体。她看了两位医生,还做了一次放射扫描。医院的电脑读取了她的生命体征,估计她在住院期间去世的概率为9.3%。 之后轮到谷歌出场。该公司开发的一种新型算法读取了这位女士的175,639个数据点,然后测算其死亡风险为19.9%。她几天之后便去世了。 今年5月,这位女士的故事被匿名发表在谷歌的一篇研究报告中,希望借此凸显神经网络在医疗行业的潜力——这种技术很擅长使用数据自动学习和提升。谷歌开发了一种工具,可以预测很多病人的结果,包括他们可能的住院时间、再次住院的概率以及短期内死亡的概率。 最令医疗专家印象深刻的在于,谷歌可以筛选之前无法获得的数据:埋藏在PDF文件中的注释或旧资料中的潦草笔记。这个神经网络会获取所有非常规信息,经过分析之后进行预测。不仅如此,它的速度也比目前的技术大幅加快,准确率同样大幅提高。谷歌的系统甚至可以显示具体哪项记录导致其得出现有的结论。 医院、医生和其他医疗服务提供商多年以来都希望更好地利用海量电子病历和其他病人数据。如果能在合适的时间分享和突出更多信息,就有可能拯救更多生命——至少也可以帮助医护人员减少写论文的时间,多投入一些精力来治病救人。但目前用来挖掘医疗数据的方法成本太高,而且非常繁琐耗时。 斯坦福大学副教授、谷歌论文的联合作者尼加姆·沙阿(Nigam Shah)表示,当今的预测模型所花费的时间有多达80%用在了“枯燥的粗活”上。谷歌的方法则避免了这种模式。“完全不必担心这个问题。”沙阿说。 谷歌人工智能主管杰夫·迪恩(Jeff Dean)今年5月表示,谷歌的下一步计划就是将这套预测系统应用到诊所。迪恩负责的医疗研究部门Medical Brain正在开发多款能够预测疾病的人工智能工具。 谷歌内部对该项目也非常振奋。“他们终于发现一种具有商业前景的新型人工智能应用。”一位谷歌员工说。自从谷歌在2016年自称是一家“人工智能优先”的公司之后,他们在这一领域的多数工作都用于改进现有的互联网服务。而Medical Brian团队的成果给谷歌提供了进入全新市场的机会——这也是该公司联合创始人拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)反复尝试的。 Alphabet医疗部门前高管、投资公司Foresite Capital董事总经理维克·巴佳吉(Vik Bajaj)表示,如今的医疗软件大都是程序员手工编写的。与之相对,谷歌的方法则会让及其自主理解数据。“他们明白哪些问题值得解决。”他说,“他们现在已经做了很多小型实验来了解究竟哪些方向富有成果。” 迪恩认为,人工智能系统可以引导医生采用某些特定的医疗和诊断方式。还有谷歌研究人员表示,现有的模型忽略了一些明显的医疗事件,包括病人之前是否接受过手术。他表示,目前这些手动编写的模型是医疗领域“明显而巨大的障碍”。但此人拒绝透露身份。 尽管谷歌认为潜力很大,但想要利用人工智能来改进医疗结果仍然要面临很大挑战。其他公司也在尝试把人工智能应用到医疗领域,IBM旗下的沃森部门就是典型例子,但也只能帮助企业节约资金,并把技术融合到报销系统中。 谷歌一直以来都希望获取数字病例,但结果喜忧参半。为了开展最近的研究,谷歌与加州大学旧金山分校和芝加哥大学达成协议,得以匿名获取460亿份病例数据。谷歌的人工智能系统为每家医院分别开发预测模型。如果要为所有医院开发统一模型,就会遭遇更大的挑战。谷歌正在寻找新的合作伙伴,以便获取更多数据。 更加深入地挖掘医疗数据只会进一步增加谷歌已经掌握的海量信息。“谷歌这样的科技巨头将会具备独一无二、近乎垄断的能力来挖掘我们生成的所有数据。”数据公司Immuta首席隐私管安德鲁·波特(Andrew Burt)说。他和儿科肿瘤专家萨缪尔·沃尔琴伯姆(Samuel Volchenboum)在最近的一篇专栏文章中表示,政府应该阻止这些数据成为少数几家公司的特权地带。 谷歌对待病例数据非常小心,尤其是在外界对数据问题日益敏感的当下。英国监管者去年批评Alphabet旗下的DeepMind人工智能实验室,指责其在没有告知病人的情况下利用一款应用来分析他们的公开病例数据。而在最新的研究中,谷歌及其合作医院都坚称他们的数据经过匿名处理,而且获得了病人许可。沃尔琴伯姆表示,如果要向规模更小的医院和医疗网络扩张,该公司在维护数据方面会遭遇更多挑战。 不过,他还是认为这些算法可以拯救生命、节约资金。他希望病例数据能够与其他统计信息结合起来。最终,人工智能模型可以包含当地的天气和交通数据,以及其他可能对病人的结果构成影响的因素。“医院就像一个有机体。”他说。 没有几家公司比谷歌更懂得分析这样一个“有机体”。该公司和Alphabet旗下的Verily都在开发各种设备,并追踪更多的生物学信号。即便消费者没有大量使用可穿戴健康追踪设备,谷歌也可以利用其他数据来源。该公司掌握天气和交通数据,而Android手机也可以知道人们的步行信息,甚至可以了解他们是否心情低落或其他轻症信息。这都可以提供给医疗算法进行分析。 病例也只是谷歌人工智能医疗计划的一部分。该公司的Medical Brian为放射科、眼科和心脏病科都设计了人工智能系统。他们也在皮肤病学领域开展研究,利用一款应用来识别恶性皮肤病:他们还让在产品经理身上涂抹了15个假纹身,用来检测系统的效果。 迪恩强调,这项实验严格遵循医疗顾问提供的建议,而不仅仅依靠满怀好奇心的软件程序员。谷歌还在印度开展了一项新的实验,使用该公司的人工智能软件来过滤眼球图像,以便尽早识别出糖尿病视网膜病变。迪恩表示,在发布之前,谷歌找来3名视网膜专家对早期研究结果展开了激烈辩论。 假以时日,谷歌可以将这些系统授权给诊所使用,或者通过该公司的云计算部门,以“诊断即服务”的方式提供给他们。作为谷歌在云计算领域的重要竞争对手,微软也在开发预测性人工智能服务。为了对该服务进行商业化,谷歌需要首先获取更多病例,但不同的医疗提供商所存储的数据差异较大。谷歌可以购买数据,但却有可能遭到监管者或消费者的反对。谷歌与加州大学旧金山分校和芝加哥大学的协议并非商业交易。 该公司表示,目前就设定商业模式还为时尚早。Medical Brian团队成员彭丽丽(Lily Peng)在5月的谷歌年度开发者大会上提到,他们在心脏病风险识别方面的准确率已经超过人类。但她还是补充道:“我还想再强调一遍,该技术目前还处于早期。”   稿源:新浪科技,封面源自网络;

以色列专家谈人工智能、网络安全: 新一轮科技革命利弊并存

新一轮科技革命正在悄然改变着世界,以技术创新著称的以色列也在不断推动新技术的广泛和深入应用。以色列专家们认为,人工智能、网络安全、基因工程等技术会在新一轮科技革命中得到进一步发展,为人类带来巨大变化。同时他们也担心会产生一定弊端。 特拉维夫大学戴维·曼德洛维奇博士对新华社记者表示,在某个特定的技术领域,往往5到10年就会出现新一轮科技革命。10年前的科技革命主要出现在通信和互联网技术领域,未来10年内,人工智能、基因工程等领域都有望出现新一轮科技革命。研究如何扩大新技术的应用将会给社会带来巨大影响。 以色列网络安全公司塞塔雷首席执行官马克·加齐特认为,随着人工智能和物联网技术的发展,会产生新的网络安全威胁,为此未来基于人工智能的自动网络安全工具会得到快速发展。网络安全技术正从防止外部病毒入侵发展到具备监测未知网络攻击和自动采取防御措施的能力,且未来出现错误警报的概率有望大幅下降。目前以色列的网络安全技术已朝这个方向发展。 专家们普遍认为,自动驾驶将是未来发展的重要方向,是人机互动的一个重要应用领域,此外物联网技术发展前景巨大。数字健康也将是新一轮科技革命的重点领域。 以色列非营利性机构创业国度中心总经理盖·希尔顿认为,目前数字健康技术的应用可以让医生进行快速诊断,但未来这一领域的发展可以让人类得到预见性的判断、预防和药物治疗。曼德洛维奇认为,生命科学是未来科技革命的一个重要领域,主要表现在基于基因工程开发出的个性化治疗方案和药物,有助于使人们的寿命更长,生活质量更高。 农业方面,以色列正朝着精细和智能农业发展。专家认为,未来以色列农业领域也将运用大量的人工智能技术,例如通过向智能手机传输相关数据便能预见农作物可能出现的病虫害。 以色列专家们同时认为,新一轮科技革命在改变人类的生活和生产方式的同时也会出现一定弊端。以色列工学院校长佩雷茨·拉维表示,随着机器人和自动设备的广泛应用,很多产业会出现人工闲置,导致失业,这可能会迫使人们改变就业方式。同时过度沉迷于高科技产品会导致人们忽视在现实世界的社交和沟通,这一点在青少年中表现尤为明显和严重。   稿源:新华网,新华社记者:陈文仙、杜震,封面源自网络;

谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。 去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。 据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。 一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。 此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。 今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。   以下为桑达尔•皮查伊署名的原文(翻译): AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。 在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。 我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。 我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。 AI应用的目标 我们将根据以下的目标来评估AI技术的应用,我们相信AI应该: 1、对社会有益 新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。 AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。 2、避免制造或加强不公平的偏见 AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。 3、为安全而建立并经受考验 我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。 4、对用户负责 我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。 5、纳入隐私设计原则 在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。 6、鼓励科技美德的高标准 技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。 我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。 7、适用这些原则的应用 很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性 性质与独特性:我们是提供独特的技术还是更普遍的技术 规模:该技术的使用是否会产生重大影响 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案 哪些AI应用我们不追求 除了上述目标,我们不会在以下应用领域设计或部署AI: 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。 违反普遍接受的国际法和人权原则的技术。 我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。 长期的人工智能 虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。 我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。   原文地址:https://www.blog.google/topics/ai/ai-principles/ 稿源:环球网,封面源自网络;

印度宣布将利用人工智能开发武器 系统正制定路线图

据VentureBeat北京时间5月22日报道,印度政府官员今天宣布,该国将利用人工智能(AI)技术开发武器、防御和监视系统。“世界正朝着人工智能驱动的生态系统发展,而印度也在采取必要的措施,为未来战争打造我们的国防力量,”印度国防部长阿杰伊·库玛(Ajay Kumar)在一份声明中说。 据《印度时报》报道称,目前一个17人的工作组正在为印度军方制定人工智能路线图。未来两年,工作组将向政府推荐将机器学习运用于空军、海军、陆军、网络安全、核、生物资源等的方式。具体而言,它将涉及自主化武器系统和无人监视等领域。 上述17人小组以Tata Sons公司主席纳塔拉詹·钱德拉塞卡兰(Natarajan Chandrasekaran)为首,还包括印度陆军、海军、原子能委员会和财政部成员。预计该小组将在未来三个月内向印度政府提交首份报告。 “工作组将提出建议……在地区建立战术威慑,研究潜在的革命性武器,并智能、自主的机器人系统,同时加强网络防御,”一位印度官员向媒体说道。 今年4月,印度总理纳伦德拉·莫迪(Narendra Modi)在钦奈举行的国防博览会上表示,人工智能和机器人将成为未来军事最重要的决定因素。他说,印度将凭借在信息技术领域的领导地位,努力利用人工智能技术。 印度的最新声明将很可能引起全球抨击和抵制。此前,包括特斯拉CEO埃隆·马斯克(Elon Musk)和已故天文学家霍金在内的各界人士纷纷呼吁禁止利用人工智能开发自主化武器,称此举很可能引发军备竞赛,甚至是引发第三次世界大战。显然,印度开了一个十分不好的先例。   稿源:凤凰网科技,封面源自网络;

亚特兰大市政府拒付勒索软件赎金 宁可耗费数百万美元去修复

3 月 22 号的时候,亚特兰大市遭遇了一场大规模的勒索软件攻击,政府机构的一些关键系统也不幸中招,迫使官员放弃了电子邮件和数字系统,转而使用传统的纸笔记录方案。路透社上月报道称,攻击者索取价值高达 5.1 万美元的比特币赎金,但该市觉得不能助长黑客的嚣张气焰,于是决定硬扛下来。为了让系统恢复正常运转,当前承包商仍在修复,即便此举会耗费更多资金。 攻击导致许多机构和官员无法访问包含数字记录和电子邮件等内容的系统。一些勒索软件的会设置时间期限,比如超期赎金翻倍、或者直接删除被其恶意加密的文件。 目前暂不清楚该市拒付赎金的原因,也不知其是否尝试过支付。然而一些纳税人很遗憾地发现,该市最终竟然耗费了数百万美元来解决这个问题。 由亚特兰大政府网站公开的紧急采购信息可知,官员们将大把钱(超过 250 万美元)砸到了 SecureWorks 和 Pioneer Technology Group 等承包商身上。 稿源:cnBeta,封面源自网络;

ATI Systems 警报器现「SirenJack 远程漏洞」,可通过无线电频率激活警报制造全城混乱

近日,网络安全公司 Bastille 发布的安全公告称, ATI Systems 的紧急警报系统中暴露了一个名为 SirenJack 的远程劫持漏洞,攻击者可以通过无线电频率(RF)来利用该漏洞激活、触发错误警报,以制造混乱和恐慌。 Bastille 的研究人员认为 SirenJack 缺陷实际上是由于 ATI 从控制站向警报器传输信号的方式引起的,因为其研究人员发现 ATI Systems 用于控制警报器的无线电协议并不安全,其激活命令直接以明文形式发送,而没有采用加密。在这种情况下,恶意人士可以找到分配好的无线电频率,制作恶意激活消息,然后将其通过自己的无限电发送,以便启动系统。Bastille 称完成这些步骤所需要的设备仅仅是一台电脑和一台价值 30 美元的手持式收音机。 ATI Systems 的产品遍布北美和全球各地城市,军事设施、大学和工业基地(包括石油和核能)的都是其重要客户。目前 Bastille 仅在旧金山和其他两个地点证实了 SirenJack 漏洞 ,但并不明确还有哪些其他 ATI 系统受到影响。Bastille 敦促所有客户与 ATI Systems 合作,以了解他们的系统是否受到影响,并立即采取补救措施。 SirenJack 的潜在影响是什么? 正常情况下,紧急警报系统仅在合法威胁(通常是天气或与安全有关的威胁)时才启动,而虚假警报引起了公众的广泛关注,导致公众对这些系统降低了信任,特别是在 2017 年达拉斯警报事件之后(全市范围内超过 150 个龙卷风警报系统启动 90 分钟以上)。 Bastille 完整分析报告: 《SirenJack》 消息来源:Security Affairs,编译:榆榆,审核:FOX; 本文由 HackerNews.cc 编译整理,封面来源于网络; 转载请注明“ 转自 HackerNews.cc ” 并附上原文链接。

美国提出新法案 希望建立人工智能国家安全委员会

据外媒报道,众议院武装部队新兴威胁和能力小组委员会主席 Elise  Stefanik 最近提出新法案,希望建立一个人工智能国家安全委员会。如果该法案通过,美国总统特朗普将在 2019 年某个时候收到关于人工智能的完整报告。该法案将制定“ 2018 年国家安全委员会人工智能法”,并要求临时组建一个 11 人委员会,其目的是对政府进行人工智能的全面审查。它要求在颁布后 180 天内制定初步报告。 根据该法案,委员会成员将负责提供以下方面的见解: 确定美国在人工智能和相关技术方面的竞争力 保持美国人工智能和量子计算机技术的领先地位 人工智能的国外发展情况 鼓励私营企业投资人工智能 劳动力教育和奖励计划,以吸引高质量的候选人加入 AI 领域 与人工智能军事化有关的风险 人工智能的道德 建立鼓励开放源码共享数据的“数据标准” 制定与人工智能相关的隐私和安全措施 以及“委员会认为与国家共同防御有关的任何其他事宜”。 该委员会将要求“不超过 1000 万美元”进行审查,并将于 2020 年 10 月 1 日解散。这当然取决于该法案是否会获得众议院和参议院通过,然后通过总统签署成为法律。目前特朗普尚未公开讨论这个新法案。 特朗普此前仅发布过关于机器人的推文,但它与机器学习或人工智能无关。 相比之下,美国前总统奥巴马花了大量时间讨论人工智能。在 2016 年接受《连线》采访时奥巴马曾表示: 我一直在思考人工智能的监管结构问题,在技术早期,应该百花齐放。政府的管理应该更轻松,大力投资研究,并确保在基础研究和应用研究之间的对话。随着技术的出现与成熟,如何将人工智能纳入已有的监管结构中成了一个更为棘手的问题,政府需要参与更多。 稿源:cnBeta,封面源自网络;