标签: AI

半数人工智能开源项目引用存在漏洞的软件包

根据EndorLabs的数据,开源在AI技术堆栈中发挥着越来越重要的作用,但大多数项目(52%)引用了存在已知漏洞的易受攻击的依赖项。 EndorLabs在最新的《软件依赖管理状态报告》声称,在发布仅五个月后,ChatGPT的API就被超过900个npm和PyPI软件包调用,其中70%是全新的软件包。 然而,EndorLabs警告说,任何开源项目,都必须重视和管理与易受攻击的依赖项相关的安全风险。 OstermanResearch首席分析师MichaelSampson表示:“EndorLabs的这份报告证明了风光无限的人工智能技术的安全性并未跟上其发展步伐。” 不幸的是,企业不仅低估了开源依赖项中人工智能API的风险,而且还低估了安全敏感API的风险。 报告称,超过一半(55%)的应用程序在其代码库中调用了安全敏感API,如果包含依赖项,这一比例将上升至95%。 EndorLabs还警告说,ChatGPT等大型语言模型(LLM)技术在对可疑代码片段的恶意软件潜力进行评分方面表现不佳。结果发现,OpenAIGPT3.5的准确率仅为3.4%,而VertexAItext-bison的表现也好不到哪里去,为7.9%。 “这两种模型都会产生大量误报,这需要手动审查工作,并阻止自动通知相应的程序包存储库以触发程序包删除。也就是说,模型似乎确实正在改进,”报告指出。 “这些发现说明,目前将大语言模型用于安全敏感用例的难度很大。大语言模型肯定可以帮助人工审核人员,但即使评估准确率可以提高到95%甚至99%,也不足以实现自主决策。” 报告指出,开发人员可能会花费大量时间修复代码中的漏洞,而这些(依赖项的)漏洞甚至没有在他们的应用程序中使用。 报告声称,71%的典型Java应用程序代码来自开源组件,但应用程序仅使用了这些软件包中的12%的代码。 “未使用的代码中的漏洞很少可被利用;如果能了解整个应用程序中哪些代码是可访问的,企业可以消除或调低高达60%的修复工作的优先级。”报告指出。     转自GoUpSec,原文链接:https://mp.weixin.qq.com/s/bQc8l22_NouJX2-7onZQ0g 封面来源于网络,如有侵权请联系删除

FBI 警告:有人正利用 AI 合成的虚假裸照实施敲诈勒索

FBI近日警告称,恶意行为者制作深度虚假内容来实施性勒索攻击的趋势正在上升。 性勒索是网络勒索形式的其中一种,这些恶意行为者通过公开泄露窃取或胁迫获得的露点图像和视频,来威胁他们的目标,通常是要求这些受害者支付封口费。 在许多性勒索案件中,那些泄露的内容其实并非真实影像,威胁行为者只是假装自己有访问权限,以达到最终勒索赎金的目的。 FBI警告说,性勒索者现在正在收集他们勒索目标的公开图像,比如发布在社交媒体平台上的无害图片和视频。然后将这些图像输入深度伪造内容创建工具,将其转化为人工智能生成的露骨色情内容。 虽然制作的图像或视频都不是真实的,但它们看起来非常真实,威胁行为者只要将这些材料发送给勒索目标的家人,同事等,极可能给受害者带来巨大的个人和声誉伤害。 截至2023年4月,FBI发现性勒索受害者报告使用虚假图像或视频的情况有所增加,而这些图像或视频均是基于他们在社交媒体网站或网页上发布的内容创建的,或者是在视频聊天中捕获的。 根据最近的受害者报告,恶意行为者通常要求: 1.付款(如金钱、礼品卡),并威胁如果未收到资金,将图像或视频分享给家人或社交媒体朋友; 2.受害者发送真实的性主题图片或视频; FBI表示,有一些勒索者会跳过勒索部分,直接将制作好的视频发布到色情网站,在受害者不知情或未经其同意的情况下,将受害者暴露在大量观众面前。 在某些情况下,性勒索者还会利用这些公开上传的内容来增加受害者的压力,要求其支付从网站上删除发布的图像/视频的费用。 FBI报告称,不幸的是这种媒体操纵活动也影响到了未成年人。 如何保护自己 强大的人工智能内容创建工具正在高速迭代,提供便利的同时也为所有互联网用户创造了一个充满敌意的环境,尤其是那些敏感类别的用户。 比如,通过GitHub有多个免费的内容创建工具项目,它可以从目标面部的单个图像创建逼真的视频,不需要额外的训练或数据集。 这些工具中有许多都内置了防止滥用的保护措施,但那些在地下论坛和暗网市场上出售的工具却没有。 暗网上提供的色情创作工具(来源:卡巴斯基) FBI建议父母监控孩子的在线活动,并告诉他们在线分享个人信息的风险。此外,家长最好隔一段时间就在网上搜索一次,以确定他们的孩子在网上的曝光量,并在必要时采取行动删除内容。 在网上发布图片或视频的成年人应该限制在一个小的私人朋友圈内观看,以减少曝光。同时,孩子的脸应该尽量模糊处理。 最后,如果你在色情网站上发现了与你相关的AI虚假合成内容,请向有关部门报告,并联系托管平台,要求删除违规媒体。 英国最近以《在线安全法案》(Online Safety Bill)修正案的形式引入了一项法律,将未经同意分享深度造假的行为正式列为一种犯罪行为。 转自 Freebuf,原文链接:https://www.freebuf.com/news/368730.html 封面来源于网络,如有侵权请联系删除

谷歌 Bard 项目翻车,ChatGPT 或带来新的网络攻击

近期,一款人工智能聊天机器人 ChatGPT 紧抓大众眼球,上线仅仅两个月,日活用户成迅速破亿,受到用户广泛好评。ChatGPT 的成功引得微软、谷歌等科技巨头眼红,纷纷注重资企图再次入局。 2 月 8 日晚间,为蹭一波热度并继续保持和微软的竞争态势,谷歌抢先发布 ChatGPT “孪生兄弟” Bard 。与众人期待得不同,谷歌产品不单没有取得热烈反响,反而因或无亮点和常识性错误拖累了股市,致使美股开盘即暴跌约 8%,市值蒸发1000+亿美元。 谷歌发布 Bard ,惨遭打脸 2 月 8 日的发布会上,谷歌工作人员在介绍 Bard 人工智能聊天机器人时,一直表示这项产品会帮助用户选择最优解,例如旅游路线规划,油车和电动汽车的优缺点。虽然鼓吹了许多 Bard 的性能,但在 DEMO 演示环节,犯了一个致命的常识性错误。 官方演示视频中,在回复关于詹姆斯·韦伯太空望远镜(JWST)可以告诉 9 岁的孩子其有哪些新发现时,答案显示“ JWST 拍摄了太阳系以外行星的第一批照片”,这是一个错误答案。事实上,第一张系外行星照片由智利的甚大望远镜系统(Very Large Array, VLA)拍摄,而非詹姆斯韦伯拍摄。 不仅仅是错误答案的问题, Bard 貌似也仅仅停留在公测阶段,正式版本何时发布,谷歌方面并未透露更多信息 。 注:两年前,谷歌曾发布 LaMDA (对话应用语言模型)这项成果直接引爆当年科技圈,更是在一位谷歌工程师表示相信其已经具有自我意识后,引起全球热议。 ChatGPT 或引起新一波网络攻击方向 对于 ChatGPT 持续火爆,网络安全研究人员并不乐观,从 HELP NET SECURITY 针对北美、英国和澳大利亚 1500 名 IT 领导者的调查结果来看,51% 的 IT 专业人士预测一年之内,社会将遭受利用 ChatGPT 发起的网络攻击,71% 的受访者认为部分人员可能已经在使用该技术对其它国家进行网络恶意攻击。 此外,尽管所有受访者都认为 ChatGPT 的成功为社会发展带来的积极影响,但仍有 74% 的人担忧其带来的潜在网络安全威胁。 值得注意的是,不同地区的人士对于 ChatGPT 将带来何种形式的网络威胁,可能存在不同看法,但大都认为 ChatGPT 能够帮助黑客更方便的开展网络攻击活动,其中大部分人员认为 ChatGPT 可帮助黑客大幅提高网络攻击方面的技术知识。     转自 Freebuf,原文链接:https://www.freebuf.com/articles/357088.html 封面来源于网络,如有侵权请联系删除

网络安全研究人员用 AI 生成假文件 打造更具迷惑性的“金丝雀陷阱”

一个新的人工智能系统会生成假文件来欺骗对手。在第二次世界大战期间,英国情报人员在一具尸体上植入假文件,以愚弄纳粹德国,使其准备进攻希腊。这一名为”碎肉”的行动获得了成功,并成功掩护盟军对西西里岛的实际入侵。 间谍活动中的 “金丝雀陷阱”技术传播了多个版本的假文件以掩盖秘密,它可以用来嗅出信息的泄露源,或者像二战中那样,制造分散注意力以误导敌方的情形,同时隐藏有价值的信息。 WE-FORGE是计算机科学系设计的一个新的数据保护系统,主要使用人工智能来建立金丝雀陷阱的概念。该系统自动创建虚假文件混淆目标,以保护知识产权,如药物设计和军事技术。 网络安全、技术和社会特聘教授、安全、技术和社会研究所所长V.S. Subrahmanian说:”该系统产生的文件与原始文件足够相似,因此对于目标来说是可信的,但又有足够的不同,因此本身又是错误的。” 网络安全专家已经使用金丝雀陷阱或“蜜罐”和外语翻译器来制造欺骗潜在攻击者的假象。WE-FORGE通过使用自然语言处理来自动生成多个既可信又不正确的假文件,从而改进了这些技术。该系统还插入了随机性元素,使对手无法轻易识别真实文件。WE-FORGE可用于创建任何技术设计文件的众多假版本。当对手入侵一个系统时,他们面临着一项艰巨的任务,即找出许多类似文件中的哪一个是真的。 “使用这种技术,我们迫使对手浪费时间和精力来识别正确的文件。即使他们这样做了,他们也可能没有信心他们是正确的,”Subrahmanian说。 创建假的技术文件的难度也不小。据该研究小组称,一项专利可以包括1000多个概念,有多达20种可能的替代物。WE-FORGE最终可能会考虑数百万种可能的概念,而这些概念可能需要在一份技术文件中被替换。 “恶意行为者现在正在窃取知识产权,并时常能够轻松逃脱,”Subrahmanian说。”这个系统提高了窃贼在窃取政府或行业机密时的成本”。 WE-FORGE算法的工作原理是计算文件中概念之间的相似性,然后分析每个词与文件的相关程度。然后,该系统将概念分为”仓”,并计算出每组的可行候选。”WE-FORGE也可以接受原始文件作者的输入,人类和机器的聪明才智的结合可以更多的增加知识产权窃贼的成本。” 作为研究的一部分,该团队伪造了一系列计算机科学和化学专利,并要求一个知识渊博的小组来决定哪些文件是真的。 根据发表在《ACM管理信息系统论文集》上的研究,WE-FORGE系统能够 “为每个任务持续生成高度可信的假文件”。 与其他工具不同,WE-FORGE擅长伪造技术信息,而不仅仅是隐瞒简单的信息,如密码。WE-FORGE改进了该系统的早期版本–即FORGE,消除了创建与特定技术相关的概念指南这一耗时的需要。WE-FORGE还确保了假文件之间有更大的多样性,并采用了改进的技术来选择要替换的概念和它们的替代物。   (消息及封面来源:cnBeta)

微软宣布新举措提升公众网络安全意识 强调 AI 与多元化的重要性

美国每年10月都会举办 “国家网络安全意识月”活动。该活动最早是由国土安全部和国家网络安全联盟在2004年发起的,目的是围绕网络安全和保障建立更多的意识。随着2020年10月的到来,微软也宣布了自己的计划,以促进网络安全的重要性。 在微软安全、合规和身份认证部CVP Vasu Jakkal撰写的一篇博客文章中,这位高管曾表示,由于COVID-19流行病迫使人们在家中的场所进行大部分日常活动,现在对网络安全的需求越来越大。 为此,微软将与Terranova合作,在10月份启动 “Gone Phishing Tournament”,双方将利用诈骗者的真实邮件样本为企业提供数据驱动的见解,以便他们加强各自的网络安全计划。该公司还将围绕网络安全这一主题发表5篇文章,用36种语言进行本地化,涵盖广泛的主题和受众。 微软商店将举办网络安全意识的虚拟研讨会。”与Microsoft 365一起更安全、更智能地工作”和 “与Microsoft Teams一起更好地工作 “研讨会也将分别强调Microsoft 365 Business和Microsoft Teams中存在的在线安全功能。 微软还将更加重视网络安全团队的多元化招聘。Jakkal表示,建立多元化的网络团队是他的主张。这不仅仅是正确的事情,它也带来了作为一个公司的战略优势,有利于对全球威胁行为者的防御。 AI仍然是对抗网络威胁的最佳工具之一。但有效的、负责任的人工智能需要不同群体的投入和想法。这种思想的多样性不仅仅是性别或种族的多样性。当然,这两者都有,但还不止这些。有效的人工智能需要经验、文化、观点、教育、观点和其他许多因素的多样性。在一个团队中,如果每个人都有相似的技能和背景,成员们就有可能陷入群体思维,失去创造力。 确保团队的多样性有助于创建值得人们信任的人工智能系统,同时更接近于未来防止技术中的偏见。微软已经建立了合作伙伴关系,创建了倡议,并建立了透明度,作为我们解决导致女性在网络安全领域代表性低的系统性问题的整体方法的一部分。 你可以通过访问其专门的网络安全网站了解更多关于该公司的努力。     (稿源:cnBeta,封面源自网络。)

AI 关键基础设施正面临三重风险 人脸识别有漏洞

360公司表示,AI关键基础设施正面临三重风险,包括某些人脸识别设备能让任意人通过,不仅AI算法存在漏洞,其所依赖的关键基础设施也同样会被攻击。 360 AI安全研究院表示,目前AI的三重风险包括:学习框架风险、硬件风险及云平台风险。 第一,针对深度学习框架安全风险。深度学习框架主要可以划分为云端学习框架和终端学习框架。云端框架安全风险主要来自于自身代码的实现以及第三方的依赖库问题;终端框架安全风险主要存在于模型网络参数、模型网络结构,以及模型转换过程。 第二,针对硬件相关的安全风险。据英伟达官网统计,截至今年7月,关于GPU驱动漏洞的数目达到数百个;芯片漏洞以幽灵、熔断为例,幽灵漏洞可以造成泄露敏感数据、执行特定代码,熔断漏洞导致用户态获取特权内存的数据,这些漏洞影响了Intel、部分ARM的处理器。 第三,针对云平台的安全风险。用于深度学习任务的节点性能强大,因此总会有一些攻击者想要非法使用这些资源进行挖矿。比如,今年6月,微软通报部分Kubeflow存在未授权访问的问题,导致大量设备被非法挖矿。 “只有在确保AI系统的安全,才有可能放心享受AI的便利,那么保证系统中AI关键基础设施的安全至关重要”,360 AI安全研究院表示,AI关键基础设施的安全问题可以通过权限控制、访问隔离、参数过滤等措施进行缓解,针对AI关键基础设施的安全问题,需要建立多维度、一体化风险评估方法以及对应防御措施。(大鹏)     (稿源:新浪科技,封面来自网络)

诈骗者利用深度伪造模仿 CEO 声音 借此骗走 24.3 万美元转账

据外媒报道,现在已经很难区分出来利用深度伪造技术制作的假文本、假视频。现在,这种情况似乎又延伸到了假语音。获悉,近期发生的一起语音欺诈案件–又称vishing(voice phishing语音钓鱼简称)让一家公司损失了24.3万美元。 据了解,今年3月,犯罪分子利用商业可用的语音生成AI软件模仿了一位来自拥有一家英国能源公司的德国母公司的老板。然后他们骗这家能源公司的首席执行官让他在一个小时内将资金汇给一家匈牙利供应商,另外还保证这笔资金会立即得到报销。 报道称,当这位CEO听到熟悉的、带有轻微德国口音的声音之后并没有对此产生怀疑。 然而事实上,这笔汇款不仅没有得到报销而且骗子们还继续冒充这位德国老板要求另一笔紧急汇款。不过这次,这位英国CEO拒绝付款了。 获悉,这位英国CEO转给所谓的匈牙利供应商的这笔钱最终被转移到了墨西哥及其他地方。当局目前并未确定此次网络犯罪背后的罪犯身份。 不难看出,这种基于AI的网络攻击仅仅是企业和组织在未来可能面临的主要难题的开始。随着模仿声音工具技术的不断改进,犯罪分子利用这些工具牟利的可能性也会不断增加。 根据设计反欺诈语音软件的网络安全公司Pindrop在去年发布的报告显示,从2013年到2017年,语音欺诈案件增加了350%,其中每638个电话中就有1个是人工合成的。 由此可见,基于AI的工具的兴起既有优点也有缺点。一方面,它为技术的探索和创造提供了空间,而另一方面,它为犯罪、欺骗以及欺诈提供了可能性。   (稿源:cnBeta,封面源自网络。)

百度推出 EZDL 没有编程经验也可训练AI

据美国科技博客 VentureBeat 报道,如果没有技术知识和正确的工具,训练机器学习算法是一项艰难的工作。本周,针对那些没有足够财力或精力学习专业知识的人,百度发布了一个名为 EZDL 的在线工具,使得任何人不用编写一行代码就可以轻松地构建、设计和部署人工智能(AI)模型。 百度 AI 技术生态部总经理喻友平表示,百度的 EZDL 在构建时以性能、易用性和安全性为基础,主要针对三大类机器学习:图像分类、物体检测和声音分类。它的目标受众是中小型企业,旨在“打破障碍”,使得每个人都能“以最方便、最公平的方式”使用人工智能。 为了训练模型,EZDL 需要为每个模型分配 20-100 个图像或超过 50 个音频文件,并且需要训练 15 分钟到一个小时。(百度声称,超过三分之二的模型准确率超过 90%。)生成的算法可以部署在云中,通过 API 访问,或者以支持 iOS、Android 和其他操作系统的软件开发工具包的形式下载。 喻友平称,家居装饰网站“家图网”使用 EZDL 训练模型,来自动识别房间的设计风格,准确度达到 90%。此外一家未透露名称的医疗机构利用 EZDL 建立了一个用于识别血液检测显微镜图像的模型,还有一家安全监控公司使用 EZDL 设计了声音检测模型,可以识别“异常”的音频模式,用来判断是否发生了入室盗窃。 喻友平表示:“作为人工智能领域的全球领导者之一,百度践行了通过技术让复杂世界变得更简单的使命。百度将继续领导和促进人工智能的发展和应用。我们通过公司的全球业务部门,致力于与全球社区共享百度的核心技术、能力和资源……我们很高兴看到来自全球的 AI 创新应用,我们希望通过开放平台来普及人工智能的应用,我们将帮助世界各地的开发者和企业取得更大的成功。” 在推出百度大脑之后的两年时间里,百度明确了自己在人工智能领域的雄心壮志。它表示,目前已有超过 600,000 名开发人员正在使用 Brain 3.0(百度大脑于 2018 年 7 月发布的最新版本),用于 20 个行业的 110 个 AI 服务项目。 同样在今年 7 月份,百度揭开了神秘昆仑芯片的面纱,这是一款百度自行研发专为进行设备边缘计算和数据中心处理模型而设计的 AI 芯片。百度声称该芯片能够实现260TOPS和512 GB /秒内存带宽。(谷歌的Tensor Processing Unit最高可达100 petaflops) 今年 8 月,百度公司宣布,其对话人工智能助手 DuerOS 已经达到了 1 亿台设备的安装量,比 6 个月前增加了 5000 万部。迄今为止,已有 200 多家合作企业推出了 110 款支持 DuerOS 驱动的设备,DuerOS 也汇集了超过 16000 名开发者。 喻友平称:“我们寻求为人工智能创建一个真正的生态系统,实现人工智能技术的民主化。技术没有国界。”     稿源:网易科技,封面源自网络;

利用 AI 技术,黑客能用麦克风听出你在屏幕上看什么

网易科技讯 8月25日消息,据《连线》网站报道,你可能认为只有通过观看电脑屏幕才能看到屏幕上的东西。但一个研究团队发现,他们能够通过监听和分析显示器正常发出的超声波,收集到惊人数量的信息,比如显示器上面输入的内容。 这项技术于周二在圣巴巴拉举行的Crypto 2018年大会上进行了演示。它可以让攻击者通过分析在屏幕附近录到的录音——比如来自网络电话或者视频聊天的录音——来发起各种形式的秘密监视。之后,攻击者可以根据泄露的声音提取有关显示器上的内容的信息。虽然距离越远信号越弱,特别是使用低质量的麦克风的时候,但研究人员仍然可以从在30英尺远的地方取得的录音提取显示器发出的声音。 特拉维夫大学和哥伦比亚大学的密码学和系统安全研究员伊兰·特罗默(Eran Tromer)参与了这项研究,他说道,“我想,我们可以从中学习该如何去适应我们的物理环境中的意外情况,以及理解我们使用的这些设备背后的物理机制。”声泄漏是“一种现象,在这个例子中这不是设计师有意而为的,但它确实存在,因此形成了安全漏洞。” 被攻击是有可能的,原因是所谓的“物理侧信道”——数据暴露不是来自软件错误,而是来自于泄露计算机硬件和它处理的数据之间的信息的无意交互。在对显示器的研究过程中,研究团队——还包括密歇根大学的丹尼尔·吉恩金(Daniel Genkin),宾夕法尼亚大学的米希尔·帕塔尼(Mihir Pattani),特拉维夫大学和康奈尔科技学院的罗埃·舒斯特尔(Roei Schuster)——发现,在他们调节电流的时候,很多屏幕的电源板发出高音或者听不见的吱吱声。这种吱吱声是根据屏幕的内容渲染处理器的不同功率需求而改变的。用户数据和物理系统之间的这种连接带来了意想不到的监听机会。 “有一天,我碰巧在浏览一份特别枯燥乏味的法律协议,上面有很多行小字体。”特罗默说道,“那些字实在太小了,于是我将其放大,然后我意识到房间里的环境噪音发生了变化。于是我将字体缩小回来,声音也随之变回来了。过了一会,我意识到是某种图像周期性的东西在影响声音的周期性。” 研究人员测试了几十台不同尺寸的液晶显示器,从中发现它们发出各种各样的声音。他们测试的显示器在2003年至2017年之间出产,涵盖了几乎所有的主流制造商。 所有的电子产品都会发出呼呼声和吱吱声,但显示器会产生一种特定的被证明对攻击者特别有用的声音。“这种声音的特点是频率很高,因此它可以承载多得多的信息。”舒斯特尔指出,“它确实是受到了某种敏感的东西的调节,在这里就是屏幕信息。” 在证实了那些超声波以后,研究人员接着试图基于它们来提取信息。他们开发了一个程序,生成不同的黑白相间的线条或组块,然后在循环显示它们时录制音频。有了一定的数据基础以后,他们就开始在显示器上展示热门网站、谷歌Hangouts和人脸,同时进行测量,看看是否能够透过录音将它们区分开来。 屏幕上显示斑马条纹图案时的屏幕信号频谱图 研究团队将所有的这些信息作为训练数据输入到机器学习算法当中,并开始根据录音中捕捉到的听不见的声音,对屏幕上的内容进行越来越精确的解读。对于一些斑马图案和网站,研究人员有90%至100%的成功率。他们甚至开始注意到,他们的系统有时可以从他们的机器学习模型从未遇到过的屏幕录音中提取有意义的数据。 “即使攻击者不能在特定的显示器型号上进行演练,他们的攻击也还是很有可能会成功。”舒斯特尔称。 随后,研究团队扩大了研究范围,训练该系统破译屏幕上的字母和单词。虽然这是一个更具挑战性的任务——单词不像网站布局那样遵循可靠的视觉模式——但研究人员可以在大字体的单词上产生靠谱的结果。正如吉恩金所指出的,白色屏幕上的黑字在很多方面与斑马纹相似,虽然单词组合有无数种,但系统只需要学习罗马字母表中的26个字母。 研究人员甚至意识到,他们可以检测出人们在智能手机屏幕键盘上输入了些什么,有一定的准确性。通常情况下,数字键盘被认为比机械键盘更加安全,因为机械键盘在用户进行输入时会发出声音,造成输入内容的泄露。研究证明,数字键盘也不能幸免于这些声音侧信道的攻击。 虽然研究人员在一些实验中使用了高质量的专业麦克风,但他们主要是研究消费级的麦克风,比如网络摄像头和智能手机上的麦克风。他们发现,它们完全可以被利用来提取屏幕发出的声音。例如,如果攻击者想监视与她视频聊天的人的屏幕,她只需录下来自他们的麦克风的声音输出即可。 在另一个场景下,比如面试时,攻击者可以把智能手机放在他们旁边的桌子或椅子上,在面试官盯着背对攻击者的屏幕时,利用手机来录下房间里的噪声。研究人员还注意到,智能助手设备中的麦克风可以接收到显示器的声音。因此,如果你把这些设备放在你的显示器附近,智能助手发送到云处理平台的音频片段很可能就来自该显示器。由于来自显示器发出的声音主要是超声波,像喧闹的音乐或者说话这样的听得见的声音不会干扰到麦克风的接收能力。 研究人员说,这凸显了减轻这些攻击的巨大挑战。在大多数的空间全面部署无线电频率来干扰屏幕发出的声音,是不切实际的。制造商可以在显示器内部更好地保护电子元件,但这会增加制造成本。另一种解决方案是,开发专门的反制软件,操控显示器正在处理的信息,使其更难识别。但你需要将这些措施嵌入到每一个应用程序当中,研究人员坦言这可能不现实。不过,至少在浏览器或人们经常使用的视频聊天程序上面,值得考虑那么做。 对于黑客来说,使用这种的声屏障攻击显然比网络钓鱼或用恶意软件感染电脑要复杂得多,也需要耗费更多的精力。但研究人员表示,他们对自己能达到的精确度感到惊讶,而有动机的攻击者可能会进一步完善他们的机器学习技术。鉴于如今有如此之多的屏幕在无意间泄露这些信号,对于技术娴熟且有足够动力去尝试的攻击者来说,这个世界就像是一个游乐场。   稿源:网易科技,封面源自网络;

AI 公司面临隐私问题 不少仍坚持原则拒绝商业机会

TechWeb报道,7月8日消息,据国外媒体报道,当一家由美国中央情报局支持的风险投资基金表示对拉纳·埃尔·卡利乌比(Rana el Kaliouby)的面部扫描技术感兴趣时,这位计算机科学家和她的同事进行了一些反思——然后拒绝了这笔投资。 卡利乌比是波士顿初创公司Affectiva的联合创始人兼首席执行官,该公司已经对其人工智能系统进行了培训,创建了一个包含600多万张面孔的摄影库,可识别出一个人的情绪,是高兴还是悲伤、疲倦还是愤怒。 她说:“我们公司对你们监视别人的事情不感兴趣。” 由人工智能驱动的计算机视觉技术不断更新,不仅加速了自动驾驶汽车的竞争,并为Facebook和谷歌上越来越复杂的照片标注功能提供了动力。但是,随着这些能够窥探人们的“人工智能之眼”被安装在商店的收银台、警察的随身相机,以及在战场上找到了新的用武之地,科技公司正在努力平衡商业机会和道德决策,而这些决策可能会导致他们失去客户或是员工失去工作。 卡利乌比说,“不难想象,利用实时的人脸识别技术可识别撒谎行为——或者,在一个专制政权的手中,监控人们对政治言论的反应,以根除不同意见。”但是,这家从麻省理工学院一个研究实验室中走出来的小公司,已经为自己做出限制。 卡利乌比说,该公司已经避开检测“任何安保、机场,甚至是谎言检测的事项”。相反,Affectiva与汽车制造商合作,试图帮助那些外表看上去疲惫的司机保持清醒,并与消费者品牌合作,商家希望了解人们对某款产品的反应是喜欢还是厌恶。 这种不安反映出,人们对这个时刻都在监视的人工智能全视系统的能力和可能存在的弊端感到不按——就连当局也越来越渴望能使用它们。 上个月,在马里兰州安纳波利斯的一家报纸报道一起致命枪击事件后,警方说,他们在确认这名不愿合作的嫌疑人后,立即开始了面部识别。他们这样做的目的是利用一个国家数据库,其中包括过去被捕者的照片。更有争议的是,这其中还包括每个注册了马里兰州驾照的人。 向执法部门提供的初步信息显示,警方之所以利用面部识别技术,是因为嫌疑人显然是为了逃避被确定而损坏了指纹。后来那份报告被证明是错误的,警方说他们使用面部识别是因为指纹识别结果受到延迟。 今年6月,位于佛罗里达州的奥兰多国际机场宣布,计划在今年年底前,对所有进出国际航班的乘客进行面部识别扫描。美国其他几个机场已经在对一些国际航班进行扫描,但不是全部。 中国公司已经在使用智能相机来实时地记录那些乱穿马路的人。亚马逊在西雅图的新开的无收银员商店中配备了头顶摄像头和传感器,目的是通过追踪购物者拿起和放回的每一件商品,解决了店内行窃行为。 即使是最大的科技公司,对这项技术的担忧也受到了动摇。例如,谷歌最近表示,在员工抗议谷歌的人工智能技术应用到军事应用后,该公司将退出一份防御合同。这项工作涉及对来自伊拉克和其他冲突地区的无人机视频进行计算机分析。 类似对政府合同的担忧也激起了亚马逊和微软内部的不和。谷歌此后发布了人工智能指南,强调使用“对社会有益”和避免“不公平偏见”。 然而,到目前为止,亚马逊已经顶住了来自员工和隐私倡导人士日益增长的压力,他们要求其停止向警察部门和其他政府机构出售的公司强大人脸识别工具Rekognition。 自本世纪初计算机视觉技术出现突破以来,商业和政府对这项技术的兴趣迅速增长,人们使用类似大脑的“神经网络”来识别图像中的物体。2012年,在YouTube视频中训练电脑识别猫还是一项早期的挑战。现在,谷歌有款APP不仅能识别猫,还能告诉你这猫是哪个品种。 今年6月,在盐湖城举行了一场计算机视觉和模式识别领域的重要学术会议。多伦多约克大学的计算机科学家、会议的组织者迈克尔·布朗说,这原本是一个充满“书呆子”令人昏昏欲睡的学术会议,现在成为淘金热的商业世博会,吸引了很多大公司和政府机构。 布朗说,研究人员当场被给予高薪工作。但在提交给会议的数千份技术文件中,很少有涉及公众对隐私、偏见或其他道德困境的广泛担忧。他说:“对于这个原本应当重视的问题,我们可能不会进行过多的讨论。” 创业公司正在开辟自己的道路。迈阿密面部识别软件公司Kairos的首席执行官布赖恩·布雷斯基恩(Brian Brackeen)制定了一项全面政策,禁止向执法部门或政府监控部门出售该技术。他在最近的一篇文章中辩称,该技术“为道德败坏者的严重不当行为打开了大门”。 相比之下,总部位于波士顿的创业公司Neurala正在为摩托罗拉开发软件,用于警察佩戴的随身相机,它可以根据人们的穿着和长相在人群中确定一个人。首席执行官马克斯·范思哲(Max Versace)表示,“人工智能是社会的一面镜子”,因此该公司只选择有原则的合作伙伴。 他说,“我们不是那种极权主义、奥威尔式的阴谋的一员。”   稿源:TechWeb,封面源自网络;