从2012年算起,人工智能的再次爆发已经进入了第九个年头,人们对“人工智能是什么”也从最初的懵懂、憧憬、恐惧,逐渐走向深度的认识。在2018年人们还在讨论人工智能什么时候会再次进入寒冬,但到了2019年人们对“寒冬”之说已经不再感冒,而是普遍在追寻“如何让人工智能可理解”或者“AI所引发的隐私、安全、伦理问题”。 2020年,人工智能依旧在蓬勃发展,并在各行各业产生了深刻的影响。2020年还剩下10个月的时间,让我们去预期,人工智能会有哪些重要的趋势呢? CB insights曾就此问题做了一个判断,并给出人工智能的九个重要研究和应用趋势。AI 科技评论在一定程度上认同这些判断,针对这 9 个趋势,我们将做以下分析。 一、Deepfake将改变商业模式 CB insights认为商业性质的Deepfake可能会兴起,死去的名人将会“复活”,零售业以及营销的方式也会得到改变。 前些日子,Deepfake技术现身印度选举,被候选人用于竞选拉票的宣传材料。虽然此候选人最终以惨败收场,但这意味着Deepfake点燃的AI换脸之火有逐渐升温的迹象。 虽然此技术出现在政治视频以及色情视频中会带来负面的影响,但是对于媒体、电影公司来说却是千载难逢的机会。例如好莱坞的一些电影公司正在想方设法“数字复活”五十年代中的电影人物。 (雷锋网) 在商业层面,Deepfake将会变的更加个性化,提升电子商务体验和虚拟在线试用;广告投放也会朝着超定向方向发展,例如按照需求合成视频,并配备相应的方言;创意流程也会变得自动化,例如“补拍”电影续集。 从技术层面上讲,Deepfake技术也在突飞猛进。就在近期,北京大学联合微软研究院分别提出了FaceShifter和Face X-Ray,前者是一种高保真度、可识别遮挡的换脸工具,后者则是能够检测伪造人脸图像的工具。 其中经过训练的FaceShifter可以无需任何手动注释,以自我监督的方式恢复异常区域,自适应地集成身份和人脸合成属性。 而Face X-Ray不光能判断是否是合成图片,还能指出哪个地方是合成的,即兼备识别+解释两种功能。 这两个技术号称 AI换脸界的“利矛”和“坚盾”,在业界取得了领先的结果,另外值得注意的是其所需的数据比以前的方法少得多。 所以在Deepfake问题上,2020 年的发展趋势主要包括: 1)Deepfake在一攻一防的斗争中逐渐进步,小数据、无监督的训练方法将成为模型的主流,传统耗时耗力的计算机生成图像技术也将逐渐被取而代之。 2)Deepfake将改变商业模式,广告营销将会变得更加个性化,电影创作不再局限于真实拍摄。 二、黑客的革命:利用 AI 来攻击 AI 传统黑客主要是通过发现系统漏洞从而进行系统侵入。但进入人工智能时代后,黑客、白客之间的攻防战争也发生巨大的变化。 随着人工智能的崛起,AI渐渐被用于自动检测和打击恶意软件,可以学习发现可疑行为,并在可能影响任何系统之前阻止网络攻击,同时使得人类避免一些不必要的工作量。 但是攻击一方也可以使用相同的技术来增强他们的攻击方法,特别是犯罪分子将之武器化,这些恶意软件甚至可以逃避最好的网络安全防御并感染计算机网络,甚至可以仅在摄像机检测到目标的人脸时发动攻击。 这意味着在2020年,未来的黑客可能在两个方面发力: 1、欺骗规模上升到系统级别; 2、利用AI发起更为复杂的攻击。 例如在2019年,Skylight Cyber的研究人员找到了一种方法可以发现AI模型中的固有偏见,利用这种偏见可以创建出“后门”,使得恶意软甲绕过 AI 防火墙,骗过杀毒软件。 这也就是说,如果能够理解AI模型的工作原理,基于其特定功能设计攻击武器,就能够愚弄系统。 随着Skylight Cyber这种AI公司越来越多,消费者和企业保护的级别固然会上升,但是针对AI特有弱点的新一批黑客和软件也会随着出现。 (雷锋网) 另一方面,黑客也可能会从数据的角度来愚弄AI,即破坏AI算法的训练数据,使得AI产生偏见,影响其对网络中正常行为和恶意行为的区分。 利用语音合成的犯罪案件 当网络安全研究员越来越多的使用AI防御攻击时,AI本身也会被用来制造更加复杂,更有针对性的网络攻击。例如Deepfake生成的语音和合成的语音越来越逼真。 在欧洲,已经发生了一些黑客利用AI模仿公司CEO给员工打电话然后让其转账的案件。 虽然在现实世界中利用AI来攻击的犯罪案件尚未有报道,但是早在2018年,IBM就开发了一种名为Deeplocker的深度学习驱动的恶意软件,可以绕过网络安全保护来进行攻击。 该软件被描述为“一种由AI驱动的具有高度针对性和规避性攻击工具的新型恶意软件”,目的是了解现有的AI模型是如何与恶意软件技术相结合,从而创造出一种新的攻击类型。 此技术将黑盒AI的传统弱点变成了一种优势,在目标物未出现之前,可以隐藏在普通的应用软件中,感染掉上百万的系统也不会被察觉。 这个 AI 模型只有在识别出特定的标准时,才会“解锁”并开始攻击。 当然,除了AI型的黑客,使用量子计算资源的量子黑客、利用大数据进行分析的大数据黑客等也将逐渐浮出水面。 所以在技术层面,2020 年黑客发展趋势主要包括: 1)AI本身也会被用来制造更加复杂,更有针对性的网络攻击。 2)由于AI的黑盒性质,网络攻击将会变得更加隐蔽和猛烈。 三、AI 技术日益普及化和平民化,AutoML将大显身手 AutoML 作为一套自动化设计和训练神经网络的工具,能够降低企业的进入门槛,使得技术更加“平民化”。 从数千个特定任务中设计或搜索正确的神经网络框架整个过程非常耗时,尤其是在为更加复杂的场景(例如自动驾驶,需要兼具速度和准确率)设计AI 架构时,就更非易事。 对此,神经架构搜索(NAS)应运而生,可自动化为给定任务找到最佳 AI 设计的过程。2017年,谷歌正式将其命名为“AutoML”。谷歌在当时便指出,AutoML 将启发新型神经网络的诞生,并且还能够让非专家也能够根据他们的特殊需求创建相应的神经网络。 自此之后,AutoML 的应用越发广泛,在数据准备、训练、模型搜索、特征工程等 AI 设计中都发挥着巨大的作用,极大地推动了 AI 技术的普及化。 总体而言,AutoML 主要具备两个主要优势: 1)可缓解人才短缺问题:目前 AI 专家还是处于非常短缺的状态,而AutoML 则会极大地降低非专家以及企业的技术使用门槛,从而推动 AI 技术的普及和推广。 2)可节省成本和降低复杂性:即便对于专家而言,设计神经网络都是一个费时费力的过程。AutoML 在降低计算和试错成本的同时,开发的解决方案也更胜一筹。 随着 AI 技术越发普及化和平民化,AutoML将继续大显身手。 而在未来的研究方向上,主要可以从算法方向和理论方向着手: 1)在AutoML算法上,未来的工作如果能在效率提升、泛化性、全流程的优化、面对开放世界、安全性和可解释性这 5 个方向上取得突破,将会有较大的价值。 2)在AutoML理论研究上,目前相关的研究还较少,对自动机器学习的泛化能力及适用性也不是很清楚。因而,一方面要回答目前自动机器学习算法的适用性和泛化能力,另一方面也要回答哪些问题类存在通用的机器学习算法上和更广泛问题空间上的自动机器学习算法的可行性。 四、联邦学习将带来新的数据共享范式 联邦学习的概念最初是由Blaise等人于2017年在Google AI Blog上发表的一篇博文中首次提出。 自提出至今,相关研究甚嚣尘上。 联邦学习之所以能够在如此短的时间里迅速由一个构想变为一门学科,主要原因在于联邦学习技术作为一种学习范式,能够在确保用户数据隐私的同时解决“数据孤岛”问题。 (雷锋网) 无需数据收集,即可改进AI模型 相对于传统的AI模型,联邦学习更像针对当前人工智能发展所面临的困境的新范式,例如: 1、在联邦学习的框架下,各参与者地位对等,能够实现公平合作; 2、数据保留在本地,避免数据泄露,满足用户隐私保护和数据安全的需求; 3、能够保证参与各方在保持独立性的情况下,进行信息与模型参数的加密交换,并同时获得成长; 4、建模效果与传统深度学习算法建模效果相差不大; 5、联邦学习是一个闭环的学习机制,模型效果取决于数据提供方的贡献。 以上优点显然给解决数据隐私和安全问题提供了一种新的路径,而在具体应用层面,英伟达的医疗硬件和软件框架Clara已经能够支持联邦学习,当前已经有美国放射学院、MGH、BWH临床数据科学中心以及UCLA Health 在平台上训练相关算法。 所以,在技术上,确实可以保证合法的进行联邦学习,并且是有效果的。因此联邦学习像一个操作系统,它的特点是多方合作,只有多方都认可才能发挥其威力。 所以接下来,联邦学习在2020年会继续成为一种火热的研究趋势: 1)不仅在医疗领域,金融领域,工业界也会加大力度布局联邦学习,接下来跨领域合作、跨国合作将成为常态。 2)数据隐私问题、小数据问题得到缓解,跨设备模型训练成为解决方案。 五、机器学习加码智慧城市构建 智慧城市最重要的是利用各种信息技术或创新概念,将城市的系统和服务打通、集成,以提升资源运用的效率。 从技术发展的视角,智慧城市建设要求通过以「移动技术」为代表的物联网、云计算等新一代信息技术应用实现全面感知、泛在互联、普适计算与融合应用。 而 IoT 和机器学习的兴起显然为其提供了支持,例如使用机器学习来为通勤行为建模,并关注影响通勤方式选择的因素等;使用机器学习分析传感器数据减少温室气体排放和更智能的资源管理。 当然智慧城市涉及领域之广,绝不是一家企业能够掌握,即使是万亿美元的 Al 巨头Alphabet也只有通过联手政府,才能在众多城市创造新的街区,规划房地产、公共能源设施、交通等布局。 例如,去年第二季度,Alphabet 旗下子公司 Sidewalk Labs 发布了一份 1500 页的方案,其中详述了如何通过与政府和其他企业的合作,以 13 亿美元在多伦多打造一个智慧城市的项目。 项目的重点和亮点就集中在 AI 在政府和城市规划的应用上。 总而言之,在2020年,智发展慧的城市发展会在协作和技术两方面开花: 1)在合作层面必须得到政府青睐,政府的加入将弱化企业不成比例的前期创新成本 2)在技术层面必须优化端到端的解决方案,拥有机器学习的城市开发工具、自动驾驶汽车技术以及建筑能源管理的AI企业将会极具竞争力。 六、用AI 技术应对 AI 训练的巨大消耗 计算密集型的 AI 技术,不仅需要更加智能和可持续化的解决方案,还应该有助于应对全球日益上升的能源需求。 AI 领域的进展往往都是自上而下的,比如说由科技巨头开发出某些 AI 工具,然后开源给其他人,造成这一现象的原因之一便是 AI 研究的计算密集性。 据统计表明,谷歌在2018 年的BigGAN实验中用来创建狗、蝴蝶和汉堡的超现实图像所消耗的电量“相当于每个美国家庭在近6个月的时间里所用的总电量”。如此的耗电量着实令人震惊! 随着AI 能源消耗的持续走高趋势,节约能源将会是 AI 在 2020 年乃至未来的重要研究课题。用 AI 技术节约能源主要可从以下三个方面着手: 1)硬件公司将会聚焦于为机器学习研究提供“超低功耗”的设备,与此同时能源效用会成为边缘计算的主要考量点。 2)将 AI 应用于公用事业规模的能源生产:更多的云计算巨头将转向使用可持续发展的能源,并利用 AI 技术来增加可再生能源产出以及精简数据中心的运营。 3)精简发电和油气等业务:人工智能能够预测可再生能源产出、自动化电网管理、帮助油井精确钻探,以及为智能家居和商业建筑提供可持续能源管理解决方案。 七 、解决小数据问题势在必行 如果没有足够的数据来训练“数据饥渴”的深度学习算法,有两种解决方法:生成合成数据,或者开发能从小数据中学习的AI 模型。 生成合成数据的方法在自动驾驶领域应用得比较多,即在模拟环境中合成暴风雪、异常行人行为等现实世界中难以获得的图像数据。 开发能从小数据中学习的AI 模型方法,具体方法如常用于计算机视觉任务的迁移学习,即先在拥有大量标准数据的任务上训练 AI 算法,再将算法学到的知识迁移到另一个数据很少的任务上。 虽然迁移学习在计算机视觉任务上起到了很大的作用,但是在NLP 任务上,由于普遍缺乏标注数据,该方法目前还无法起到很好的效果。 而另一种方法——自监督预训练,则能较好地应对NLP 领域的特殊性。 谷歌的 BERT 就是自监督预训练一个很好的案例,让 AI 语言模型不仅能够根据前面的词预测词,而且还预测后面的词,即能够实现对上下文的双向理解。 Yann LeCun领导的Facebook 人工智能部门便一直在从事自监督方面的研究。一个案例是,对语言模型进行预训练,然后对模型进行微调来应用于识别仇恨言论。 在解决小数据问题上,2020 年的发展趋势主要包括: 1)随着自监督技术的发展,NLP 领域会再度成为万众瞩目的焦点。下游的NLP 应用如聊天机器人、机器翻译以及类人写作等,将会茁壮成长。 2)大型科技公司依旧会领衔技术的发展。开发预训练语言模型也是计算密集的,因而在小数据的 AI 模型开发上,也将遵循“自下而上”的规律,即由科技巨头公司将开发成果开源给下游应用的研究者使用。 3)生成真实假数据的合成数据方法和工具将会为那些不像巨头公司一样有海量数据的小公司,提供更加公平的竞争环境。 八、量子机器学习 结合经典机器学习算法和量子 AI 的混合模型,不久后将得到实际应用。 量子机器学习借鉴了传统机器学习的原理,不过算法在量子处理器上运行,不仅在速度上要远快于一般的神经网络,还能克服阻碍了当前在海量数据上做AI 研究的硬件限制。 无论是科技巨头还是量子初创公司都正在研究这种混合方法,即其中一部分任务由运行在普通计算机上的传统神经网络完成,另一部分任务则由量子神经网络(QNN)进行增强。 例如谷歌 AI 团队自2013年开始就在尝试为量子计算机开发算法,而最近的目标则是在现有的量子设备上开发混合的量子—经典机器学习技术。 他们坚信,虽然目前关于量子神经网络的研究还是理论上的,但是在不远的将来,理论上的架构将在量子计算机上得到实现和验证。 2020 年,在量子机器学习方面可以尝试的方向是: 1)针对量子计算和 AI 这两种世上最强大的计算范式,最开始可以尝试与经典计算机协作的方法来解决现实问题; 2)量子云计算将会成为云计算战场的前线,亚马逊、谷歌、IBM 和微软等玩家将会加大对量子云计算的投入,与此同时,量子计算将会与传统 GPU和CPU 协作增加云计算的附加值。 九、借鉴 NLP 概念理解生命 实际上,自然语言处理和基因组都是由序列数据所构成的,AI 算法在自然语言处理领域得心应手,也将会在基因领域博大显身手。 在自然语言处理的自监督学习中,AI 算法能够预测句子中缺失的词,正如句子是多个词的序列,蛋白质也是特定顺序的氨基酸序列。Facebook AI 研究院和纽约大学的研究者就曾将同样的自监督学习原理也应用到蛋白质序列的数据上。 不同于 NLP 中使用自监督学习来预测缺失词,在蛋白质序列数据上,AI 要预测的是缺失或者隐藏的氨基酸。 而最近最受关注的一项进展便是DeepMind 在基因组方面取得的进展,他们开发出了名叫Alphafold 的算法,能够理解基因组中最复杂的难点之一——蛋白质折叠,并最终确定蛋白质的 3D 架构。 而Alphafold 其实就借用了自然语言处理的概念来预测氨基酸之间的距离和角度。 在借鉴 NLP 的概念来理解生命体方面,未来可尝试的方向有: 1)更好地设计药物:现在有一些药物以蛋白质为靶点,然而蛋白质会随着环境的不同发生动态变化,因此理解蛋白质结构以及折叠方式,将能更好地开发此类药物。 2)AI 算法有助于对蛋白质建模以及理解其架构,而无需深入了解域内知识。 3)在医疗和材料科学领域针对特定功能开发和优化新的蛋白质设计,将成为可能。 来源: 凤凰网 雷锋网 |