人工智能中小样本问题相关的系列(三):迁移进修_深度_目的
目录
一、迁移学习综述1. 基本观点2. 迁移学习的分类3. 小结4. “小王爱迁移”系列学习内容:含深度迁移学习!二、深度迁移学习综述1. 基本观点2. 深度迁移学习的分类
【说在前面】本人博客新手一枚,象牙塔的老白,职业场的小白。以下内容仅为个人见地,欢迎批评示正,不喜勿喷!
[握手][握手]
【再啰嗦一下】本文衔接上两个随笔:人工智能中小样本问题干系的系列模型演化及学习条记(一):元学习、小样本学习
【再啰嗦一下】本文衔接上两个随笔:人工智能中小样本问题干系的系列模型演化及学习条记(二):天生对抗网络 GAN
一、迁移学习综述说到小样本学习,我也想再说说迁移学习。但是别误会,迁移学习也并不是只针对小样本学习,还有很多别的丰富运用。
本文紧张参考了一篇综述:A Survey on Transfer Learning
1. 基本观点在许多机器学习和数据挖掘算法中,一个主要的假设便是目前的演习数据和将来的演习数据,一定要在相同的特色空间并且具有相同的分布。然而,在许多现实的运用案例中,这个假设可能不会成立。这种情形下,如果知识的迁移做获胜利,我们将会通过避免花费大量昂贵的标记样本数据的代价,使得学习性能取得显著的提升。近年来,为理解决这类问题,迁移学习作为一个新的学习框架涌如今人们面前。
迁移学习紧张有以下三个研究问题:1)迁移什么,2)如何迁移,3)何时迁移。
“迁移什么”提出了迁移哪部分知识的问题。 一些知识对单独的域或任务有用,一些知识对不同的领域是通用的,可以用来提高目标域或目标任务的性能。“何时迁移”提出了哪种情形下利用迁移学习。当源域和目标域无关时,强行迁移可能并不会提高目标域上算法的性能,乃至会危害性能。这种情形称为负迁移。当前大部分关于迁移学习的事情关注于“迁移什么”和“如何迁移”,隐含着一个假设:源域和目标域彼此干系。然而,如何避免负迁移是一个很主要的问题。基于迁移学习的定义,我们归纳了传统机器学习方法和迁移学习的异同见下表:
(1)inductive transfer learning:推导迁移学习,也叫归纳迁移学习。其目标任务和源任务不同,无论目标域与源域是否相同。这种情形下,要用目标域中的一些已标注数据天生一个客不雅观预测模型以运用到目标域中。根据源域中已标注和未标注数据的不同情形,可以进一步将inductive transfer learning分为两种情形:
源域中大量已标注数据可用。这种情形下推导迁移学习和多任务学习类似。然而,推导迁移学习只关注于通过从源任务中迁移知识以便在目标任务中得到更高性能,然而多任务学习考试测验同时学习源任务和目标任务。源域中无已标注数据可用。这种情形下推导迁移学习和自我学习相似。自我学习中,源域和目标域间的标签空间可能不同,这意味着源域中的边缘信息不能直策应用。因此当源域中无已标注数据可用时这两种学习方法相似。(2)transductive transfer learning:转导迁移学习,也叫直推式迁移学习。其源任务和目标任务相同,源域和目标域不同。这种情形下,目标域中无已标注数据可用,源域中有大量已标注数据可用。根据源域和目标域中的不同状况,可以进一步将转导迁移学习分为两类:
源域和目标域中的特色空间不同源域和目标域间的特色空间相同,但输入数据的边缘概率分布不同。这种情形与自适应学习干系,由于文本分类、样本选择偏差和协方差移位中的知识迁移都有相似的假设。(3)unsupervised transfer learning:无监督迁移学习。与推导迁移学习相似,目标任务与源任务不同但干系。然而,无监督迁移学习专注于办理目标域中的无监督学习问题,例如聚类、降维、密度估计等。这种情形下,演习中源域和目标域都无已标注数据可用。
2. 迁移学习的分类上述三种迁移学习可以基于“迁移什么”被分为四种情形:
(1)Instance-based TL(样本迁移):可以被称为基于实例的迁移学习。只管source domain数据不可以全体直接被用到target domain里,但是在source domain中还是找到一些可以重新被用到target domain中的数据。对它们调度权重,使它能与target domain中的数据匹配之后可以进行迁移。
instance reweighting(样本重新调度权重)和importance sampling(主要性采样)是instance-based TL里紧张用到的两项技能。
例如在这个例子中便是找到例子3,然后加重它的权值,这样在预测的时候它所占权重较大,预测也可以更准确。
(2)Feature-representation-transfer(特色迁移):可以被称为基于特色表示的迁移学习。找到一些好的有代表性的特色,通过特色变换把source domain和target domain的特色变换到同样的空间,使得这个空间中source domain和target domain的数据具有相同的分布,然后进行传统的机器学习就可以了。
特色变换这一块可以举个栗子:比如评论男生的时候,你会说“好帅!
好有男人味!
好有担当!
”,评论女生的时候,你会说“好俊秀!
好有女人味!
好温顺!
”可以看出共同的特色便是“好看”。把“好帅”映射到“好看”,把“好俊秀”映射到“好看”,“好看”便是它们的共同特色。
(3)Parameter-transfer(参数/模型迁移):可以被称为基于参数的迁移学习。假设source tasks和target tasks之间共享一些参数,或者共享模型hyperparameters(超参数)的先验分布。这样把原来的模型迁移到新的domain时,也可以达到不错的精度。
(4)Relational-knowledge-transfer(关系迁移):可以被称为基于关系知识的迁移学习。把相似的关系进行迁移,比如生物病毒传播到打算机病毒传播的迁移,比如师生关系到上司下属关系的迁移。最近,统计关系学习技能主导了这一领域。
3. 小结综合第1小节和第2小节的内容,下图展示了不同迁移学习分类中不同方法的利用情形:
与天生对抗网络GAN一样,迁移学习同样可以在很多领域利用,同时,可以与很其他机器学习算法相结合,道理是相通的。
说到这里,前面各种方法中的统计学习实现实在是太胆怯了,我只想接下来重点先容一下深度迁移学习的内容,即深度学习+迁移学习!
本小节紧张分享一下大佬的知乎专栏的学习内容,紧张包括迁移学习领域经典的各大方法,用于赞助对上文的理解:
(1)迁移身分剖析(TCA):Domain adaptation via transfer component analysis,2009-2011
紧张思想是:属于基于特色的迁移学习方法。PCA是一个大矩阵进去,一个小矩阵出来,TCA是两个大矩阵进去,两个小矩阵出来。从学术角度讲,TCA针对domain adaptation问题中,源域和目标域处于不同数据分布时,将两个领域的数据一起映射到一个高维的再生核希尔伯特空间。在此空间中,最小化源和目标的数据间隔,同时最大程度地保留它们各自的内部属性。直不雅观地理解便是,在现在这个维度上不好最小化它们的间隔,那么就找个映射,在映射后的空间上让它们最靠近,那么不就可以进行分类了吗?
紧张步骤为:输入是两个特色矩阵,首先打算L和H矩阵,然后选择一些常用的核函数进行映射(比如线性核、高斯核)打算K,接着求
的前m个特色值。然后,得到的便是源域和目标域的降维后的数据,就可以在上面用传统机器学习方法了。
(2)测地线流式查究法(GFK):Geodesic flow kernel for unsupervised domain adaptation,2011-2012
SGF方法的紧张思想:把source和target分别算作高维空间(Grassmann流形)中的两个点,在这两个点的测地线间隔上取d个中间点,然后依次连接起来。这样,由source和target就构成了一条测地线的路径。只须要找到得当的每一步的变换,就能从source变换到target了。
SGF方法的紧张贡献在于:提出了这种变换的打算及实现了相应的算法。但是它有很明显的缺陷:到底须要找几个中间点?便是说这个参数d是没法估计的。
GFK方法办理了SGF的问题:
如何确定source和target路径上中间点的个数。它通过提出一种kernel方法,利用路径上的所有点的积分,把这个问题办理了。当有多个source的时候,我们如何决定利用哪个source跟target进行迁移?GFK提出Rank of Domain度量,度量出跟target最近的source来办理这个问题。GFK方法有以下几个步骤:选择最优的子空间维度进行变换、构建测地线、打算测地线流式核、以及构建分类器。
(3)联合分布适配(JDA):Transfer feature learning with joint distribution adaptation,2013
紧张思想是:属于基于特色的迁移学习方法。是一个概率分布适配的方法,而且适配的是联合概率。JDA方法同时适配两个分布,然后非常风雅地规到了一个优化目标里。用弱分类器迭代,末了达到了很好的效果。
和TCA的紧张差异有两点:
1)TCA是无监督的(边缘分布适配不须要label),JDA须要源域有label。2)TCA不须要迭代,JDA须要迭代。-------------------------------------------------------------------------------------------
(4)在线迁移学习:A framework of online transfer learning,2010-2014
这是在线迁移学习研究的第一篇文章,作者分别对同构OTL和异构OTL提出了相应的方法,便是基于SVM以及集成学习进行组合。
基本思想是:先针对可用的源域数据建立一个分类器,然后,每来一个目标域数据,就对这个新数据建立一个分类器,然后与在源域上建立的这个分类器进行组合。
核心问题是:确定源域和新数据分类器各自该当以怎么样的权重进行组合。
(5)负迁移:提出“通报迁移学习”的办理思路,2015-2017
如果两个领域之间基本不相似,那么就会大大危害迁移学习的效果。还是拿骑自行车来说,拿骑自行车的履历来学习开汽车,这显然是不太可能的。由于自行车和汽车之间基本不存在什么相似性。以是,这个任务基本上完不成。这时候,可以说涌现了负迁移(negative transfer)。
产生负迁移的缘故原由紧张有:
源域和目标域压根不相似,谈何迁移?------数据问题源域和目标域是相似的,但是,迁移学习方法不足好,没找到可迁移的身分。 ------方法问题因此,在实际运用中,找到合理的相似性,并且选择或开拓合理的迁移学习方法,能够避免负迁移征象。
随着研究的深入,已经有新的研究成果在逐渐战输赢迁移的影响:
杨强教授团队2015在数据挖掘领悟顶级会议KDD上揭橥了通报迁移学习文章《Transitive transfer learning》,提出了通报迁移学习的思想。杨强教授团队在2017年人工智能领域顶级会议AAAI上揭橥了远领域迁移学习文章《Distant domain transfer learning》,可以用人脸来识别飞机。这些研究的意义在于,传统迁移学习只有两个领域足够相似才可以完成,而当两个领域不相似时,通报迁移学习却可以利用处于这两个领域之间的多少领域,将知识通报式的完成迁移。这个是很故意义的事情,可以视为办理负迁移的有效思想和方法。
(6)开放集迁移学习:Open Set Domain Adaptation,2017
现有的domain adaptation都针对的是一个“封闭”的任务,便是说,source和target中的种别是完备一样的,source有几类,target就有几类。这些方法都只是空想状态下的domain adaptation。而真正的环境中,source和target每每只会共享一些类的信息,而不是全部。
全体文章的办理思路大致是这样的:
利用source和target的关系,给target的样本打上标签并将source转换到和target同一个空间中两者依次迭代,直到收敛。作者根据target domain是否有label,把问题分成了unsupervised和semi-supervised domain adaptation,然后分开办理。
(7)张量迁移学习:When Unsupervised Domain Adaptation Meets Tensor Representations,2017
现有的那些domain adaptation方法都只是针对向量(vector)的。而这种表示所带来的问题便是,当把这些数据运用于高维度表示(如卷积)时,数据首先要经由向量化(vectorization)。此时,无法精准完备地保留一些统计属性。以是作者提出,不经由向量化来进行domain adaptation的方法,很自然地用到了tensor(张量)。
(8)从履历中学习迁移:Learning To Transfer,2018
提出了一个新颖的研究问题:类似于增量学习,如何最大限度地利用已有的迁移学习履历,使得其对新问题的泛化能力很好?同时也可以避免一涌现新问题就从头进行学习。
在办理问题的方法上,虽然用的都是老方法,但是能够想到新已有方法很好地运用于这个问题。引来的拓展思考:在深度网络中如何持续学习?
(9)探秘任务迁移:Taskonomy: Disentangling Task Transfer Learning,2018
诸如物体识别、深度估计、边缘检测等一些常见的打算机视觉任务,彼此之间都或多或少地有一些联系。比如,我们很清楚地知道曲面的法线和深度是干系的:它们是彼此的梯度。但与此同时,另一些任务我们却不清楚,例如,一个房间中的关键点检测和阴影是如何协同事情完成姿态估计的?
已有的干系事情均忽略了这些任务的关联性,而是单独地对各个任务进行建模。不利用任务之间的干系性,无疑是十分耗时和繁芜的。纵然是要在不同的任务之间进行迁移,由于不同任务的不同任务空间之间的联系尚不清楚,也无法实现大略有效的任务迁移。
(10)选择性对抗迁移学习:Partial Transfer Learning with Selective Adversarial Networks,2018
传统的迁移学习问题情境都是,源域和目标域的种别空间一样。在大数据时期,常日我们会有大量的源域数据。这些源域数据比目标域数据,在种别上常日都是丰富的。比如基于ImageNet演习的图像分类器,一定是针对几千个种别进行的分类。我们实际用的时候,目标域每每只是个中的一部分种别。
因此,就哀求相应的迁移学习方法能够对目标域,选择相似的源域样本(种别),同时也要避免负迁移。但是目标域常日是没有标签的,不知道和源域中哪个种别更相似。作者指出这个问题叫做partial transfer learning(部分迁移学习)。
(11)联邦迁移学习:2018
事实上,Google在2017年的一篇论文里进行了去中央化的推举系统建模研究。其核心是,手机在本地进行模型演习,然后仅将模型更新的部分加密上传到云端,并与其他用户的进行整合。一些研究者也提出了CryptoDL深度学习框架、可扩展的加密深度方法、针对付逻辑回归方法的隐私保护等。但是,它们或只能针对付特定模型,或无法处理不同分布数据。
正是为理解决上述这些寻衅,喷鼻香港科技大学杨强教授和微众银行AI团队,最近提出了联邦迁移学习 (Federated Transfer Learning, FTL)。FTL将联邦学习的观点加以推广,强调在任何数据分布、任何实体上,均可以进行协同建模学习。
这项事情在海内,是杨教授与微众银行AI团队主导,目的是建立数据联邦,以办理大数据无法聚合的问题。在国外,目前是Google在进行干系的研究。二者的差异:微众银行AI团队的做法是,用户维度部分重叠,特色维度不重叠;而Google则是反过来:特色重叠,用户不重叠。
联邦迁移学习 vs 迁移学习 vs 多任务学习
多任务学习和FTL都看重多个任务的协同学习,终极目标都是要把所有的模型变得更强。但是,多任务学习强调不同任务之间可以共享演习数据,毁坏了隐私规则。而FTL则可以在不共享隐私数据的情形下,进行协同的演习。迁移学习看重知识从一个源领域到另一个目标领域的单向迁移。而这种单向的知识迁移,每每伴有一定的信息丢失,由于常日只会关注迁移学习在目标领域上的效果,而忽略了在源领域上的效果。FTL则从目标上就很好地考虑了这一点,多个任务之间协同。迁移学习和多任务学习都可以办理模型和数据漂移的问题,这一点在FTL中也得到了继续。-------------------------------------------------------------------------------------------
(12)深度神经网络的可迁移性:How transferable are features in deep neural networks,2014
深度网络的一个事实:前面几层都学习到的是通用的特色(general feature),后面的网络更侧重于学习特定的特色(specific feature)。
虽然该论文并没有提出一个创新方法,但是通过实验得到了以下几个结论,对往后的深度学习和深度迁移学习都有着非常高的辅导意义:
神经网络的前3层基本都是general feature,进行迁移的效果会比较好。深度迁移网络中加入fine-tune,效果会提升比较大,可能会比原网络效果还好。Fine-tune可以比较好地战胜数据之间的差异性。深度迁移网络要比随机初始化权重效果好。网络层数的迁移可以加速网络的学习和优化。(13)深度迁移学习:例如DaNN、DDC、DAN等,2014-2015
DaNN(Domain Adaptive Neural Network)的构造非常大略,它仅由两层神经元组成:特色层和分类器层。作者的创新事情在于,在特色层后加入了一项MMD适配层,用来打算源域和目标域的间隔,并将其加入网络的丢失中进行演习。以是,全体网络的优化目标也相应地由两部分构成:在有label的源域数据上的分类偏差,以及对两个领域数据的判别偏差。
但是,由于网络太浅,表征能力有限,故无法很有效地办理domain adaptation问题(普通点说便是精度不高)。因此,后续的研究者大多数都基于其思想进行扩充,例如将浅层网络改为更深层的AlexNet、ResNet、VGG等,例如将MMD换为多核的MMD等。
DDC(Deep Domain Confusion)针对预演习的AlexNet(8层)网络,在第7层(也便是feature层,softmax的上一层)加入了MMD间隔来减小source和target之间的差异。这个方法简称为DDC。下图是DDC的算法插图。
从上图可以很明显地看出,DDC的思想非常大略:在原有的AlexNet网络的根本上,对网络的fc7层(分类器前一层)后加一层适配层(adaptation layer)。适配层的浸染是,单独稽核网络对源域和目标域的判别能力。如果这个判别能力很差,那么我们就认为,网络学到的特色不敷以将两个领域数据区分开,因而有助于学习到对领域不敏感的特色表示。
DAN(Deep Adaptation Network)是在DDC的根本上发展起来的,它很好地办理了DDC的两个问题:
一是DDC只适配了一层网络,可能还是不足,由于Jason的事情中已经明确指出不同层都是可以迁移的,以是DAN就多适配几层。二是DDC是用了单一核的MMD,单一固定的核可能不是最优的核。DAN用了多核的MMD(MK-MMD),效果比DDC更好。DAN的创新点是多层适配和多核MMD。下图是DAN的网络构造示意图。
DDC和DAN作为深度迁移学习的代表性方法,充分利用了深度网络的可迁移特性,然后又把统计学习中的MK-MMD间隔引入,取得了很好的效果。DAN的作者在2017年又进一步对其进行了延伸,做出了Joint Adaptation Network (JAN),进一步把feature和label的联合概率分布考虑了进来,可以视作之前JDA(joint distribution adaptation)的深度版。
(14)深度迁移学习文章解读:Simultaneous Deep Transfer Across Domains and Tasks,2015
针对情形:target的部分class有少量label,剩下的class无label。文章最大的创新点是:现有的方法都是domain classifier加上一个domain confusion,便是适配。作者提出这些是不足的,以是提出了还要再加一个soft label loss。意思便是在source和target进行适配的时候,也要根据source的种别分布情形来进行调度target的。实在本意和JDA差不多。
网络构造如下图所示。网络由AlexNet修正而来,前面的几层都一样,差异只是在第fc7层后面加入了一个domain classifier,也便是进行domain adaptation的一层,在fc8后打算网络的loss和soft label的loss。就现在的研究成果看来,绝大多数也都是在深度网络后加一些干系的loss层,以之来提高网络的适配性。实质并没有很大的创新性。
(15)深度迁移度量学习:Deep Transfer Metric Learning,2015
已有的metric learning研究大多数集中在传统方法和深度方法中,它们已经取得了长足的进步。但是这些纯挚的度量研究,每每只是在数据分布同等的情形下有效。如果数据分布发生了变革,已有的研究则不能很好地进行处理。因此,迁移学习就可以作为一种工具,综合学习不同数据分布下的度量,使得度量更稳定。
另一方面,已有的迁移学习事情大多都是基于固定的间隔,例如MMD,因此无法学习到更好的间隔表达。虽然近年来有一些迁移度量学习的事情,但它们都只考虑在数据层面将特色分布差异减小,而忽略了在源领域中的监督信息。因而,作者提出要在深度迁移网络中对度量进行学习,有效利用源领域中的监督信息,学习到更泛化的间隔表达。
(16)用于部分迁移学习的深度加权对抗网络:Importance Weighted Adversarial Nets for Partial Domain Adaptation,2018
作者提出了一个深度加权对抗网络,如下图所示。网络的紧张部分是:分别浸染于源域和目标域的两个特色提取器(分别叫做
和
),以及两个领域分类器(分别叫做
和
)。第一个领域分类器用来筛选出源域中与目标域相似的那部分样本(或者源域中与目标领域共享的那部分种别),第二个领域分类器进行正常的domain adaptation。
本文核心创新点是,从任务出发,直不雅观地布局出两阶段式对抗网络,对源域中与目标域共享的种别样本进行有效筛选。另一个与已有事情不同的地方是,作者分别对源域和目标域采取了不同的特色提取器。
(17)基于条件对抗网络的领域自适应:Conditional Adversarial Domain Adaptation,2018
Domain adaptation问题一贯以来是迁移学习和打算机视觉领域等的研究热点。从传统方法,到深度方法,再到最近的对抗方法,都在考试测验办理此问题。作者在本文中提出,现在的对抗方法面临两个寻衅:
一是当数据特色具有非常繁芜的模态构造时,对抗方法无法捕获多模态的数据构造,随意马虎造成负迁移。二是当上面的问题存在时,domain classifier就很随意马虎出错,以是造成迁移效果不好。本文提出了基于条件对抗网络的领域自适应方法,紧张由Condition + Adversarial + Adaptation这三部分构成。进行condition的时候,用到了一个叫做multilinear map的数学工具,紧张是来刻画多个特色和种别之间的关系。
(18)深度迁移学习用于韶光序列分类:Transfer learning for time series classification,2018
基本方法与在图像上进行深度迁移同等,先在一个源领域上进行pre-train,然后在目标领域上进行fine-tune。
网络的构造如下图所示。网络由3个卷积层、1个全局池化层、和1个全连接层构成。利用全连接层的好处是,在进行不同输入长度序列的fine-tune时,不须要再额外设计池内化层。
与图像的差异便是,输入由图片换成了韶光序列。把稳到,图片每每具有一定的通道数(如常见的R、G、B三通道)。韶光序列也有通道,即不同维的韶光序列数据。最大略的即是1维序列,可以认为是1个通道。多维韶光序列则可以认为是多个通道。
(19)最大分类器差异的领域自适应:Maximum Classifier Discrepancy for Unsupervised Domain Adaptation,2018
方法的紧张思想非常大略:用源域演习的网络如果用到目标域上,肯定由于目标域与源域的不同,效果也会有所不同。效果好的我们就不管了,重点关注效果不好的,由于这才能表示出领域的差异性。为了找到这些效果差的样本,作者引入了两个独立的分类器,用二者的不合表示样本的置信度不高,须要重新演习。
(20)异构网络的迁移:Learn What-Where to Transfer,2019
本文另辟路子,从根源上研究不同架构的深度网络如何进行迁移,并供应了行之有效的办理方案。
深度网络都是对迁移学习最为友好的学习架构。从最大略的finetune(微调),到固定网络的特色提取层不变在倒数第二层加入可学习的间隔,再到通过领域对抗的思想学习隐式分布间隔,深度迁移学习方法大行其道。在诸多图像分类、分割检测等任务上取得了不错的效果。
纵不雅观这些方法的思路,大多均逃脱不开一个固有的模式:源域和目标域的网络架构完备相同,固定前多少层,微调高层或在高层中加入分布适配间隔。然而,在迁移模型变得越来越臃肿、特天命据集精度不断攀升的同时,极少有人想过这样一个问题:
这种固定+微调的模式是否是唯一的迁移方法?如果2个网络构造不同(比如),则上述模式直接失落效,此时如何做迁移?本文将这一思路详细表述为2点:What to transfer和Where to transfer
What部分办理网络的可迁移性:源域中哪些层可以迁移到目标域哪些层?Where部分办理网络迁移多少:源域中哪些层的知识迁移多少给目标域的哪些层?大略来说便是:学习源域网络中哪些层的知识可以迁移多少给目标域的哪些层。
二、深度迁移学习综述说到迁移学习,我想最时髦的便是深度迁移学习了。有了深度学习的加持,迁移学习在人工智能领域有着丰富的运用。
上一节的内容实在已经包含了深度迁移学习的很多方法,包括非常多的idea,本节就作为赞助理解用吧!
本文参考了一篇综述:A Survey on Deep Transfer Learning
这里强推大佬的知乎专栏和guthub:https://github.com/jindongwang/transferlearning
1. 基本观点深度迁移学习是通过深度神经网络研究如何利用其他领域的知识。随着深度神经网络在各个领域的广泛运用,大量的深度迁移学习方法被提出。包括离线/在线、增量学习、天生对抗、同构/异构等,可以说是非常丰富。
2. 深度迁移学习的分类本文将深度迁移学习分为四类:基于实例的深度迁移学习、基于映射的深度迁移学习、基于网络的深度迁移学习和基于对抗的深度迁移学习。
(1)基于实例的深度迁移学习。与迁移学习分类中的第一类是同等的,这里不再赘述。
(2)基于映射的深度迁移学习。与迁移学习分类中的第二类是同等的,这里不再赘述。
(3)基于网络的深度迁移学习。将原领域中预先演习好的部分网络,包括其网络构造和连接参数,重新利用,将其转化为用于目标领域的深度神经网络的一部分。
(4)基于对抗的深度迁移学习。在天生对抗网络 GAN 的启示下,引入对抗性技能,探求既适用于源域又适用于目标域的可迁移表达。
负迁移和可迁移性测度是传统迁移学习中的主要问题。如何利用深度神经网络在无监督或半监督学习中进行知识的迁移会受到越来越多的关注。
补充一点,元学习与迁移学习的差异联系是什么?
元学习关注的是一组任务T~p(T),元学习的目标是从T1,T2...中不断学习,从中学到更通用的知识,从而具有适应新任务Ti的能力,它关注的是任务T到Ti这个过程。迁移学习常日只有一个源域A(当然可以有多个),一个目标域B,目标是学习A到B的迁移,更关注的是A到B的这个过程。当然,两者有很多重叠之处,要结合着看,相互补充,相互学习。
欢迎持续关注我的下一篇随笔:人工智能中小样本问题干系的系列模型演化及学习条记(四):知识蒸馏、增量学习
如果您对非常检测感兴趣,欢迎浏览我的另一篇博客:非常检测算法演化及学习条记
如果您对智能推举感兴趣,欢迎浏览我的另一篇博客:智能推举算法演化及学习条记 、CTR预估模型演化及学习条记
如果您对知识图谱感兴趣,欢迎浏览我的另一篇博客:行业知识图谱的构建及运用、基于图模型的智能推举算法学习条记
如果您对韶光序列剖析感兴趣,欢迎浏览我的另一篇博客:韶光序列剖析中预测类问题下的建模方案 、深度学习中的序列模型演化及学习条记
如果您对数据挖掘感兴趣,欢迎浏览我的另一篇博客:数据挖掘比赛/项目全流程先容 、机器学习中的聚类算法演化及学习条记
如果您对人工智能算法感兴趣,欢迎浏览我的另一篇博客:人工智能新手入门学习路线和学习资源合集(含AI综述/python/机器学习/深度学习/tensorflow)、人工智能领域常用的开源框架和库(含机器学习/深度学习/强化学习/知识图谱/图神经网络)
如果你是打算机专业的应届毕业生,欢迎浏览我的其余一篇博客:如果你是一个打算机领域的应届生,你如何准备求职口试?
如果你是打算机专业的本科生,欢迎浏览我的其余一篇博客:如果你是一个打算机领域的本科生,你可以选择学习什么?
如果你是打算机专业的研究生,欢迎浏览我的其余一篇博客:如果你是一个打算机领域的研究生,你可以选择学习什么?
如果你对金融科技感兴趣,欢迎浏览我的另一篇博客:如果你想理解金融科技,不妨先理解金融科技有哪些可能?
之后博主将持续分享各大算法的学习思路和学习条记:hello world: 我的博客写作思路
作者:FinTecher
出处:https://www.cnblogs.com/zhengzhicong/
如果以为这篇文章对你有帮助的话,记得在右下角点个“推举”,欢迎持续关注哦,博主在此感谢!
本文系作者个人观点,不代表本站立场,转载请注明出处!