som神经网络 SOM神经网络聚类
rbf神经网络和bp神经网络有什么区别
相似系数= 1,表明完全相似bp神经网络学习速率是固定的,因此网络的收敛速度慢,需要较长的训练时间。对于一些复杂问题,BP算法需要的训练时间可能非常长,这主要是由于学习速率太小造成的。
som神经网络 SOM神经网络聚类
som神经网络 SOM神经网络聚类
用途不同前馈神经网络:主要应用包括感知器网络、B图像特征处理算法:P网络和RBF网络。
BP神经网络是ANN人工神经中的一种,常用的神经网络有BP、RBF、SOM、Hopfield等等,其功能不经相同,可总体来说ANN的主要功能是模式识别和分类训练。本质的区别可以说是学习方法不同,或者说模型的优化方法不同。
机器视觉算法有哪些
相关系数:图像预处理算法:
1.图像梯度算法Sobel、Scharr
2.角点检测算法Harris
3.边缘检测算法Canny
4.z直线检测算法Hough
1.SIFT(尺度不变特征变换)
2.SURF(加速稳健特征)
3.HOG(梯度反向传播 Backpropagation直方图)
4.Histogram(直方图)
5.LBP(局部二值模式)
6. Brute-Force(蛮力特征匹配)
机器学习常用算法:
1.KNN(K近邻)
2.SVM(支持向量机)
5.RF(随机森林)
6. Decision Tree(决策树)
9.SOM(自组织映射)
10.HMM(匹配矩阵)
11.(卷积神经网络)
非监督学习有哪些
6,模型聚类(Model-based)无监督学习(unsupervised learning):设计分类器时候,用于处理未被分类标记的样本集
极端学习机 Extreme learning machine目标是我们不告诉计算机怎么做,而是让它(计算机)自己去学习怎样做一些事情。非监督学习一般有两种思路。种思路是在指导Agent时不为其指定明确的分类,而是在成功时采用某种形式的激励制度。需要注意的是,这类训练通常会置于决策问题的框架里,因为它的目标不是产生一个分类系统,而是做出回报的决定。这种思路很好的概括了现实世界,Agent可以对那些正确的行为做出激励,并对其他的行为进行处罚。
强化学习的一些形式常常可以被用于非监督学习,由于没有必然的途径学习影响世界的那些行为的全部信息,因此Agent把它的行为建立在前一次奖惩的基础上。在某种意义上,所有的这些信息都是不必要的,因为通过学习激励函数,Agent不需要任何处理就可以清楚地知道要做什么,因为它(Agent)知道自己采取的每个动作确切的预期收益。对于防止为了计算每一种可能性而进行的大量计算,以及为此消耗的大量时间(即使所有世界状态的变迁概率都已知),这样的做法是非常有益的。另一方面,在尝试出错上,这也是一种非常耗费时间的学习。
不过这一类学习可能会非常强大,因为它定没有事先分类的样本。在某些情况下,例如,我们的分类方法可能并非选择。在这方面一个突出的例子是Backgammon(西洋双陆棋)游戏,有一系列计算机程序(例如neuro-gammon和TD-gammon)通过非监督学习自己一遍又一遍的玩这个游戏,变得比强的人类棋手还要出色。这些程序发现的一些原则甚至令双陆棋专家都感到惊讶,并且它们比那些使用预分类样本训练的双陆棋程序工作得更出色。
一种次要的非监督学习类型称之为聚合(clustering)。这类学习类型的目标不是让效用函数化,而是找到训练数据中的近似点。聚合常常能发现那些与设匹配的相当好的直观分类。例如,基于人口统计的聚合个体可能会在一个群体中形成一个富有的聚合,以及其他的贫穷的聚合。
由于在很多实际应用中,缺少所研究对象类别形成过程的知识,或者为了判断各个样本(模式)所属的类别需要很大的工作量(例如卫星遥感照片上各像元所对应的地面情况),因此往往只能用无类别标答的样本集进形学习。通过无监督式学习,把样本集划分为若干个子集(类别),从而直接解决看样本的分类问题,或者把它作为训练样本集,再用监督学习方法进行分类器设计。
思路
在非监督学习中,数据并不会被特别标识,学习模型是为了推断出数据的一些内在结构。非监督学习一般有两种思路:
1)种思路是在指导Agent时不为其指定明确的分类,而是在成功时采用某种形式的激励制度。需要注意的是,这类训练通常会被置于决策问题的框架里,因为它的目标不是产生一个分类系统,而是做出回报的决定,这类学习往往被称为强化学习。
2)第二种思路称为聚合(Clustering),这类学习类型的目标不是让效用函数化,而是找到训练数据中的近似点,本节将重点介绍此类非监督学习思路。
第二种思路的非监督学习常见的应用场景包括关联规则的学习及聚类等。常见算法包括Apriori、K-Means、EM等。[1]
方法
无监督学习主要有以下两大类方法:
(1)基于概率密度函数估计的直接方法
如果给定的样本集是由各类都服从高斯分布的样本混合在一起组成的,在类别数已知的条件下,可以用似然法或Bayes估计法,从混合的概率密度函数中分解出各个类的概率密度函数,然后用Bayes决策方法设计模式分类器。在非高斯概率分布情况下,只要各类的概率密度函数的形式已知,且分解是惟一的,都可以用上述方法实现分类器设计。在没有任何概率分布先验知识的情况下,可以把特征空间划分为着若干个队域,使每个区域都具有单峰的分布性质,每一个区域就相当于一个类别,这样作的基础是紧致性设。已经合多种算法实现这种队域的划分。
(2)基于样本间相似度呈的间接聚类方法
如果用样本在特征窄问中相互问的距离来度量样本间的相似度,就可以设计出某种评价分类质量的准则函数,通过数学方法把特征空间划分为与各个类别相对应的区域,也就是通常所说的聚类分析。算法和非迭代的分级聚类算法。前者是给定某个样本集的初始划分,计算反映聚类质量的准则隔数值,如果把某个样本从原来所属的类别改属为另一个类别能使准则函数值向好的方向改进,则改变这个样本原来的类别为新的类别(新的划分)再对其他样本进行类似的运算这样反复迭代,直到没有一个样本类别的改变能改进准则函数值,即已经达到了准则函数的值。这一类算法中的有C-均值算法和ISODATA算法,C-均值算法要求类别数预先给定,并把各样本到所属类别样本子集的均值向量的距离平方和作为评价聚类质量的准则函数。ISODATA算法可以自动地调整类别数,并可对各类样本的某些统计性质(如样本数餐、样本特征的标准偏等)作些限制。非迭代的分级聚类算法:步把每一个样本都看成一个类,给定两类样本间相似度计算方法,计算类与类之间的相似度。第二步把其中相似度的两个类合并为一个类,再计算新的类与类之间的相似度。第三步再把其中相似把所有的样本都合为一类为止。根据问题的性质以及各级的相似度大小,就可以确定合理的聚类别数和各类所包含的样本,在应用分级聚类算法时要选择适当的类与类间相似度汁算力’法,不同的计算方导致完全不同的聚类结果。
聚类分析是无监督学习的主要方法,它能从大量的数据集中找出有规律性的结果。为了适应各种实际问题的数据结构的特点,还发展了以上述方法为基础的各种其他算法[2]
无监督学习(Unsupervised Learning)是和监督学习相对的另一种主流机器学习的方法,我们知道监督学习解决的是“分类”和“回归”问题,而无监督学习解决的主要是“聚类(Clustering)”问题。
从无监督学习说起:算法模型有哪几种?
监督学习通过对数据进行标注,来让机器学习到,比如:小曹多重多高就是胖纸,或者用身高体重等数据,来计算得到小曹的BMI系数;而无监督学习则没有任何的数据标注(超过多高算高,超过多重算胖),只有数据本身。
比如:有一大群人,知道他们的身高体重,但是我们不告诉机器“胖”和“瘦”的评判标准,聚类就是让机器根据数据间的相似度,把这些人分成几个类别。
那它是怎么实现的呢?怎么才能判断哪些数据属于一类呢?
这是几种常见的主要用于无监督学习的算法。
K均值(K-Means)算法;
自编码器(Auto-Encoder);
主成分分析(Principal Component Analysis)。
K均值算法有这么几步:
从无监督学习说起:算法模型有哪几种?
随机的选取K个中心点,代表K个类别;
计算N个样本点和K个中心点之间的欧氏距离;
将每个样本点划分到近的(欧氏距离小的)中心点类别中——迭代1;
计算每个类别中样本点的均值,得到K个均值,将K个均值作为新的中心点——迭代2;
重复234;
得到收敛后的K个中心点(中心点不再变化)——迭代4。
上面提到的欧氏距离(Euclidean Distance),又叫欧几里得距离,表示欧几里得空间中两点间的距离。我们初中学过的坐标系,就是二维的欧几里得空间,欧氏距离就是两点间的距离,三维同理,空间的计算方式和三维二维相同。
简述
由于在很多实际应用中,缺少所研究对象类别形成过程的知识,或者为了判断各个样本(模式)所属的类别需要很大的工作量(例如卫星遥感照片上各像元所对应的地面情况),因此往往只能用无类别标答的样本集进形学习。通过无监督式学习,把样本集划分为若干个子集(类别),从而直接解决看样本的分类问题,或者把它作为训练样本集,再用监督学习方法进行分类器设计。
思路
在非监督学习中,数据并不会被特别标识,学习模型是为了推断出数据的一些内在结构。非监督学习一般有两种思路:
1)种思路是在指导Agent时不为其指定明确的分类,而是在成功时采用某种形式的激励制度。需要注意的是,这类训练通常会被置于决策问题的框架里,因为它的目标不是产生一个分类系统,而是做出回报的决定,这类学习往往被称为强化学习。
2)第二种思路称为聚合(Clustering),这类学习类型的目标不是让效用函数化,而是找到训练数据中的近似点,本节将重点介绍此类非监督学习思路。
第二种思路的非监督学习常见的应用场景包括关联规则的学习及聚类等。常见算法包括Apriori、K-Means、EM等。[1]
方法
无监督学习主要有以下两大类方法:
(1)基于概率密度函数估计的直接方法
如果给定的样本集是由各类都服从高斯分布的样本混合在一起组成的,在类别数已知的条件下,可以用似然法或Bayes估计法,从混合的概率密度函数中分解出各个类的概率密度函数,然后用Bayes决策方法设计模式分类器。在非高斯概率分布情况下,只要各类的概率密度函数的形式已知,且分解是惟一的,都可以用上述方法实现分类器设计。在没有任何概率分布先验知识的情况下,可以把特征空间划分为着若干个队域,使每个区域都具有单峰的分布性质,每一个区域就相当于一个类别,这样作的基础是紧致性设。已经合多种算法实现这种队域的划分。
(2)基于样本间相似度呈的间接聚类方法
如果用样本在特征窄问中相互问的距离来度量样本间的相似度,就可以设计出某种评价分类质量的准则函数,通过数学方法把特征空间划分为与各个类别相对应的区域,也就是通常所说的聚类分析。算法和非迭代的分级聚类算法。前者是给定某个样本集的初始划分,计算反映聚类质量的准则隔数值,如果把某个样本从原来所属的类别改属为另一个类别能使准则函数值向好的方向改进,则改变这个样本原来的类别为新的类别(新的划分)再对其他样本进行类似的运算这样反复迭代,直到没有一个样本类别的改变能改进准则函数值,即已经达到了准则函数的值。这一类算法中的有C-均值算法和ISODATA算法,C-均值算法要求类别数预先给定,并把各样本到所属类别样本子集的均值向量的距离平方和作为评价聚类质量的准则函数。ISODATA算法可以自动地调整类别数,并可对各类样本的某些统计性质(如样本数餐、样本特征的标准偏等)作些限制。非迭代的分级聚类算法:步把每一个样本都看成一个类,给定两类样本间相似度计算方法,计算类与类之间的相似度。第二步把其中相似度的两个类合并为一个类,再计算新的类与类之间的相似度。第三步再把其中相似把所有的样本都合为一类为止。根据问题的性质以及各级的相似度大小,就可以确定合理的聚类别数和各类所包含的样本,在应用分级聚类算法时要选择适当的类与类间相似度汁算力’法,不同的计算方导致完全不同的聚类结果。
聚类分析是无监督学习的主要方法,它能从大量的数据集中找出有规律性的结果。为了适应各种实际问题的数据结构的特点,还发展了以上述方法为基础的各种其他算法
rbf神经网络和bp神经网络有什么区别
bp神经网络学习速率是固定的,因此网络的收敛速度慢,需要较长的训低密度分离 Low-density separation练时间。对于一些复杂问题,BP算法需要的训练时间可能非常长,这主要是由于学习速率太小造成的。
用途K均值算法不同前馈神经网络:主要应用包括感知器网络、BP网络和RBF网络。
BP神经网络是ANN人工神经中的一种,常用的神经网络有BP、RBF、SOM、Hopfield等等,其功能不经相同,可总体来说ANN的主要功能是模式识别和分类训练。本质的区别可以说是学习方法不同,或者说模型的优化方法不同。
FLDA 是人工智能算法么??全名中英文是啥啊??
平均一依赖性评估(AODE) Averaged One-Dependence Estimators(AODE)应该不是。
人工智能之机器学习体系汇总
监督学习 Supervised learning
Fisher的线性判别 Fisher’s linear discriminant
线性回归 Linear regression
Logistic回归 Logistic regression
多项Logistic回归 Multinomial logistic regression
朴素贝叶斯分类器 Naive Bayes classifier
感知 Perceptron
支持向量机 Support vector machine
分类和回归树(CART) Classification and regression tree (CART)
迭代Dichotomiser 3(ID3) Iterative Dichotomiser 3(ID3)
C4.5算法 C4.5 algorithm
C5.0算法 C5.0 algorithm
卡方自动交互检测(CHAID) Chi-squared Automatic Interaction Detection(CHAID)
决策残端 Decision stump
ID3算法 ID3 algorithm
随机森林 Random forest
朴素贝叶斯 Naive Bayes
高斯贝叶斯 Gaussian Naive Bayes
多项朴素贝叶斯 Multinomial Naive Bayes
贝叶斯信念网络(BNN) Bayesian Belief Network(BBN)
玻尔兹曼机 Boltzmann machine
卷积神经网络 Convolutional neural network
Hopfield网络 Hopfield network
多层感知器 Multilayer perceptron
径向基函数网络(RBFN) Radial basis function network(RBFN)
受限玻尔兹曼机 Restricted Boltzmann machine
回归神经网络(RNN) Recurrent neural network(RNN)
自组织映射(SOM) Self-organizing map(SOM)
尖峰神经网络 Spiking neural netSLIQwork
人工神经网络 Artificial neural network
贝叶斯 Bayesian
决策树 Decision Tree
线性分类 Linear classifier
无监督学习 Unsupervised learning
k-近邻算法(K-NN) k-nearest neighbors classification(K-NN)
局部异常因子 Local outlier factor
BIRCH
DBSCAN
期望化(EM) Expectation-maximization(EM)
模糊聚类 Fuzzy clustering
K-means算法 K-means algorithm
k-均值聚类 K-means clustering
k-位数 K-medians
平均移 Mean-shift
OPTICS算法 OPTICS algorithm
单连锁聚类 Single-linkage clustering
概念聚类 Conceptual clustering
先验算法 Apriori algorithm
Eclat算法 Eclat algorithm
FP-growth算法 FP-growth algorithm
对抗生成网络
前馈神经网络 Feedforward neurral network
逻辑学习机 Logic learning machine
自组织映射 Self-organizing map
人工神经网络 Artificial neural network
分层聚类 Hierarchical clustering
聚类分析 Cluster ysis
异常检测 Anomaly detection
半监督学习 Semi-supervised learning
生成模型 Generative models
联合训练 Co-training
强化学习 Rercement learning
时间分学习 Temporal difference learning
Q学习 Q-learning
学习自动 Learning Automata
状态-行动-回馈-状态-行动(A) State-Action-Reward-State-Action(A)
深度学习 Deep learning
深度信念网络 Deep belief machines
深度卷积神经网络 Deep Convolutional neural networks
分层时间记忆 Hierarchical temporal memory
深度玻尔兹曼机(DBM) Deep Boltzmann Machine(DBM)
堆叠自动编码器 Stacked Boltzmann Machine
生成式对抗网络 Generative aersarial networks
迁移学习 Transfer learning
传递式迁移学习 Transitive Transfer Learning
其他
主成分分析(PCA) Principal component ysis(PCA)
因子分析 Factor ysis
Bootstrap aggregating (Bagging)
AdaBoost
梯度提升机(GBM) Gradient boosting machine(GBM)
梯度提升决策树(GBRT) Gradient boosted decision tree(GBRT)
集成学习算法
降维
聚类分析(Cluster Analysis)
dist(x, mod = "euclidean", diag = FALSE, upper = FALSE, p = 2)聚类,将相似的事物聚集在一起,将不相似的事物划分到不同的类别的过程。是将复杂数据简化为少数类别的一种手段。
设有m个样本单位,每个样本测的n项指标(变量),原始资料矩阵:
指标的选择非常重要:
必要性要求:和聚类分析的目的密切相关,并不是越多越好
代表性要求:反映要分类变量的特征
区分度要求:在不同研究对象类别上的值有明显的异
性要求:变量之间不能高度相关(儿童生长身高和体重非常相关)
散布性要求:在值域范围内分布不太集中
在各种标准量度值scale异过大时,或数据不符合正态分布时,可能需要进行数据标准化。
(1算法 :) 总和标准化 。 分别求出各聚类指标所对应的数据的总和, 以各指标的数据除以该指标的数据的总和。
根据聚类对象的不同,分为Q型聚类,R型聚类
(1)常见距离统计量 - 闵可夫斯基距离系列(线性距离)
p=∞,时为切比雪夫距离(棋盘格距离)
(2)常见距离统计量 - 马氏距离(协方距离)
均值为μ,协方矩阵为∑的向量x=(1,2,...n)
相比于欧式距离,马氏距离考虑到各种指标之间的联系(如身高和体重并不,)且马氏距离具有尺度无关性(scale-invariant),因此可不必做标准化。
如果协方矩阵为单位矩阵(各指标之间完全相互),则马氏距离化为欧几里得距离。
如果协方矩阵为对角矩阵,则马氏距离化为正规化的欧几里得距离(normalized Euclidean distance)
(3)常见距离统计量 - 文本距离
文本距离通常用来度量文本之间的相似度,在生物研究中常见于序列比对分析。
常见相似系数统计量
相似系数= -1 表明完全相反
相似系数 = 0 表明完全
类与类之间 距离的度量方法:
系统聚类法不仅需要度量个体与个体之间的距离,还要度量类与类之间的距离。类间距离被度量出来之后,距离小的两个小类将首先被合并成为一类。 由类间距离定义的不同产生了不同的系统聚类法。
常见聚类算法的分类:
1,层次聚类(Hierarchical clustering)
2,划分聚类(Partitioning clustering)
3,密度聚类(Density-based)
4,期望化聚类(Expectation Maximization)
5,网格聚类(Grid-based)
1. 层次聚类的方法
基本思想:
在聚类分析的开始,每个样本(或变量)自成一类; 然后,按照某种方法度量所有样本(或变量)之间的亲疏程度,并把相似的样本(或变量)首先聚成一小类; 接下来,度量剩余的样本(或变量)和小类间的亲疏程度,并将当前接近的样本(或变量)与小类聚成一类;如此反复,知道所有样本聚成一类为止。
举例:
有一组数据D={a,b,c,d,e} 给了它们之间的距离矩阵。
首先,每一个例子都是一个类:
2. 划分聚类的方法
划分聚类算法:
给定一个包含n个样本的数据集,基于划分的方法(Partitioning Mod)就是将n个样本按照特定的度量划分为k个簇(k≤n),使得每个簇至少包含一个对象,并且每个对象属于且仅属于一个簇,而且簇之间不存在层次关系。
基于划分的方法大多数是基于距离来划分的,首先对样本进行初始化分,然后计算样本间的距离,重新对数据集中的样本进行划分,将样本划分到距离更近的簇中,得到一个新的样本划分,迭代计算直到聚类结果满足用户指定的要求。
要想得到的聚类结果,算法需要穷举数据集所有可能的划分情况,但是在实际应用中数据量都比较大,利用穷举方法聚类显然是不现实的,因此大部分基于划分的聚类方法采用贪心策略,即在每一次划分过程中寻求解,然后基于解进行迭代计算,逐步提高聚类结果的质量。虽然这种方式有可能得到局部结果,但是结合效率方面考虑,也是可以接受的。
算法:
举例:
有一个二维空间的一些点,我们要将它们分成3个类,即K=3。
我们首先随机选择3个初始质心,每一个质心为一类:
然后我们计算每一个不是质心的点到这三个质心的距离:
将这些点归类于距离近的那个质心的一类:
重新计算这三个分类的质心:
不断重复上述两步,更新三个类:
当稳定以后,迭代停止,这时候的三个类就是我们得到的的三个:
的是k-means聚类算法和K-medoids算法(中心点聚类)
处理“大海中的若干孤岛”,以密度来区分岛
大部分基于密度的方法(Density-based Mod)采用距离度量来对数据集进行划分,在球状的数据集中能够正确划分,但是在非球状的数据集中则无法对样本进行正确聚类,并且受到数据集中的噪声数据影响较大。基于密度的方法可以克服这两个弱点。
基于密度的方法提出“密度”的思想,即给定邻域中样本点的数量,当邻域中密度达到或超过密度阈值时,将邻域内的样本包含到当前的簇中。若邻域的密度不满足阈值要求,则当前的簇划分完成,对下一个簇进行划分。基于密度的方法可以对数据集中的离群点进行检测和过滤。
基于网格的方法(Grid-based Mod)将数据集空间划分为有限个网格单元,形成一个网络结构,在后续的聚类过程中,以网格单元为基本单位进行聚类,而不是以样本为单位。由于算法处理时间与样本数量无关,只与网格单元数量有关,因此这种方法在处理大数据集时效率很高。基于网格的方法可以在网格单元划分的基础上,与基于密度的方法、基于层次的方法等结合使用。
基于模型的方法(Model-based Mod)定数据集满足一定的分布模型,找到这样的分布模型,就可以对数据集进行聚类。基于模型的方法主要包括基于统计和基于神经网络两大类,前者以高斯混合模型(Gaussian Mixture Models,GMM)为代表,后者以自组织映射网络(Self Organizing Map,SOM)为代表。目前以基于统计模型的方法为主。
以下内容后续补充:
数据示例:
数据示例:
为了有效利用聚类算法, 首先需要度量观测值见的距离,在R中常通过stats包里的dist函数来实现:
dist 函数计算对象(矩阵或数据框)中两两间的距离,返回的是距离矩阵(dist类对象)。dist函数的参数描述如下。
另一个计算点之间的距离的方法是cluster包里面的daisy函数:
daisy函数计算数据集中每对观测值的不相似度。daisy函数的参数描述如下:
k-means聚类是简单的聚类算法之一。R中可以通过stats包里面的kmeans函数实现k-means聚类:
kmeans(x, centers, iter.max = 10, nstart = 1, algorithm = c("Hartigan-Wong", "Lloyd", "Forgy", "MacQueen"), trace=FALSE)
kmeans函数的参数描述如下:
Jetson Nano 产品有什么特点?
首先,Jetson Nano 模组 70 x 45 毫米,是体积非常小巧的 Jetson 设备,可以为多个行业3.K-means(K均值)(从智慧城市到机器人)的边缘设备部署 AI 时,此生产就绪型模组系统 (SOM) 可以提供强大支持;其次,提供 472 GFLOP用于快速运行现代 AI 算法。 它可以并行运行多个神经网络,同时处理多个高分辨率传感8. GMM(高斯混合模型)器,非常适合入门级网络硬盘录像机 (NVR)、家用机器人以及具备全面分析功能的智能等应用。建议你可以去思腾合力去了解一下,他们家就有NVIDIA Jetson 产品线的具体产品介绍,还挺详细的。
MATLAB神经网络工具箱中训练函数和自适应学习函数区别?
8. GMM(高斯混合模型)训练函数是全局调整权值和阈值,考虑的是整体误的小。
目前有1000多种聚类算法:没有一种聚类算法可以包打天下,聚类算法中的各种参数也必须依据具体问题而调节学习函数是局部调整权值和阈值,考虑的是单个神经元误的小。
所以两者不冲突,可以一样也可以不同,就像你绕着楼跑步时,地球也在绕着太阳跑,是局部与整体的区别,既有联系又有区别,辩证统一。
训练函数和学习函数是两个不同的函数 ,网络设置中两个都有。
简单的说,训练函数确定调整的大算法,学习函数决定调整量怎么确定
机器视觉算法有哪些
图像预处理算法:
1.图像梯度算法Sobel、Scharr
2.角点检测算法Harris
3.边缘检测算法Canny
4.z直线检测算法Hough
1.SIFT(尺度不变特征变换)
2.SURF(加速稳健特征)
3.H关联规则学习 Association rule learningOG(梯度直方图)
4.Histogram(直方图)
5.LBP(局部二值模式)
6. Brute-Force(蛮力特征匹配)
机器学习常用算法:
1.KNN(K近邻)
2.SVM(支持向量机)
5.RF(随机森林)
6. Decision Tree(决策树)
9.SOM(自组织映射)
10.HMM(匹配矩阵)
11.(7.LR(逻辑回归)卷积神经网络)
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系 836084111@qq.com 删除。