Clustering and Projected Clustering with Adaptive Neighbors

news/2024/4/28 23:48:58/文章来源:https://blog.csdn.net/qq_45178685/article/details/127435986

摘要

在本文中,提出了一种新的聚类模型来同时学习数据相似矩阵和聚类结构。新模型通过基于局部距离为每个数据点分配自适应和最优邻居来学习数据相似性矩阵。同时,对数据相似性矩阵的拉普拉斯矩阵施加新的秩约束,使得得到的相似性矩阵中的连接分量完全等于聚类数。

介绍

聚类将数据点划分为不同的组,使得同一个组中的对象具有高度的相似性。

最常用的聚类算法是k-means。

本文中提出新的角度解决聚类问题。通过基于局部连通性为每个数据点分配自适应和最优邻居来学习数据相似矩阵。主要假设是,距离较小的数据点成为邻居的概率较大。更重要的是,对相似矩阵的拉普拉斯矩阵施加秩约束,以实现理想的邻域分配,使得数据中的连接分量与聚类数精确,并且每个连接分量对应于一个聚类。新模型同时学习数据相似度矩阵和聚类结构,以获得最佳聚类结果。

推导了一种新的高效算法来解决这个具有挑战性的问题,并从理论上分析了我们的方法与K均值聚类和谱聚类之间的联系。此外,扩展了所提出的用于投影聚类的聚类模型以处理高维数据。

符号:

整篇论文中所有的符号都是大写:

符号表示
mim_imimijm_{ij}mij矩阵M的第i行,M的第(i,j)个元素
∥v∥2\lVert v \rVert_2v2向量v的L2范式
∥M∥F\lVert M\rVert_FMF矩阵M的Frobenius范数
III单位矩阵
1\textbf{1}1列向量,所有元素为1

向量v,矩阵M大于等于0,其中所有的元素均大于等于0

自适应邻域聚类

给定数据集x1,x2,...,xn,X∈Rn×d{x_1, x_2, ..., x_n},X\in \mathbb{R}^{n \times d}x1,x2,...,xnXRn×d作为数据矩阵。

xi∈Rd×1x_i \in \mathbb{R} ^{d \times 1}xiRd×1的邻居可以定义为数据集中与xix_ixi最近的k个数据点,本文中考虑概率邻居,简单起见,使用欧几里得距离作为距离度量。

对于xix_ixi,每个数据点可以以概率sijs_{ij}sij的概率作为邻居连接到xix_ixi

一个较小的距离∣∣xi−xj∣∣22||x_i-x_j||_2^2∣∣xixj22应分配到更大的sijs_{ij}sij,确定概率sij∣j=1ns_{ij}|_{j=1}^nsijj=1n的自然方法是解决以下问题:
min⁡siT1=1,0≤si≤1∑j=1n∣∣xi−xj∣∣22sij(1)\mathop{\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1}^{n} ||x_i-x_j|| _2 ^2 s_{ij} \tag{1} minsiT1=1,0si1j=1n∣∣xixj22sij(1)
其中 si∈Rn×1s_i ∈ \mathbb{R}^{n \times 1}siRn×1 是第 j 个元素为 sijs_{ij}sij的向量。

问题(1)有平凡解(例Ax=0中的0解),即只有最近的数据点可以是概率为1的xi的邻居,而所有其他数据点不能是xi的邻居。

在数据中不涉及任何距离信息的情况下解决以下问题:
min⁡siT1=1,0≤si≤1∑j=1nsij2(2)\mathop {\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1} ^n s_{ij} ^2 \tag{2} minsiT1=1,0si1j=1nsij2(2)
最优解决方案是所有数据点都可以是xix_ixi的邻居,其概率为1n\frac{1}{n}n1

结合(1)和(2),解决如下问题:
min⁡siT1=1,0≤si≤1∑j=1n(∣∣xi−xj∣∣22sij+γsij2)(3)\mathop {\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1} ^n (||x_i-x_j|| _2 ^2 s_{ij} + \gamma s_{ij} ^2 ) \tag{3} minsiT1=1,0si1j=1n(∣∣xixj22sij+γsij2)(3)
上式中第二项是正则化,γ\gammaγ是正则化参数,记dijx=∣∣xi−xj∣∣22,dix∈Rn×1d_{ij}^x = ||x_i-x_j||_2^2,d_i^x \in \mathbb{R}^{n \times 1}dijx=∣∣xixj22,dixRn×1表示为第j个元素为dijxd_{ij}^xdijx的向量。问题(3)可以写成向量的形式。
min⁡siT1=1,0≤si≤1∑j=1n∣∣si+12γdix∣∣22(4)\mathop{\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1}^{n} ||s_i+\frac{1}{2 \gamma}d_i^x|| _2 ^2\tag{4} minsiT1=1,0si1j=1n∣∣si+2γ1dix22(4)

公式(3)到公式(4)的证明:
min⁡∑j=1n(∣∣xi−xj∣∣22sij+γsij2)=min⁡∑i=1n∑j=1ndijxsij+γ∣∣s∣∣F2=min⁡∑i=1nsiTdix+γ∣∣s∣∣F2=min⁡∑i=1n(siTdix+γsiTsi)=γmin⁡∑i=1n(siTsi+1γsiTdix)=γmin⁡∑i=1n(siTsi+212γsiTdix+dixTdix(2γ)2−dixTdix(2γ)2)最后一项是常数,舍去=γmin⁡∑i=1n(siTsi+212γsiTdix+dixTdix(2γ)2)=γmin⁡∑i=1n∣∣si+12γdix∣∣22\begin{align} &\mathop {\min} \sum_{j=1} ^n (||x_i-x_j|| _2 ^2 s_{ij} + \gamma s_{ij} ^2 ) \\ & = \mathop {\min} \sum_{i=1}^n \sum_{j=1} ^n d_{ij}^x s_{ij} + \gamma ||s||_F ^2 \\ & = \mathop{\min} \sum_{i=1}^n s_i^T d_i^x +\gamma ||s||_F^2 \\ & = \mathop{\min} \sum_{i=1}^n (s_i^T d_i^x + \gamma s_i^Ts_i) \\ & =\gamma \mathop{\min} \sum_{i=1}^n (s_i^Ts_i + \frac{1}{\gamma}s_i^Td_i^x) \\ & = \gamma \mathop{\min} \sum_{i=1}^n (s_i^Ts_i + 2\frac{1}{2\gamma}s_i^Td_i^x + \frac{{d_i^x}^Td_i^x}{(2\gamma)^2}- \frac{{d_i^x}^Td_i^x}{(2\gamma)^2} ) \quad最后一项是常数,舍去 \\ & = \gamma \mathop{\min} \sum_{i=1}^n (s_i^Ts_i + 2\frac{1}{2\gamma}s_i^Td_i^x + \frac{{d_i^x}^Td_i^x}{(2\gamma)^2}) \\ & = \gamma \mathop{\min} \sum_{i=1}^n ||s_i + \frac{1}{2\gamma} d_i^x||_2^2 \end{align} minj=1n(∣∣xixj22sij+γsij2)=mini=1nj=1ndijxsij+γ∣∣sF2=mini=1nsiTdix+γ∣∣sF2=mini=1n(siTdix+γsiTsi)=γmini=1n(siTsi+γ1siTdix)=γmini=1n(siTsi+22γ1siTdix+(2γ)2dixTdix(2γ)2dixTdix)最后一项是常数,舍去=γmini=1n(siTsi+22γ1siTdix+(2γ)2dixTdix)=γmini=1n∣∣si+2γ1dix22
对每个数据点xix_ixi,可以使用等式(3)分配其邻居,因此可以解决以下问题为所有数据点分配邻居:
min⁡∀i,siT1=1,0≤si≤1∑j=1n(∣∣xi−xj∣∣22sij+γsij2)(5)\mathop {\min}_{\forall i, s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1} ^n (||x_i-x_j|| _2 ^2 s_{ij} + \gamma s_{ij} ^2 ) \tag{5} mini,siT1=1,0si1j=1n(∣∣xixj22sij+γsij2)(5)
理想的邻居分配是数据中的连通分量是精确的c。通常对于γ\gammaγ的任意值,等式(5)并不能达到理想情况。多数情况下,所有数据点仅作为一个连通分量作为连接。为了实现理想的分配,(5)中的概率sij∣j=1ns_{ij}|_{j=1}^nsijj=1n应受到约束,使邻域分配成为一个自适应的过程,以使连通分量精确为c。这种对相似性的结构化约束是基本的,但也很难处理。本文中,提出一种新颖但非常简单的方法来实现这一目标。

邻域分配得到的矩阵S∈Rn×nS \in \mathbb{R}^{n \times n}SRn×n可以看成以 n 个数据点为节点的图的相似度矩阵。假设每个节点 i 被分配一个函数值为 fi∈Rc×1f_i \in \mathbb{R}^{c \times 1}fiRc×1,那么可以验证:
∑i,j=1n∣∣fi−fj∣∣22sij=2Tr(FTLsF)(6)\sum_{i,j=1}^n ||f_i-f_j||_2^2s_{ij} = 2Tr(F^TL_sF) \tag{6} i,j=1n∣∣fifj22sij=2Tr(FTLsF)(6)
其中F∈Rn×cF \in \mathbb{R}^{n \times c}FRn×c第i行是fif_ifi,LS=DS−ST+S2L_S=D_S-\frac{S^T+S}{2}LS=DS2ST+S是拉普拉斯矩阵,DSD_SDS是对角矩阵,第i个对角元素是∑j(sij+sji)/2\sum_j(s_{ij}+s_{ji})/2j(sij+sji)/2

若 相似矩阵S为非负,则拉普拉斯矩阵有如下性质:

  • 定理1:

    相似矩阵S对应的拉普拉斯矩阵LSL_SLS特征值为0的重数 c 等于相似矩阵S对应的图中连通分量的个数

定理1表明,若LSL_SLS的秩为n−cn-cnc(拉普拉斯矩阵是对称的,实对称矩阵必可相似对角化,可相似对角化的矩阵的秩等于非零特征值的个数)。那么得到的连通分量的个数刚好为c个,这时的邻居分配是理想的分配,并且基于S将点分成了c个簇类。不需要执行k-means或其他离散化过程。在问题(5)中添加额外的秩约束r(LS)=n−cr(L_S)=n-cr(LS)=nc,以实现具有清晰聚类结构的理想邻居分配。
Jopt=min⁡S∑i,j=1n(∣∣xi−xj∣∣22sij+γsij2)s.t∀i,siT1=1,0≤si≤1,rank(Ls)=n−c(7)J_{opt} = \mathop{\min}_S \sum_{i,j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2) \tag{7} \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1 ,rank(L_s) = n-c Jopt=minSi,j=1n(∣∣xixj22sij+γsij2)s.ti,siT1=1,0si1,rank(Ls)=nc(7)
问题(7)难以解决,因为拉普拉斯矩阵LSL_SLS以及度矩阵DSD_SDS依赖于S,秩约束也难以处理。

求解问题(7)的优化算法

σi(LS)\sigma _i(L_S)σi(LS)LSL_SLS的第i个最小特征值,σi(LS)≥0\sigma _i(L_S) \geq 0σi(LS)0LSL_SLS半正定) 对于足够大的λ\lambdaλ值,问题(7)等价于:
min⁡S∑i,j=1n(∣∣xi−xj∣∣22sij+γsij2)+2λ∑i=1cσi(Ls)s.t∀i,siT1=1,0≤si≤1(8)\mathop{\min}_S \sum_{i,j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2) \tag{8} +2 \lambda \sum_{i=1}^c \sigma_i(L_s) \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1 minSi,j=1n(∣∣xixj22sij+γsij2)+2λi=1cσi(Ls)s.ti,siT1=1,0si1(8)
λ\lambdaλ足够大时,由于σi≥0\sigma_i \geq0σi0,问题(8)的最优解S将会使第二项∑i=1cσi(LS)\sum_{i=1}^c \sigma_i(L_S)i=1cσi(LS)变成0。因此可以满足问题(7)中的约束秩n-c

根据相关定理:
∑i=1cσi(LS)=min⁡F∈Rn×c,FTF=ITr(FTLSF)(9)\sum_{i=1}^c \sigma_i(L_S) = \mathop{\min}_{F \in \mathbb{R}^{n \times c},F^TF=I}Tr(F^TL_SF) \tag{9} i=1cσi(LS)=minFRn×c,FTF=ITr(FTLSF)(9)
因此,问题(8)进一步等价于以下问题:
min⁡S∑i,j=1n(∣∣xi−xj∣∣22sij+γsij2)+2λTr(FTLSF)s.t∀i,siT1=1,0≤si≤1,F∈Rn×c,FTF=I(10)\mathop{\min}_S \sum_{i,j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2) \tag{10} +2 \lambda Tr(F^TL_SF) \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1,F \in R^{n \times c},F^TF=I minSi,j=1n(∣∣xixj22sij+γsij2)+2λTr(FTLSF)s.ti,siT1=1,0si1,FRn×c,FTF=I(10)
相较于问题(7),问题10更容易求解。

当S固定时,问题10 变成:
min⁡F∈Rn×c,FTF=ITr(FTLSF)(11)\mathop{\min}_{F \in \mathbb{R}^{n \times c},F^TF=I}Tr(F^TL_SF) \tag{11} minFRn×c,FTF=ITr(FTLSF)(11)
问题(11)的最优解F由LSL_SLS的c个最小特征值的对应的c个特征向量形成。

当F固定时问题10变为:
min⁡S∑i,j=1n(∣∣xi−xj∣∣22sij+γsij2)+2λTr(FTLSF)s.t∀i,siT1=1,0≤si≤1(12)\mathop{\min}_S \sum_{i,j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2) \tag{12} +2 \lambda Tr(F^TL_SF) \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1 minSi,j=1n(∣∣xixj22sij+γsij2)+2λTr(FTLSF)s.ti,siT1=1,0si1(12)
根据等式6,问题12可以写为:
min⁡S∑i,j=1n(∣∣xi−xj∣∣22sij+γsij2+λ∣∣fi−fj∣∣22sij)s.t∀i,siT1=1,0≤si≤1(13)\mathop{\min}_S \sum_{i,j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2 \tag{13} + \lambda ||f_i-f_j||_2^2s_{ij} ) \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1 minSi,j=1n(∣∣xixj22sij+γsij2+λ∣∣fifj22sij)s.ti,siT1=1,0si1(13)
问题13在不同i之间是独立的,因此可以针对每个i分别解决以下问题:
min⁡si∑j=1n(∣∣xi−xj∣∣22sij+γsij2+λ∣∣fi−fj∣∣22sij)s.t∀i,siT1=1,0≤si≤1(14)\mathop{\min}_{s_i} \sum_{j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2 \tag{14} + \lambda ||f_i-f_j||_2^2s_{ij} ) \\ s.t \quad \forall i,s_i^T \textbf{1} = 1, 0 \leq s_i \leq 1 minsij=1n(∣∣xixj22sij+γsij2+λ∣∣fifj22sij)s.ti,siT1=1,0si1(14)
dijx=∣∣xi−xj∣∣22,dijf=∣∣fi−fj∣∣22,di∈Rn×1d_{ij}^x = ||x_i-x_j||_2^2,d_{ij}^f = ||f_i-f_j||_2^2,d_i \in \mathbb{R}^{n \times 1}dijx=∣∣xixj22,dijf=∣∣fifj22,diRn×1表示为第j个元素为dij=dijx+λdijfd_{ij}=d_{ij}^x+\lambda d_{ij}^fdij=dijx+λdijf的向量。问题14可以写成向量的形式:
min⁡siT1=1,0≤si≤1∑j=1n∣∣si+12γdi∣∣22(15)\mathop{\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1}^{n} ||s_i+\frac{1}{2 \gamma}d_i|| _2 ^2\tag{15} minsiT1=1,0si1j=1n∣∣si+2γ1di22(15)

公式14到公式15的证明:
min⁡si∑j=1n(∣∣xi−xj∣∣22sij+γsij2+∣∣fi−fj∣∣22sij)=min⁡∑i=1n∑j=1n(sijdijx+λijdijf)+λ∣∣S∣∣F2=min⁡∑i=1n(siTdix+γ∣∣si∣∣22+λsiTdif)=min⁡∑i=1n(siT(dix++λdif)+γ∣∣si∣∣22)=min⁡∑i=1n(siTdi+γ∣∣si∣∣22)=min⁡∑i=1n(siTdi+γsiTsi)=γmin⁡∑i=1n(siTsi+1γsiTdi)=γmin⁡∑i=1n(siTsi+212γsiTdi+diTdi4γ2−diTdi4γ2)最后一项常数,舍去=γmin∑i=1n∣∣si+12γdi∣∣22\begin{align} & \mathop{\min}_{s_i} \sum_{j=1}^n (||x_i-x_j||_2^2s_{ij}+\gamma s_{ij}^2 \tag{14} +||f_i-f_j||_2^2s_{ij} ) \\ & = \mathop{\min}\sum_{i=1}^n \sum_{j=1}^n(s_{ij}d_{ij}^x + \lambda_{ij}d_{ij}^f) + \lambda||S||_F^2 \\ & = \mathop{\min}\sum_{i=1}^n (s_i^Td_i^x + \gamma||s_i||_2^2 + \lambda s_i^T d_i^f) \\ & = \mathop{\min}\sum_{i=1}^n (s_i^T(d_i^x + + \lambda d_i^f) + \gamma||s_i||_2^2 ) \\ & = \mathop{\min}\sum_{i=1}^n (s_i^T d_i + \gamma||s_i||_2^2) \\ & = \mathop{\min}\sum_{i=1}^n (s_i^T d_i + \gamma s_i^T s_i )\\ & = \gamma\mathop{\min}\sum_{i=1}^n (s_i^T s_i + \frac{1}{\gamma}s_i^T d_i ) \\ & = \gamma\mathop{\min}\sum_{i=1}^n (s_i^T s_i + 2\frac{1}{2\gamma}s_i^T d_i +\frac{d_i^Td_i}{4\gamma^2}- \frac{d_i^Td_i}{4\gamma^2}) \quad最后一项常数,舍去 \\ & = \gamma \mathop{min} \sum_{i=1}^n||s_i+\frac{1}{2\gamma}d_i||_2^2 \end{align} minsij=1n(∣∣xixj22sij+γsij2+∣∣fifj22sij)=mini=1nj=1n(sijdijx+λijdijf)+λ∣∣SF2=mini=1n(siTdix+γ∣∣si22+λsiTdif)=mini=1n(siT(dix++λdif)+γ∣∣si22)=mini=1n(siTdi+γ∣∣si22)=mini=1n(siTdi+γsiTsi)=γmini=1n(siTsi+γ1siTdi)=γmini=1n(siTsi+22γ1siTdi+4γ2diTdi4γ2diTdi)最后一项常数,舍去=γmini=1n∣∣si+2γ1di22(14)

在这里插入图片描述

联系kmeans聚类

中心矩阵:
H=I−1n11T(16)H=I-\frac{1}{n} \textbf{1}\textbf{1}^T \tag{16} H=In111T(16)
Dx∈Rn×nD^x \in \mathbb{R}^{n \times n}DxRn×n作为距离矩阵,其中第(i,j)个元素是dijx=∣∣xi−xj∣∣22d_{ij}^x = ||x_i-x_j||_2^2dijx=∣∣xixj22,为了分析算法1与kmeans的联系,首先需要以下引理:

引理1:HDxH=−2HXXTHHD^xH=-2HXX^THHDxH=2HXXTH

证明:

dijx=∣∣xi−xj∣∣22=xiTxj+xjTxi−2xixjd_{ij}^x = ||x_i-x_j||_2^2 = x_i^Tx_j+x_j^Tx_i-2x_ix_jdijx=∣∣xixj22=xiTxj+xjTxi2xixjDx=Diag(XXT)11T+11TDiag(XXT)−2XXTD^x = Diag(XX^T) \textbf{11}^T+ \textbf{11}^T Diag(XX^T) -2XX^TDx=Diag(XXT)11T+11TDiag(XXT)2XXT,Diag(XXT)Diag(XX^T)Diag(XXT)是对角矩阵,对角元素是XXTXX^TXXT,注意:根据H的定义,H1=1TH=0H \textbf{1}=\textbf{1}^TH=0H1=1TH=0,我们有HDxH=−2HXXTHHD^xH=-2HXX^THHDxH=2HXXTH

引理2揭示了当γ→∞\gamma \rightarrow \inftyγ算法1解决了kmeans问题

引理2:当γ→∞\gamma \rightarrow \inftyγ,问题7等价于kmeans问题

证明:

问题7可以写为矩阵的形式:
min⁡S1=1,S≥0,rank(LS)=n−cTr(STDx)+γ∣∣S∣∣F2(17)\mathop{\min}_{S \textbf{1}=1,S \geq 0,rank(L_S)=n-c} Tr(S^TD^x)+ \gamma||S||_F^2 \tag{17} minS1=1,S0,rank(LS)=ncTr(STDx)+γ∣∣SF2(17)
由于约束rank(Ls)=n−c,Srank(L_s)=n-c,Srank(Ls)=nc,S 具有精确的ccc分量(即,s是具有适当置换的块对角)。假设S的第i个分量是Si∈Rni×niS_i\in \mathbb{R}^{n_i×ni}SiRni×ninin_ini是组件中数据点的数量,那么解决问题(17)就是解决每个i的以下问题:
min⁡Si1=1,Si≥0Tr(SiTDix)+γ∣∣Si∣∣F2(18)\mathop{\min}_{S_i \textbf{1}=1,S_i \geq 0} Tr(S_i^TD_i^x)+ \gamma||S_i||_F^2 \tag{18} minSi1=1,Si0Tr(SiTDix)+γ∣∣SiF2(18)
γ→∞\gamma \rightarrow \inftyγ,问题8变成:
min⁡Si1=1,Si≥0∣∣Si∣∣F2(19)\mathop{\min}_{S_i \textbf{1}=1,S_i \geq 0} ||S_i||_F^2 \tag{19} minSi1=1,Si0∣∣SiF2(19)
问题19的最优解是sis_isi的所有元素都等于1ni\frac{1}{n_i}ni1

因此,当γ→∞\gamma \rightarrow \inftyγ问题17的最优解应该是以下形式:
sij={1nkxi和xj在同一分量k中0其他情况(20)s_{ij} = \begin{cases} \frac{1}{n_k} & x_i和x_j在同一分量k中 \\ 0 & 其他情况 \\ \end{cases} \tag{20} sij={nk10xixj在同一分量k其他情况(20)

VVV表示满足等式20 的解集。对于c分量任意可能的划分,s具有等式20中的形式。∣∣S∣∣F2||S||_F^2∣∣SF2有相同的值,即∣∣S∣∣F2=c||S||_F^2=c∣∣SF2=c,问题17变成:
min⁡S∈VTr(STDx)(21)\mathop{\min}_{S \in V}Tr(S^TD^x) \tag{21} minSVTr(STDx)(21)

根据21中S的约束,S是对称的并且S1=1TS=1S\textbf{1}=\textbf{1}^TS=1S1=1TS=1,所以:Tr(HDxHS)=Tr(DxS)−1n1TDx1Tr(HD_xHS)=Tr(D_xS)- \frac{1}{n} \textbf{1}^T D_x \textbf{1}Tr(HDxHS)=Tr(DxS)n11TDx1并且因此问题21等价于解决以下问题:
min⁡S∈VTr(HDxHS)(22)\mathop{\min}_{S \in V}Tr(HD^xHS) \tag{22} minSVTr(HDxHS)(22)
定义标签矩阵Y∈Rn×cY \in \mathbb{R}^{n \times c}YRn×c,第(i,j)个元素是:
yij={1nksi属于第k个分量0其他情况(23)y_{ij}= \begin{cases} \frac{1}{\sqrt{n_k}} & s_i属于第k个分量 \\ \tag{23} 0 & 其他情况 \end{cases} yij={nk10si属于第k个分量其他情况(23)

根据等式22和引理1,可以得到:
min⁡S∈VTr(HDxHS)⟺max⁡S∈VTr(HXXTHSS)⟺max⁡S∈VTr(XTHSHX)⟺min⁡S∈VTr(XTH(I−S)HX)⟺min⁡YTr(XTH(I−YYT)HX)⟺min⁡YTr(Sw)\begin{align} & \mathop{\min}_{S\in V}Tr(HD_xHS) \\ & \iff \mathop{\max}_{S\in V}Tr(HXX^THSS) \\ & \iff \mathop{\max}_{S\in V}Tr(X^THSHX)\\ & \iff \mathop{\min}_{S\in V}Tr(X^TH(I-S)HX) \\ & \iff \mathop{\min}_Y Tr(X^TH(I-YY^T)HX) \\ & \iff \mathop{\min}_Y Tr(S^w) \tag{24} \end{align} minSVTr(HDxHS)maxSVTr(HXXTHSS)maxSVTr(XTHSHX)minSVTr(XTH(IS)HX)minYTr(XTH(IYYT)HX)minYTr(Sw)(24)

这正是kmeans问题,在经典线性判别分析(LDA)中,当给定数据的标签Y时,矩阵Sw称为类内散布矩阵。K-均值是找到最佳标记Y,使得类内散射矩阵tr(Sw)的轨迹最小化。

我们将在下一小节中看到,算法1中提出的方法与谱聚类密切相关。因此,当γ→∞\gamma \rightarrow \inftyγ虽然新算法是为了解决K-means问题(只能分割球形数据),当γ\gammaγ不是很大时,它可以分割任意形状的数据。我们还将在实验中看到,即使在γ\gammaγ不是很大的情况下,该新算法也可以找到更好的K-均值问题的解。

与谱聚类的联系

给定图的相似矩阵S,谱聚类是为了解决如下问题:
min⁡F∈Rn×c,FTF=ITr(FTLSF)(25)\mathop{\min}_{F\in R^{n \times c},F^TF=I}Tr(F^TL_SF) \tag{25} minFRn×c,FTF=ITr(FTLSF)(25)
通常,由于具有S的图不具有精确的c连通分量,因此不能直接用于聚类。应在F上执行K均值或其他离散化程序,以获得最终聚类结果

在算法1的收敛过程中,我们还获得了问题(25)的最优解F,不同之处在于,相似性S也是通过算法学习的。注意,在收敛过程中,问题(10)中的最后一项2λTr(FTLSF)2λTr(FTLSF)2λTr(FTLSF)将近似为零,学习的S主要通过求解问题5来实现。

由于秩约束,S有c个联通分量,因此最优解F,由LSL_SLS的c个最小特征值对应的特征向量组成,可以写为:
F=YQF=YQ F=YQ
Y∈Rn×cY \in \mathbb{R}^{n \times c}YRn×c是23中定义的标签矩阵,Q∈Rn×cQ \in \mathbb{R}^{n \times c}QRn×c是任意正交矩阵。也就是说,可以直接使用获得的F来获得最终的聚类结果,而无需像传统的谱聚类那样使用K均值或其他离散化过程。

可以看出,所提出的算法同时学习相似矩阵S和标签矩阵F,而传统的谱聚类仅在给定相似矩阵S的情况下学习F。因此,新算法在实践中可以获得更好的性能,因为它还学习用于聚类的自适应图。

确定γ\gammaγ的值

实际上正则化参数比较难以调整,因为其值可能从0到无穷大。本节提出有效的方法确定问题7中的γ\gammaγ

对于每个i,问题7中的目标函数等同于问题4中的一个,问题4中的拉格朗日函数为:
L(si,η,βi)=12∣∣si+dix2γi∣∣22−η(siT1−1)−βiTsi(27)\mathcal{L}(s_i,\eta,\beta_i) = \frac{1}{2}||s_i+\frac{d_i^x}{2\gamma^i}||_2^2 -\eta(s_i^T \textbf{1}-1)-\beta_i^Ts_i \tag{27} L(si,η,βi)=21∣∣si+2γidix22η(siT11)βiTsi(27)
其中ηηηβi≥0β_i≥ 0βi0是拉格朗日乘数。

根据kkt条件,可以验证最优解sis_{i}si应为:
sij=(−dijx2γi+η)+(28)s_{ij}=(-\frac{d_{ij}^x}{2 \gamma_i} + \eta)_+ \tag{28} sij=(2γidijx+η)+(28)
在实践中,如果我们关注数据的局部性,通常可以获得更好的性能。因此,最好学习稀疏si,即只有xi的k个最近邻居有机会连接到xi。学习稀疏相似矩阵S的另一个好处是,可以大大减轻后续处理的计算负担。

在不损失一般性的情况下,假设di1x、di2x、…、dinxd^x_{i1}、d^x_{i2}、…、d^x_{in}di1xdi2xdinx从小到大排序。如果最优si仅有k个非零元素,则根据等式28有sik>0,si,k+1=0s_{ik}>0 ,s_{i,k+1}=0sik>0,si,k+1=0。因此,我们有:
{−dijx2γi+η>0−dijx2γi+η≤0(29)\begin{cases} & -\frac{d_{ij}^x}{2 \gamma_i} + \eta >0 \\ & -\frac{d_{ij}^x}{2 \gamma_i} + \eta \leq 0 \tag{29} \end{cases} {2γidijx+η>02γidijx+η0(29)
根据 等式28 以及约束siT1=1s_i^T \textbf{1}=1siT1=1 可以得到:
∑j=1k(−dijx2γi+η)=1⇒η=1k+12kγi∑j=1kdijx(30)\sum _{j=1}^k(-\frac{d_{ij}^x}{2 \gamma_i} + \eta) =1\\ \Rightarrow \eta = \frac{1}{k}+\frac{1}{2k \gamma_i}\sum_{j=1}^k d_{ij}^x \tag{30} j=1k(2γidijx+η)=1η=k1+2kγi1j=1kdijx(30)
因此,根据 29和 30,对于 i,我们有以下不等式:
k2dikx−12∑j=1kdijx≤γi≤k2di,k+1x−12∑j=1kdijx(31)\frac{k}{2} d_{ik}^x - \frac{1}{2} \sum_{j=1}^k d_{ij}^x \leq \gamma_i \leq \frac{k}{2} d_{i,k+1}^x - \frac{1}{2} \sum_{j=1}^k d_{ij}^x \tag{31} 2kdikx21j=1kdijxγi2kdi,k+1x21j=1kdijx(31)
因此,为了获得具有精确k个非零值的问题4的最优解sis_isi,我们可以设置γi\gamma_iγi
γi=k2di,k+1x−12∑j=1kdijk(32)\gamma_i = \frac{k}{2}d_{i,k+1}^x - \frac{1}{2} \sum_{j=1}^k d_{ij}^k \tag{32} γi=2kdi,k+1x21j=1kdijk(32)
γ\gammaγ可以设置为γ1,γ2,…,γn\gamma_1,\gamma_2,\dots,\gamma_nγ1,γ2,,γn的平均值,我们可以将γ\gammaγ设置为:
γi=1n∑i=1n(k2di,k+1x−12∑j=1kdijk)(33)\gamma_i = \frac{1}{n} \sum_{i=1}^n (\frac{k}{2}d_{i,k+1}^x - \frac{1}{2} \sum_{j=1}^k d_{ij}^k) \tag{33} γi=n1i=1n(2kdi,k+1x21j=1kdijk)(33)
邻域数k比正则化参数γ更容易调整,因为k是一个整数,具有明确的含义。

计算sijs_{ij}sij过程:
(28):sij=(−dijx2γi+η)+(30):η=1k+12kγi∑j=1kdijx(32):γi=k2di,k+1x−12∑j=1kdijk\begin{align} & (28):s_{ij}=(-\frac{d_{ij}^x}{2 \gamma_i} + \eta)_+ \\ & (30): \eta = \frac{1}{k}+\frac{1}{2k \gamma_i}\sum_{j=1}^k d_{ij}^x \\ & (32):\gamma_i = \frac{k}{2}d_{i,k+1}^x - \frac{1}{2} \sum_{j=1}^k d_{ij}^k \end{align} (28):sij=(2γidijx+η)+(30):η=k1+2kγi1j=1kdijx(32):γi=2kdi,k+1x21j=1kdijk
32带入30:
η=1k+∑j=1kdijxk2di,k+1x−k∑j=1xdijx=1k(1+∑j=1kdijxkdi,k+1x−∑j=1xdijx),括号里面求和后再乘1k=di,k+1xkdi,k+1x−∑j=1xdijx\begin{align} & \eta = \frac{1}{k} + \frac{\sum_{j=1}^k d_{ij}^x}{k^2 d_{i,k+1}^x-k\sum_{j=1}^xd_{ij}^x} \\ & = \frac{1}{k}(1 + \frac{\sum_{j=1}^k d_{ij}^x}{k d_{i,k+1}^x-\sum_{j=1}^xd_{ij}^x}) ,括号里面求和后再乘\frac{1}{k}\\ & = \frac{ d_{i,k+1}^x}{k d_{i,k+1}^x-\sum_{j=1}^xd_{ij}^x} \end{align} η=k1+k2di,k+1xkj=1xdijxj=1kdijx=k1(1+kdi,k+1xj=1xdijxj=1kdijx),括号里面求和后再乘k1=kdi,k+1xj=1xdijxdi,k+1x
将上式以及32带入28可得:
sij={di,k+1x−dijxkdi,k+1x−∑j=1kdijx,j≤k0,j>ks_{ij}= \begin{cases} \frac{d_{i,k+1}^x-d_{ij}^x}{kd_{i,k+1}^x-\sum_{j=1}^kd_{ij}^x} ,& j \leq k\\ 0, & j>k \end{cases} sij=kdi,k+1xj=1kdijxdi,k+1xdijx,0,jkj>k

自适应领域投影聚类

目标是找到一个最优子空间,在该子空间上执行自适应邻域,以便在数据中有精确的c连通分量。

总散射矩阵St=XTHXS_t=X^T H XSt=XTHX,H是16中定义的中心矩阵,假设我们要学习一个投影矩阵W∈Rd×mW \in \mathbb{R}^{d \times m}WRd×m

我们用WTStW=IW^TS_tW=IWTStW=I约束子空间,使得子空间上的数据在统计上不相关。

如等式(5)所示,我们通过解决以下问题为每个数据分配邻居:
min⁡S,W∑i,j=1n(∥WTxi−WTxj∥22sij+γsij2)s.t. ∀i,siT1=1,0≤si≤1,WTStW=I\begin{align} &\min _{S, W} \sum_{i, j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) \tag{34} \\ &\text { s.t. } \quad \forall i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I \end{align} S,Wmini,j=1n(WTxiWTxj22sij+γsij2) s.t. i,siT1=1,0si1,WTStW=I(34)
类似地,为了使邻域分配是自适应的,使得数据中的连通分量是精确的c,我们对秩的S施加约束rank(LS)=n− c

因此,我们提出了同时学习投影W和聚类的以下问题:
min⁡S,W∑i,j=1n(∥WTxi−WTxj∥22sij+γsij2)s.t. ∀i,siT1=1,0≤si≤1,WTStW=I,rank⁡(LS)=n−c\begin{align} &\min _{S, W} \sum_{i, j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) \tag{35}\\ &\text { s.t. } \quad \forall i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I, \operatorname{rank}\left(L_S\right)=n-c \end{align} S,Wmini,j=1n(WTxiWTxj22sij+γsij2) s.t. i,siT1=1,0si1,WTStW=I,rank(LS)=nc(35)

对问题35的优化

使用与2.1小节相同的技巧,我们知道解决问题(35)等同于解决以下问题
min⁡S,W,F∑i,j=1n(∥WTxi−WTxj∥22sij+γsij2)+2λTr(FTLSF)s.t. i,siT1=1,0≤si≤1,WTStW=I,F∈Rn×c,FTF=I\begin{align} \min _{S, W, F} & \sum_{i, j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) +2 \lambda T r\left(F^T L_S F\right) \tag{36} \\ \text { s.t. } \quad & \quad i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I, F \in R^{n \times c}, F^T F=I \end{align} S,W,Fmin s.t. i,j=1n(WTxiWTxj22sij+γsij2)+2λTr(FTLSF)i,siT1=1,0si1,WTStW=I,FRn×c,FTF=I(36)
交替优化法:

S,W固定:

问题(36)变成问题(11),最优解F由对应于c个最小特征值的LS的c个特征向量构成。

F固定,36变成:
min⁡S,W,F∑i,j=1n(∥WTxi−WTxj∥22sij+γsij2)+2λTr⁡(FTLSF)s.t. ∀i,siT1=1,0≤si≤1,WTStW=I\begin{align} \min _{S, W, F} & \sum_{i, j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) +2 \lambda \operatorname{Tr}\left(F^T L_S F\right) \tag{37} \\ \text { s.t. } \quad & \forall i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I \end{align} S,W,Fmin s.t. i,j=1n(WTxiWTxj22sij+γsij2)+2λTr(FTLSF)i,siT1=1,0si1,WTStW=I(37)

  • 在37中,s固定:问题变为:
    min⁡WTStW=I∑i,j=1n∥WTxi−WTxj∥22sij(38)\min _{W^T S_t W=I} \sum_{i, j=1}^n\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j} \tag{38} WTStW=Imini,j=1nWTxiWTxj22sij(38)
    根据等式6 可重写为:
    min⁡WTStW=ITr⁡(WTXTLSXW)(39)\min _{W^T S_t W=I} \operatorname{Tr}\left(W^T X^T L_S X W\right) \tag{39} WTStW=IminTr(WTXTLSXW)(39)
    问题(39)的最优解W由S的m个特征向量构成St−1XTLSXS_t^{-1} X^T L_S XSt1XTLSX(约束中有个StS_tSt 所以左边要加上逆)对应于m个最小特征值(我们假设数据X的零空间被移除,即St是可逆的)

  • 在37中,w固定:问题变为:
    min⁡S,W,F∑i,j=1n(∥WTxi−WTxj∥22sij+γsij2)+λ∑i,j=1n∣∣fi−fj∣∣22sij)s.t. ∀i,siT1=1,0≤si≤1,WTStW=I\begin{align} \min _{S, W, F} & \sum_{i, j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) + \lambda \sum_{i, j=1} ^n||f_i-f_j||_2^2s_{ij} ) \tag{40} \\ \text { s.t. } \quad & \forall i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I \end{align} S,W,Fmin s.t. i,j=1n(WTxiWTxj22sij+γsij2)+λi,j=1n∣∣fifj22sij)i,siT1=1,0si1,WTStW=I(40)
    请注意,问题(40)在不同的i之间是独立的,因此我们可以针对每个i分别解决以下问题:
    min⁡S,W,F∑j=1n(∥WTxi−WTxj∥22sij+γsij2)+λ∑j=1n∣∣fi−fj∣∣22sij)s.t. ∀i,siT1=1,0≤si≤1,WTStW=I\begin{align} \min _{S, W, F} & \sum_{ j=1}^n\left(\left\|W^T x_i-W^T x_j\right\|_2^2 s_{i j}+\gamma s_{i j}^2\right) + \lambda \sum_{ j=1} ^n||f_i-f_j||_2^2s_{ij} ) \tag{41} \\ \text { s.t. } \quad & \forall i, s_i^T \mathbf{1}=1,0 \leq s_i \leq 1, W^T S_t W=I \end{align} S,W,Fmin s.t. j=1n(WTxiWTxj22sij+γsij2)+λj=1n∣∣fifj22sij)i,siT1=1,0si1,WTStW=I(41)
    dijwx=∣∣xi−xj∣∣22,dijf=∣∣fi−fj∣∣22,diw∈Rn×1d_{ij}^{wx} = ||x_i-x_j||_2^2,d_{ij}^f = ||f_i-f_j||_2^2,d_i^w \in \mathbb{R}^{n \times 1}dijwx=∣∣xixj22,dijf=∣∣fifj22,diwRn×1表示为第j个元素为dijw=dijwx+λdijfd_{ij}^w=d_{ij}^{wx}+\lambda d_{ij}^fdijw=dijwx+λdijf的向量。问题14可以写成向量的形式:
    min⁡siT1=1,0≤si≤1∑j=1n∣∣si+12γdiw∣∣22(42)\mathop{\min}_{s_i^T \textbf{1}=1,0 \leq s_{i} \leq 1} \sum_{j=1}^{n} ||s_i+\frac{1}{2 \gamma}d_i^w|| _2 ^2\tag{42} minsiT1=1,0si1j=1n∣∣si+2γ1diw22(42)
    这与等式(15)中的问题相同,可以用闭式解求解。

    算法2中总结了解决问题(35)的详细算法。我们还可以使用等式(33)来确定正则化参数γ\gammaγ

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_404135.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

特殊的线性规划:目标函数中的变量数目少于约束中的变量数目

如下,目标函数为min(x1),该函数中只存在一个变量x1,但是约束中存在x2变量,线性规划还能求解吗?如下,目标函数为min (x_1),该函数中只存在一个变量x_1,但是约束中存在x_2变量&#xf…

ES Elasticsearch

ES 本章知识点 三 ES简介 3.1 数据分类 我们生活中的数据总体分为三种:结构化数据,非结构化数据,半结构化数据结构化数据:指具有固定格式或有限长度的数据,如数据库,元数据等。 非结构化数据&#xff1…

【百日刷题计划 第十一天】——熟悉函数,递归及递推 函数,递归及递推基础题

文章目录💥前言😉解题报告💥[NOIP2001 普及组] 数的计算🤔一、思路:😎二、源码:😮三、代码分析:🤗 鸡汤来咯:💥前言 ☀️大家好☀️,我…

2018年美亚杯电子数据取证大赛-团体赛

😋大家好,我是YAy_17,是一枚爱好网安的小白,正在自学ing。 本人水平有限,欢迎各位大佬指点,一起学习💗,一起进步⭐️。 ⭐️此后如竟没有炬火,我便是唯一的光。⭐️ 目…

RISC-V学习基础(五)

RISC-V汇编语言 C程序翻译成为可以在计算机上执行的机器语言程序的四个经典步骤。 函数调用规范(Calling convention) 函数调用过程通常分为6个阶段: 将参数存储到函数能够访问的位置。跳转到函数开始位置(使用RV32I的jal指令…

考研图论算法

图论——txf 倘若考研需要像写算法题目那样,写出图论的代码,那无疑图论是最难级别的。 -----Williams Tian 1. 重点表述 ①线形表可以空表,树可以空树,但是图不能一个顶点也没有(允许一条边也没有). ②…

ETC-4 week 3th

ETC-4 week 3th 出奇至胜 read They are only charged for the amount of power they consume on rainy days.They needn’t pay a single cent for their power consumption(消耗能量) on sunny days.(13 june) consume v 消耗 耗尽 吃光 喝光 沉溺 浪费LOL consumes(消耗…

安装docker,打包jar包镜像文件,输出tar压缩包

打包 jar 步骤在文章最后,不需要安装的请直接跳到文末查看 一键安装命令: curl -sSL https://get.daocloud.io/docker | sh设置开机自启并启动docker systemctl enable docker.service启动docker systemctl start docker查看docker状态 systemctl s…

创新洞见|2023年B2B业务为何必须采用PLG增长策略

随着采用PLG模式的大型企业数量不断增加,91%的公司计划在2022年增加对PLG战略的投资,市场上已经验证了PLG公司的表现优于其竞争对手,规模增长更快,并拥有更高的企业价值(EV)。PLG象征着购买决策者的转变&am…

【附源码】计算机毕业设计SSM数据时代下的疫情管理系统

项目运行 环境配置: Jdk1.8 Tomcat7.0 Mysql HBuilderX(Webstorm也行) Eclispe(IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持)。 项目技术: SSM mybatis Maven Vue 等等组成,B/S模式 M…

Java多线程之Thread和Runnable关于共享资源的对比

背景 Thread和Runnable关于共享资源的对比,网上看到很多不正确的结论如下: Thread类创建多线程,无法保证多个线程对共享资源的正确操作,而Runnable接口可以保证多个线程对共享资源的正确访问。 得到这个结论的原因如下&#xff1…

【Pytorch】learning notes

文章目录【torch.xxx】torch.addmm() / torch.addmm_()torch.clamp() / torch.clamp_()torch.eq() / torch.ne()torch.manual_seed()torch.unique()torch.save() / torch.load()torch.view() / torch.permute() / torch. transpose() / torch.reshape()【torch.cuda.xxx】torch…

可以替代911s5的这几款产品还有跨境人士不知道吗?

不久前跨境电商用户都收到的坏消息无疑就是:911s5正式宣布停止运营并永久关闭。对于911s5,相信几乎所有的跨境电商用户都知道,因为其低廉的价格一直很受欢迎。所以一时间大家纷纷寻找911s5的替代品,但不是那么容易找的。今天这篇文…

投资组合图形化:EAP.util.plot

实证资产定价(Empirical asset pricing)已经发布于Github和Pypi. 包的具体用法(Documentation)博主将会陆续在CSDN中详细介绍,也可以通过Pypi直接查看。 Pypi: pip install --upgrade EAP HomePage: EAP a catchy description …

38 字典名[键名]=值 向字典增加键值对

38 字典名[键名]值 向字典增加键值对 文章目录38 字典名[键名]值 向字典增加键值对1. 语法2. 代码示例1. 字典中有要操作的键名—作用为修改2. 字典中没有要操作的键名—作用是增加3. 课后练习4. 列表增加元素知识回顾5. 总结1. 语法 向字典中增加键值对和修改字典的值的语法结…

开箱即用的数据缓存服务|EMQX Cloud 影子服务应用场景解析

在物联网业务高速迭代的今天,快速连接物联网设备与平台应用,实现业务快速落地与市场验证,是很多企业塑造核心竞争力、实现业务创新的关键。 EMQX Cloud 作为一站式运维代管的 MQTT 消息云服务,可以帮助用户在公有云环境中快速实现…

JavaScript:模拟拍照

实现拍照功能需要使用电脑的摄像头,可以使用 navigator.mediaDevices.getUserMedia() 方法,传递相应的参数就能开启摄像头 navigator.mediaDevices 是一个媒体设备对象,通过 getUserMedia( )方法开启音频和视频媒体设备。 getUserMedia 参数…

文献阅读-融合注意力机制的 IETM 细粒度跨模态检索算法

引用格式:翟一琛,顾佼佼,宗富强,姜文志.融合注意力机制的 IETM 细粒度跨模态 检索算法[J/OL].系统工程与电子技术. https://kns.cnki.net/kcms/detail/11.2422.TN.20220823.1030.004.html 期刊&#xff1a…

跟李沐学AI-动手学深度学习1

整体内容 神经网络可以理解为是一种语言 数学和代码的结合,道术结合,关键在动手 是什么,怎么做,为什么这样 发展知识和应用 广告点击预测三个步骤 预测和训练 模型控制广告展现 数据格式 0维,1维&#xff0c…

【仿牛客网笔记】初识Spring Boot,开发社区首页-MyBatis入门

安装MySQL Server 安装MySQL Workbench 安装过程略。。。 Mybatis手册 Mybatis整合 Mybatis的核心组件: SqlSessionFactory:用于创建SqlSessionFactory工厂类。 SqlSession:Mybatis的核心组件,用于数据库执行SQL 主配置文件:XM…