Advances in Graph Neural Networks笔记4:Heterogeneous Graph Neural Networks

news/2024/5/21 10:00:46/文章来源:https://blog.csdn.net/PolarisRisingWar/article/details/127967538

诸神缄默不语-个人CSDN博文目录

本书网址:https://link.springer.com/book/10.1007/978-3-031-16174-2
本文是本书第四章的学习笔记。
感觉这一章写得不怎么样。以研究生组会讲异质图神经网络主题论文作为标准的话,倒是还行,介绍了HGNN的常见范式和三个经典模型。以教材或综述作为标准的话,建议别买。

文章目录

  • 1. HGNN
  • 2. heterogeneous graph propagation network (hpn)
    • 2.1 semantic confusion
    • 2.2 HPN模型架构
    • 2.3 HPN损失函数
  • 2. distance encoding-based heterogeneous graph neural network (DHN)
    • 2.1 HDE概念定义
    • 2.2 DHN+链路预测
  • 3. self-supervised heterogeneous graph neural network with co-contrastive learning (HeCo)
  • 4. Further Reading

1. HGNN

两步信息聚合:

对目标节点

  1. node-level:对每个metapath聚合所有邻居节点
  2. semantic level:聚合所有metapath表征

本文介绍的方法关注两个问题:deep degradation phenomenon and discriminative power

2. heterogeneous graph propagation network (hpn)

分析deep degradation phenomenon问题,减缓semantic confusion

2.1 semantic confusion

semantic confusion类似同质图GNN中的过拟合问题
在这里插入图片描述
HAN模型在不同层上的聚类结果和论文节点表征的可视化图像,每种颜色代表一种标签(研究领域)。

(本文中对semantic confusion现象的解释很含混,略)

HPN一文证明了HGNN和mutiple meta-paths-based random walk是等价的:
multiple meta-paths-based random walk(感觉跟同质图随机游走也差不太多嘛,就是多个用metapath处理如同质图的随机游走概率叠起来):
在这里插入图片描述

加上步数到极限以后,数学部分我就不太懂了。总之单看表示形式的话依然跟同质图随机游走相似,意思就是说最终分布只与metapaths有关,与初始状态无关:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

与之相对,meta-path-based random walk with restart的极限分布是与初始状态有关的:
meta-path-based random walk with restart:πΦ,k(i)=(1−γ)⋅MΦ⋅πΦ,k−1(i)+γ⋅i\boldsymbol{\pi }^{\Phi ,k}\left( \boldsymbol{i}\right) =(1-\gamma )\cdot {\textbf{M}^{\Phi }}\cdot \boldsymbol{\pi }^{\Phi ,k-1} \left( \boldsymbol{i}\right) +\gamma \cdot \boldsymbol{i}πΦ,k(i)=(1γ)MΦπΦ,k1(i)+γi
在这里插入图片描述
在这里插入图片描述

2.2 HPN模型架构

HPN包含两部分:

  1. semantic propagation mechanism:除基于meta-path-based neighbors聚合信息外,还以一合适的权重吸收节点的局部语义信息,这样即使层数加深也能学习节点的局部信息(我说这逻辑听起来像APPNP啊)
  2. semantic fusion mechanism:学习metapaths的重要性

  1. Semantic Propagation Mechanism
    参考meta-path-based random walk with restart:
    对每个metapath邻居,先对节点做线性转换,然后聚合邻居信息(一式是底下两式的加总):
    ZΦ=PΦ(X)=gΦ(fΦ(X))HΦ=fΦ(X)=σ(X⋅WΦ+bΦ)ZΦ,k=gΦ(ZΦ,k−1)=(1−γ)⋅MΦ⋅ZΦ,k−1+γ⋅HΦ\begin{aligned} &\textbf{Z}^{\Phi } = \mathcal {P}_{\Phi }(\textbf{X}) =g_{\Phi }({f_{\Phi }(\textbf{X}))}\\ &\textbf{H}^{\Phi }= f_{\Phi }(\textbf{X})=\sigma (\textbf{X} \cdot \textbf{W}^{\Phi }+\textbf{b}^{\Phi })\\ &\textbf{Z}^{\Phi ,k} = g_{\Phi }(\textbf{Z}^{\Phi ,k-1}) =(1-\gamma )\cdot {\textbf{M}^{\Phi }}\cdot \textbf{Z}^{\Phi ,k-1} + \gamma \cdot \textbf{H}^{\Phi } \end{aligned}ZΦ=PΦ(X)=gΦ(fΦ(X))HΦ=fΦ(X)=σ(XWΦ+bΦ)ZΦ,k=gΦ(ZΦ,k1)=(1γ)MΦZΦ,k1+γHΦ
  2. Semantic Fusion Mechanism:注意力机制
    Z=F(ZΦ1,ZΦ2,…,ZΦP)wΦp=1∣V∣∑i∈VqT⋅tanh⁡(W⋅ziΦp+b)βΦp=exp⁡(wΦp)∑p=1Pexp⁡(wΦp)Z=∑p=1PβΦp⋅ZΦp\begin{aligned} &\textbf{Z}=\mathcal {F}(\textbf{Z}^{\Phi _1},\textbf{Z}^{\Phi _2},\ldots ,\textbf{Z}^{\Phi _{P}})\\ &w_{\Phi _p} =\frac{1}{|\mathcal {V}|}\sum _{i \in \mathcal {V}} \textbf{q}^\textrm{T} \cdot \tanh ( \textbf{W} \cdot \textbf{z}_{i}^{\Phi _p} +\textbf{b})\\ &\beta _{\Phi _p}=\frac{\exp (w_{\Phi _p})}{\sum _{p=1}^{P} \exp (w_{\Phi _p})}\\ &\textbf{Z}=\sum _{p=1}^{P} \beta _{\Phi _p}\cdot \textbf{Z}^{\Phi _p} \end{aligned}Z=F(ZΦ1,ZΦ2,,ZΦP)wΦp=V1iVqTtanh(WziΦp+b)βΦp=p=1Pexp(wΦp)exp(wΦp)Z=p=1PβΦpZΦp

2.3 HPN损失函数

半监督节点分类的损失函数:
L=−∑l∈YLYl⋅ln⁡(Zl⋅C)\mathcal {L}=-\sum _{l \in \mathcal {Y}_{L}} \textbf{Y}_{l} \cdot \ln ( \textbf{Z}_{l} \cdot \textbf{C})L=lYLYlln(ZlC)

无监督节点推荐(?这什么任务)的损失函数,BPR loss with negative sampling:
L=−∑(u,v)∈Ωlog⁡σ(zu⊤zv)−∑(u,v′)∈Ω−log⁡σ(−zu⊤zv′),\begin{aligned} \mathcal {L}=-\sum _{(u, v) \in \Omega } \log \sigma \left( \textbf{z}_{u}^{\top } \textbf{z}_{v}\right) -\sum _{\left( u^{}, v^{\prime }\right) \in \Omega ^{-}} \log \sigma \left( -\textbf{z}_{u}^{\top } \textbf{z}_{v'}\right) , \end{aligned}L=(u,v)Ωlogσ(zuzv)(u,v)Ωlogσ(zuzv),
第一项是observed (positive) node pairs,第二项是negative node pairs sampled from all unobserved node pairs

(HPN实验部分略。简单地说,做了ablation study,做了无监督节点聚类任务,验证了模型对层级加深的鲁棒性(与HAN对比))

2. distance encoding-based heterogeneous graph neural network (DHN)

关注discriminative power:在聚合时加入heterogeneous distance encoding (HDE)(distance encoding (DE) 也是一个同质图GNN中用过的概念)

Heterogeneous Graph Neural Network with Distance Encoding

传统HGNN嵌入各个节点,本文关注节点之间的关联。

在这里插入图片描述

2.1 HDE概念定义

heterogeneous shortest path distance:节点数最少路径的节点数
在这里插入图片描述

在这里插入图片描述
上图中所指的图片就是下图:
在这里插入图片描述
在这里插入图片描述

HDE
异质图最短路径距离Hete-SPD:每一维度衡量一类节点在最短路径中出现的次数(不包括第一个节点)
在这里插入图片描述

目标节点对锚节点(组)的HDE:目标节点对所有锚节点Hete-SPD先嵌入,后融合
在这里插入图片描述
在这里插入图片描述

2.2 DHN+链路预测

Heterogeneous Distance Encoding for Link Prediction

目标节点分别是节点对的两个节点,锚节点组也就是这两个节点。

  1. Node Embedding Initialization:HDE
  2. Heterogeneous distance encoding:仅计算k-hop heterogeneous enclosing subgraph的HDE
  3. Heterogeneous type encoding
    ci=onehot(ϕ(i))ei{u,v}=σ(W0⋅ci∣∣hi{u,v}+b0)\begin{aligned} &\textbf{c}_{i} = onehot(\phi (i))\\ &\textbf{e}_i^{\{u, v\}} =\sigma (\textbf{W}_0 \cdot \textbf{c}_i||\textbf{h}_i^{\{u, v\}} + \textbf{b}_0) \end{aligned}ci=onehot(ϕ(i))ei{u,v}=σ(W0cihi{u,v}+b0)
  4. Heterogeneous Graph Convolution:先抽样邻居节点
    xu,l{u,v}=σ(Wl⋅(xu,l−1{u,v}∣∣Avg{xi,l−1{u,v}}+bl),∀i∈Nu{u,v}\begin{aligned} \textbf{x}_{u, l}^{\{u, v\}}=\sigma (\textbf{W}^{l} \cdot (\textbf{x}_{u,l-1}^{\{u, v\}}|| Avg \{\textbf{x}_{i,l-1}^{\{u, v\}}\} +\textbf{b}^{l}), \forall i \in \mathcal {N}^{\{u, v\}}_u \end{aligned}xu,l{u,v}=σ(Wl(xu,l1{u,v}Avg{xi,l1{u,v}}+bl),iNu{u,v}
  5. Loss Function and Optimization
    y^u,v=σ(W1⋅(zu{u,v}∣∣zv{u,v})+b1)L=∑(u,v)∈E+∪E−(yu,vlog⁡y^u,v+(1−yu,v)log⁡(1−y^u,v))\begin{aligned} &\hat{y}_{u,v}=\sigma \left( \textbf{W}_1 \cdot (\textbf{z}_u^{\{u, v\}}||\textbf{z}_v^{\{u, v\}}) +b_1\right)\\ &\mathcal {L}=\sum _{(u, v) \in \mathcal {E}^+\cup \mathcal {E}^-}\left( y_{u, v} \log \hat{y}_{u, v}+\left( 1-y_{u, v}\right) \log \left( 1-\hat{y}_{u, v}\right) \right) \end{aligned}y^u,v=σ(W1(zu{u,v}zv{u,v})+b1)L=(u,v)E+E(yu,vlogy^u,v+(1yu,v)log(1y^u,v))

(实验部分略。同时做了transductive和inductive场合下的链路预测任务)

3. self-supervised heterogeneous graph neural network with co-contrastive learning (HeCo)

关注discriminative power:使用cross-view contrastive mechanism同时捕获局部和高阶结构

以前的工作:原网络VS破坏后的网络
HeCo选择的view:network schema(局部结构) and meta-path structure(高阶结构)
在这里插入图片描述
从两个view编码节点(编码时应用view mask mechanism),在两个view-specific embeddings之间应用对比学习。

  1. Node Feature Transformation:每种节点都映射到固定维度
    hi=σ(Wϕi⋅xi+bϕi)\begin{aligned} h_i=\sigma \left( W_{\phi _i} \cdot x_i+b_{\phi _i}\right)\end{aligned}hi=σ(Wϕixi+bϕi)
  2. Network Schema View Guided Encoder
    attention:节点级别和类别级别

    对某一metapath的邻居(在实践中是抽样一部分节点),应用节点级别attention:
    hiΦm=σ(∑j∈NiΦmαi,jΦm⋅hj)αi,jΦm=exp⁡(LeakyReLU(aΦm⊤⋅[hi∣∣hj]))∑l∈NiΦmexp⁡(LeakyReLU(aΦm⊤⋅[hi∣∣hl]))\begin{aligned} &h_i^{\Phi _m}=\sigma \left( \sum \limits _{j \in N_i^{\Phi _m}}\alpha _{i,j}^{\Phi _m} \cdot h_j\right)\\ &\alpha _{i,j}^{\Phi _m}=\frac{\exp \left( LeakyReLU\left( {\textbf {a}}_{\Phi _m}^\top \cdot [h_i||h_j]\right) \right) }{\sum \limits _{l\in N_i^{\Phi _m}} \exp \left( LeakyReLU\left( {\textbf {a}}_{\Phi _m}^\top \cdot [h_i||h_l]\right) \right) } \end{aligned}hiΦm=σjNiΦmαi,jΦmhjαi,jΦm=lNiΦmexp(LeakyReLU(aΦm[hihl]))exp(LeakyReLU(aΦm[hihj]))

    对所有metapath的嵌入,应用类别级别attention:
    wΦm=1∣V∣∑i∈Vasc⊤⋅tanh⁡(WschiΦm+bsc)βΦm=exp⁡(wΦm)∑i=1Sexp⁡(wΦi)zisc=∑m=1SβΦm⋅hiΦm\begin{aligned} w_{\Phi _m}&=\frac{1}{|V|}\sum \limits _{i\in V} {\textbf {a}}_{sc}^\top \cdot \tanh \left( {\textbf {W}}_{sc}h_i^{\Phi _m}+{\textbf {b}}_{sc}\right) \\ \beta _{\Phi _m}&=\frac{\exp \left( w_{\Phi _m}\right) }{\sum _{i=1}^S\exp \left( w_{\Phi _i}\right) }\\ z_i^{sc}&=\sum _{m=1}^S \beta _{\Phi _m}\cdot h_i^{\Phi _m} \end{aligned}wΦmβΦmzisc=V1iVasctanh(WschiΦm+bsc)=i=1Sexp(wΦi)exp(wΦm)=m=1SβΦmhiΦm

在这里插入图片描述

  1. Meta-Path View Guided Encoder
    meta-path表示语义相似性,用meta-path specific GCN编码:
    hiPn=1di+1hi+∑j∈NiPn1(di+1)(dj+1)hj\begin{aligned} h_i^{\mathcal {P}_n}=\frac{1}{d_i+1}h_i+\sum \limits _{j\in {N_i^{\mathcal {P}_n}}}\frac{1}{\sqrt{(d_i+1)(d_j+1)}}h_j \end{aligned}hiPn=di+11hi+jNiPn(di+1)(dj+1)1hj
    在所有metapath的表征上加attention:
    zimp=∑n=1MβPn⋅hiPnwPn=1∣V∣∑i∈Vamp⊤⋅tanh⁡(WmphiPn+bmp)βPn=exp⁡(wPn)∑i=1Mexp⁡(wPi)\begin{aligned} z_i^{mp}&=\sum _{n=1}^M \beta _{\mathcal {P}_n}\cdot h_i^{\mathcal {P}_n}\\ w_{\mathcal {P}_n}&=\frac{1}{|V|}\sum \limits _{i\in V} {\textbf {a}}_{mp}^\top \cdot \tanh \left( {\textbf {W}}_{mp}h_i^{\mathcal {P}_n}+{\textbf {b}}_{mp}\right) \\ \beta _{\mathcal {P}_n}&=\frac{\exp \left( w_{\mathcal {P}_n}\right) }{\sum _{i=1}^M\exp \left( w_{\mathcal {P}_i}\right) } \end{aligned}zimpwPnβPn=n=1MβPnhiPn=V1iVamptanh(WmphiPn+bmp)=i=1Mexp(wPi)exp(wPn)
  2. 增加对比难度:view mask mechanism
    在这里插入图片描述
    network schema view:不使用目标节点本身上一级别的嵌入
    meta-path view:不使用与目标节点不同类(不是目标节点基于metapath的邻居的节点)的嵌入
  3. Collaboratively Contrastive Optimization
    损失函数:传统对比学习+图数据

    将两个view得到的嵌入映射到对比学习的隐空间:
    zisc_proj=W(2)σ(W(1)zisc+b(1))+b(2)zimp_proj=W(2)σ(W(1)zimp+b(1))+b(2)\begin{aligned} \begin{aligned} z_i^{sc}\_proj&= W^{(2)}\sigma \left( W^{(1)}z_i^{sc}+b^{(1)}\right) +b^{(2)}\\ z_i^{mp}\_proj&= W^{(2)}\sigma \left( W^{(1)}z_i^{mp}+b^{(1)}\right) +b^{(2)} \end{aligned} \end{aligned}zisc_projzimp_proj=W(2)σ(W(1)zisc+b(1))+b(2)=W(2)σ(W(1)zimp+b(1))+b(2)
    计算两个节点之间连的metapath数:Ci(j)=∑n=1M1(j∈NiPn)\mathbb {C}_i(j) = \sum \limits _{n=1}^M \mathbb {1}\left( j\in N_i^{\mathcal {P}_n}\right)Ci(j)=n=1M1(jNiPn)1(⋅)\mathbb {1}(\cdot )1()是indicator function)
    将与节点i有metapath相连的节点组成集合Si={j∣j∈VandCi(j)≠0}S_i=\{j|j\in V\ and\ \mathbb {C}_i(j)\ne 0\}Si={jjV and Ci(j)=0},基于Ci(⋅)\mathbb {C}_i(\cdot )Ci()数降序排列,如果节点集合元素数大于某一阈值,选出该阈值数个正样本Pi\mathbb {P}_iPi,没选出来的作为负样本Ni\mathbb {N}_iNi

    计算network schema view的对比损失:
    Lisc=−log⁡∑j∈Piexp(sim(zisc_proj,zjmp_proj)/τ)∑k∈{Pi⋃Ni}exp(sim(zisc_proj,zkmp_proj)/τ)\begin{aligned} \mathcal {L}_i^{sc}=-\log \frac{\sum _{j\in \mathbb {P}_i}exp\left( sim\left( z_i^{sc}\_proj,z_j^{mp}\_proj\right) /\tau \right) }{\sum _{k\in \{\mathbb {P}_i\bigcup \mathbb {N}_i\}}exp\left( sim\left( z_i^{sc}\_proj,z_k^{mp}\_proj\right) /\tau \right) }\end{aligned}Lisc=logk{PiNi}exp(sim(zisc_proj,zkmp_proj)/τ)jPiexp(sim(zisc_proj,zjmp_proj)/τ)
    在这里插入图片描述
    总的学习目标:
    J=1∣V∣∑i∈V[λ⋅Lisc+(1−λ)⋅Limp]\begin{aligned} \mathcal {J} = \frac{1}{|V|}\sum _{i\in V}\left[ \lambda \cdot \mathcal {L}_i^{sc}+\left( 1-\lambda \right) \cdot \mathcal {L}_i^{mp}\right] \end{aligned}J=V1iV[λLisc+(1λ)Limp]

(和前两篇一样,实验部分略。重要比较baseline有single-view的对比学习方法DMGI。做了节点分类任务,和Collaborative Trend Analysis(计算随训练epoch数增加,attention变化情况。可以发现两个view上attention是协同演变的))

4. Further Reading

惯例啦,因为参考文献序号匹配不上,所以不确定我找的论文 是否正确。
分层级聚合/intent recommendation/文本分类/GTN-软择边类型、自动生成metapaths/HGT-用heterogeneous mutual attention聚合meta-relation triplet/MAGNN-用relational rotation encoder聚合meta-path instances

  1. Neural graph collaborative filtering
  2. HGNN: Hyperedge-based graph neural network for MOOC Course Recommendation
  3. COSNET: Connecting Heterogeneous Social Networks with Local and Global Consistency
  4. Metapath-guided Heterogeneous Graph Neural Network for Intent Recommendation
  5. IntentGC: a Scalable Graph Convolution Framework Fusing Heterogeneous Information for Recommendation
  6. Heterogeneous Graph Attention Networks for Semi-supervised Short Text Classification
  7. Graph Transformer Networks
  8. Heterogeneous Graph Transformer
  9. MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding:聚合每个metapath实例内所有节点的信息,然后聚合到每个metapath上,然后将所有metapath表征聚合到目标节点上

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_224335.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

csdn月入过万的作者是如何练成的?

很多年前,我有一个成为作家的梦想。 后来从事了技术,觉得与作家梦越来越远了。 虽然梦想远去,但写字的欲望没有停止。 这些年,一直在有道云笔记上记录自己的工作心得,偶尔会来csdn上写一写。 我在csdn真正发力的时候…

openGauss数据库客户端连接工具之Datastudio安装

Datastudio使用前电脑必须安装jdk1.8版本或者1.11版本,如未安装可点击以下连接,参考第一步把jdk给安装成功。 点击此处查看jdk安装步骤 Datastudio下载地址:软件包|Datastudio 下载完成后,解压安装包,双击exe文件打开…

链表中快慢指针的应用

目录 一、链表的中间结点 二、回文链表 三、链表中倒数第K个结点 四、删除链表的倒数第n个结点 五、环形链表 六、环形链表Ⅱ 一、链表的中间结点 给定一个头结点为 head 的非空单链表,返回链表的中间结点。 如果有两个中间结点,则返回第二个中间…

基于Spring Cloud的架构使用学习升级之路

引言 Spring Cloud全家桶用了挺长时间了,很长一段时间都是基于已有的架构进行需求研发。今年成为团队技术负责人,承担了新的项目,这是很好的一个机会,于是开启了项目架构升级之路。 架构,是团队项目的根基。在一个团…

为什么开源在线表单工具能做好数据管理?

在数字化时代,数据的有效应用和管理可以说是企业的无形资产,做好数据管理既能提升办公效率,又能帮助企业从规律的数字化管理中获取高效的管理策略。那么,什么样的开源在线表单工具可以实现这一目的?对于企业而言&#…

token的使用

一:什么是token及token的作用? 1.什么是token? Token是首次登录时,由服务器下发,作为客户端进行请求时的一个令牌。当请求后台方法时,用于身份验证 当第一次登录后,服务器生成一个Token便将此…

【SpringBoot】SpringBoot+SpringSecurity+CAS实现单点登录

文章目录一.CAS的概述1.SSO2.CAS3.概念二.CAS的流程三.CAS服务端部署1.下载地址2.源码打包3.部署运行4. java.io.FileNotFoundException: \etc\cas\thekeystore (系统找不到指定的文件。)四.CAS的定制1.定制数据源2.兼容 HTTP3.定制登录页五.SpringBoot集成CAS1.工程创建2.导入…

【OpenCV 例程 300篇】248. 特征描述之HOG描述符

『youcans 的 OpenCV 例程300篇 - 总目录』 【youcans 的 OpenCV 例程 300篇】248. 特征描述之HOG描述符 1. 方向梯度直方图 方向梯度直方图(Histogram of Oriented Gradient, HOG)使用梯度方向的分布作为特征来构造描述符,应用非常广泛。 梯…

十万部冷知识:“澳大利亚”为什么属于亚洲球队?

在2022年卡塔尔世界杯上,总共有6支球队入围,他们分别是日本队,韩国队,沙特队,伊朗队,澳大利亚队,还有就是东道主卡塔尔队。但是我们知道,澳大利亚,并不是亚洲的国家&…

前端面试题(JS部分)

目录一, 数据类型1,什么是引用类型,值类型?2,哪些值类型3,哪些引用类型4,判断数据类型5,typeof判断6,instanceof7,construtor二,浅拷贝 / 深拷贝1…

在阿里云 ACK 上部署 EMQX MQTT 服务器集群

云进入以「应用为中心」的云原生阶段,Operator 模式的出现,则为 Kubernetes 中的自动化任务创建配置与管理提供了一套行之有效的标准规范。通过将运维知识固化成高级语言 Go/Java 代码,使得运维知识可以像普通软件一样交付,并能支…

Jmeter的使用说明

一、安装Jmeter工具 链接:https://pan.baidu.com/s/1ZYc15eq9DO-r0ChKHxMXlg?pwdckcd 提取码:ckcd --来自百度网盘超级会员V5的分享二、Jmeter的常用元器件说明 jmeter八大元件件:取样器,前置处理器,后置处理器&a…

MySQL的高阶学习:索引、B+树

1.索引 索引是一种数据结构,如果没有索引,查找一个数据就需要从第一页开始全局检索直至找到需要的数据,有了索引可以先在目录中根据拼音查找到该数据所在的页数,因此通过索引可以大大减少了查询时间。 索引有两种存储类型&#xf…

汽车安全气囊设计?Abaqus/Part特殊建模方法-附案例step-by-step教学

作者 | 邓怡超 Abaqus/Part基于特征的建模功能可以说非常齐全,基本能够满足一般的分析要求,更复杂的模型则可以通过与专业三维建模软件之间的接口来导入,今天要说的是部件的另外一种建模方法。 有一种类型的分析,部件自身的初始…

Linux基础8 - 网络配置

Linux基础8 - 网络配置 一、网络连接的三种方式 Vmware为我们提供了三种网络工作模式,它们分别是:Bridged(桥接模式)、NAT(网络地址转换模式)、Host-Only(仅主机模式)。 1、桥接模式…

zabbix日志监控:操作系统、业务系统、文件大小、多行日志

zabbix日志监控:操作系统、业务系统、文件大小、多行日志 目录1 监控操作系统日志2 监控业务系统日志具体要求:分析:操作:3 监控日志文件大小(1)在被管主机当中安装agent(2)在以下za…

Activity、Fragment之间的传值

1、Activity和Activity之间传值 1、使用Intent 2、使用Intent结合Bundle IntentBundle 3、传自定义对象实现(实现Serialzable接口,性能较差,系统自动处理) 传自定义对象 4、传自定义对象(实现Parcelable,性能较好…

操作系统复习【面试】

操作系统复习【面试】前言推荐操作系统复习第一章 操作系统引论 11.3 操作系统的基本特性 141.3.1 并发1.3.2 共享1.3.3 虚拟1.3.4 异步1.4 操作系统的主要功能 171.4.1 处理机管理功能1.4.2 存储器管理功能1.4.3 设备管理功能1.4.4 文件管理功能1.4.5 操作系统和用户之间的接口…

MySQL Hash Join前世今生

GreatSQL社区原创内容未经授权不得随意使用,转载请联系小编并注明来源。GreatSQL是MySQL的国产分支版本,使用上与MySQL一致。作者:nw MySQL Hash Join前世今生 因工作需要,对MySQL Hash Join的内部实现做了一些探索和实践&#x…

内部类_Java

作者:爱塔居的博客_CSDN博客-JavaSE领域博主 专栏:JavaSE 文章目录 目录 文章目录 一、内部类的概念 二、内部类的分类 1.静态内部类(被static修饰) 2.非静态内部类 3.局部内部类 4.匿名内部类 一、内部类的概念 当一个事物…