机器学习笔记之高斯网络(二)高斯贝叶斯网络

news/2024/5/3 14:21:40/文章来源:https://blog.csdn.net/qq_34758157/article/details/128032321

机器学习笔记之高斯网络——高斯贝叶斯网络

  • 引言
    • 回顾
      • 高斯网络
      • 贝叶斯网络:因子分解
    • 高斯贝叶斯网络:因子分解

引言

上一节介绍了高斯网络及其条件独立性,本节将介绍高斯贝叶斯网络

回顾

高斯网络

高斯网络最核心的特点是:随机变量集合中的随机变量均是连续型随机变量,并且均服从高斯分布
已知某随机变量集合X\mathcal XX中包含ppp个特征,整个高斯网络中所有结点的联合概率分布服从多元高斯分布
X=(x1,x2,⋯,xp)TP(X)=1(2π)p2∣Σ∣12exp⁡[−12(x−μ)TΣ−1(x−μ)]\begin{aligned} \mathcal X & = (x_1,x_2,\cdots,x_p)^T \\ \mathcal P(\mathcal X) & = \frac{1}{(2\pi)^{\frac{p}{2}}|\Sigma|^{\frac{1}{2}}} \exp \left[-\frac{1}{2}(x - \mu)^T\Sigma^{-1}(x - \mu)\right] \end{aligned}XP(X)=(x1,x2,,xp)T=(2π)2pΣ211exp[21(xμ)TΣ1(xμ)]
其中期望μ\muμ协方差矩阵Σ\SigmaΣ表示如下:
μ=(μ1μ2⋮μp)p×1σ=(σ11,σ12,⋯,σ1pσ21,σ22,⋯,σ2p⋮σp1,σp2,⋯,σpp)p×p\mu = \begin{pmatrix} \mu_1\\ \mu_2 \\ \vdots \\ \mu_p \end{pmatrix}_{p \times 1} \quad \sigma = \begin{pmatrix} \sigma_{11},\sigma_{12},\cdots,\sigma_{1p} \\ \sigma_{21},\sigma_{22},\cdots,\sigma_{2p} \\ \vdots \\ \sigma_{p1},\sigma_{p2},\cdots,\sigma_{pp} \\ \end{pmatrix}_{p \times p}μ=μ1μ2μpp×1σ=σ11,σ12,,σ1pσ21,σ22,,σ2pσp1,σp2,,σppp×p

  • 随机变量之间的边缘独立性:如果随机变量xi,xj(i,j∈{1,2,⋯,p};i≠j)x_i,x_j (i,j \in \{1,2,\cdots,p\};i\neq j)xi,xj(i,j{1,2,,p};i=j)对应协方差矩阵的结果Cov(xi,xj)=σij=0Cov(x_i,x_j) = \sigma_{ij} = 0Cov(xi,xj)=σij=0,那么称xi,xjx_i,x_jxi,xj不相关的。也称xi,xjx_i,x_jxi,xj边缘独立或者绝对独立
    σij=0⇒xi⊥xj\sigma_{ij} = 0 \Rightarrow x_i \perp x_jσij=0xixj
  • 随机变量之间的条件独立性:如果随机变量xi,xj(i,j∈{1,2,⋯,p};i≠j)x_i,x_j(i,j \in \{1,2,\cdots,p\};i \neq j)xi,xj(i,j{1,2,,p};i=j)对应精度矩阵(Precision Matrix)结果λij=0\lambda_{ij} = 0λij=0,称给定除去xi,xjx_i,x_jxi,xj之外其他结点的条件下,xi,xjx_i,x_jxi,xj相互独立
    其中Λ=[λij]p×p\Lambda = [\lambda_{ij}]_{p \times p}Λ=[λij]p×p表示精度矩阵,它是协方差矩阵的‘逆矩阵’。
    λij=0⇒xi⊥xj∣x−i−j\lambda_{ij} = 0 \Rightarrow x_i \perp x_j \mid x_{-i-j}λij=0xixjxij

贝叶斯网络:因子分解

基于贝叶斯网络有向图的性质,针对随机变量集合X\mathcal XX联合概率分布P(X)\mathcal P(\mathcal X)P(X)进行表达。
已知随机变量集合X\mathcal XX包含ppp个维度特征,因而X\mathcal XX联合概率分布P(X)\mathcal P(\mathcal X)P(X)表示如下:
P(X)=P(x1,x2,⋯,xp)\mathcal P(\mathcal X) = \mathcal P(x_1,x_2,\cdots,x_p)P(X)=P(x1,x2,,xp)
针对联合概率分布求解,最朴素的方式是条件概率的链式法则(Chain Rule):
P(x1,x2,⋯,xp)=P(x1)⋅∏i=2pP(xi∣x1,⋯,xi−1)\mathcal P(x_1,x_2,\cdots,x_p) = \mathcal P(x_1) \cdot \prod_{i=2}^p \mathcal P(x_i \mid x_1,\cdots,x_{i-1})P(x1,x2,,xp)=P(x1)i=2pP(xix1,,xi1)
但如果随机变量集合X\mathcal XX维度过高,这种链式法则计算代价很大。可以将对应的概率图模型视作完全图——任意两个特征之间都需要求解其关联关系
贝叶斯网络的条件独立性 可以极大程度地简化运算过程。给定贝叶斯网络的表达方式,可以直接写出各节点的联合概率分布
P(x1,x2,⋯,xp)=∏i=1pP(xi∣xpa(i))\mathcal P(x_1,x_2,\cdots,x_p) = \prod_{i=1}^p \mathcal P(x_i \mid x_{pa(i)})P(x1,x2,,xp)=i=1pP(xixpa(i))
其中xpa(i)x_{pa(i)}xpa(i)表示xix_ixi结点的父节点组成的集合

高斯贝叶斯网络:因子分解

已知贝叶斯网络中一共包含ppp个结点,它的联合概率分布(因子分解)表示如下:
P(X)=∏i=1pP(xi∣xpa(i))\mathcal P(\mathcal X) = \prod_{i=1}^p \mathcal P(x_i \mid x_{pa(i)})P(X)=i=1pP(xixpa(i))

全局模型(Global Model) 角度观察,高斯贝叶斯网络是基于线性高斯模型(局部模型(Local Model))的模型架构。

  • 局部模型架构:对于线性高斯模型并不陌生,在卡尔曼滤波中对线性高斯模型又了一定认识。

    从宏观角度认识线性高斯模型,即模型中某节点与父结点之间存在线性关系,并且噪声服从高斯分布
    可以理解为:高斯贝叶斯网络中的‘有向边’表示节点与父节点之间的‘具有高斯分布噪声的线性关系’。
    这里已知X,Y\mathcal X,\mathcal YX,Y是两个随机变量集合X\mathcal XX的边缘概率分布P(X)\mathcal P(\mathcal X)P(X)条件概率分布P(Y∣X)\mathcal P(\mathcal Y \mid \mathcal X)P(YX)表示如下:
    {P(X)∼N(μX,ΣX)P(Y∣X)∼N(AX+B,ΣY)\begin{cases} \mathcal P(\mathcal X) \sim \mathcal N(\mu_{\mathcal X},\Sigma_{\mathcal X}) \\ \mathcal P(\mathcal Y \mid \mathcal X) \sim \mathcal N(\mathcal A \mathcal X + \mathcal B,\Sigma_{\mathcal Y}) \end{cases}{P(X)N(μX,ΣX)P(YX)N(AX+B,ΣY)
    局部模型描述结点之间的关联关系 表示如下:
    高斯贝叶斯网络——局部模型
    同理,关于结点Y\mathcal YY边缘概率分布P(Y)\mathcal P(\mathcal Y)P(Y)以及P(X),P(Y∣X)\mathcal P(\mathcal X),\mathcal P(\mathcal Y \mid \mathcal X)P(X),P(YX)推断结果P(X∣Y)\mathcal P(\mathcal X \mid \mathcal Y)P(XY)同样服从高斯分布。具体结果表示如下:
    推导过程详见:高斯分布——推断任务之边缘概率分布与条件概率分布
    P(Y)∼N(Aμ+B,AΣXAT+ΣY)P(X∣Y)∼N(Σ{ATΣY−1(Y−B)+Aμ},Σ)Σ=ΣX−1+ATΣY−1A−1\begin{aligned} \mathcal P(\mathcal Y) & \sim \mathcal N(\mathcal A \mu + \mathcal B,\mathcal A\Sigma_{\mathcal X}\mathcal A^T + \Sigma_{\mathcal Y}) \\ \mathcal P(\mathcal X \mid \mathcal Y) & \sim \mathcal N(\Sigma\left\{\mathcal A^T\Sigma_{\mathcal Y}^{-1}(\mathcal Y - \mathcal B) + \mathcal A \mu\right\},\Sigma) \quad \Sigma = \Sigma_{\mathcal X}^{-1} + \mathcal A^T \Sigma_{\mathcal Y}^{-1}\mathcal A^{-1} \end{aligned}P(Y)P(XY)N(Aμ+B,AΣXAT+ΣY)N(Σ{ATΣY1(YB)+Aμ},Σ)Σ=ΣX1+ATΣY1A1

实际上,卡尔曼滤波(Kalman Filter)自身就是一个特殊的高斯贝叶斯网络。它的概率图模型表示如下:
卡尔曼滤波——示例
由于齐次马尔可夫假设、观测独立性假设的约束,概率图中无论是观测变量O={o1,⋯,oT}\mathcal O = \{o_1,\cdots,o_T\}O={o1,,oT}还是隐变量I={i1,⋯,iT}\mathcal I = \{i_1,\cdots,i_T\}I={i1,,iT},它们均仅有一个父节点

  • 基于齐次马尔可夫假设,相邻隐变量it,it−1i_t,i_{t-1}it,it1之间的条件概率表示为:
    P(it∣it−1)∼N(A⋅it−1+B,Q)\mathcal P(i_t \mid i_{t-1}) \sim \mathcal N(\mathcal A \cdot i_{t-1} + \mathcal B,\mathcal Q)P(itit1)N(Ait1+B,Q)
  • 基于观测独立性假设隐变量iti_tit对应时刻观测变量oto_tot之间的条件概率表示为:
    P(ot∣it)∼N(C⋅it+D,R)\mathcal P(o_t \mid i_t) \sim \mathcal N(\mathcal C\cdot {i_t} + \mathcal D,\mathcal R)P(otit)N(Cit+D,R)

基于上述假设,对随机变量之间关联关系的表示(Representation)描述为:
之所以将噪声均值设置为0 -> 均值偏差可以归纳到对应偏置项B,D\mathcal B,\mathcal DB,D中。
{it=A⋅it−1+B+ϵϵ∼N(0,Q)ot=C⋅it+D+δδ∼N(0,R)\begin{cases} i_t = \mathcal A \cdot i_{t-1} + \mathcal B + \epsilon \quad \epsilon \sim \mathcal N(0,\mathcal Q) \\ o_t = \mathcal C \cdot i_t + \mathcal D + \delta \quad \delta \sim \mathcal N(0,\mathcal R) \end{cases}{it=Ait1+B+ϵϵN(0,Q)ot=Cit+D+δδN(0,R)

相比之下,高斯贝叶斯网络并没有假设约束,结点中可能存在多个父节点组成的集合。
给定一个高斯贝叶斯网络的局部图如下:
这里仅讨论xix_ixi与其父节点们之间的关系,其余部分略掉了。
高斯贝叶斯网络——局部
很明显:x1,x2,⋯,xkx_1,x_2,\cdots,x_kx1,x2,,xk均是xix_ixi父节点,将局部模型延伸到一个更大的局部模型
这里x1,x2,⋯,xkx_1,x_2,\cdots,x_kx1,x2,,xk以及xix_ixi均是一维随机变量

  • 假设xix_ixi父节点集合中仅包含一个随机变量(x1x_1x1为例),那么P(xi∣xpa(i))\mathcal P(x_{i} \mid x_{pa(i)})P(xixpa(i))可表示为:
    P(xi∣xpa(i))→P(xi∣x1)∼N(wi1⋅x1,σi2)\mathcal P(x_{i} \mid x_{pa(i)}) \to \mathcal P(x_i \mid x_1) \sim \mathcal N(w_{i1} \cdot x_1,\sigma_{i}^2)P(xixpa(i))P(xix1)N(wi1x1,σi2)
    对应xi,x1x_i,x_1xi,x1随机变量之间关联关系的表示 为:
    xi=μi+wi1⋅(x1−μ1)+σi⋅ϵiϵ∼N(0,1)x_i = \mu_i + w_{i1} \cdot (x_1 - \mu_1) + \sigma_{i}\cdot \epsilon_i \quad \epsilon \sim \mathcal N(0,1)xi=μi+wi1(x1μ1)+σiϵiϵN(0,1)
    关于上述公式的一些个人理解

    • 多出来的μi,μ1\mu_i,\mu_1μi,μ1是哪来的:为了简化运算,通常对‘随机变量的分布’进行平移’,就是去中心化。因而上述式子可以表示为:
      xi−μi=wi1⋅(x1−μ1)+σi⋅ϵix_i - \mu_i = w_{i1} \cdot (x_1 - \mu_1) + \sigma_i \cdot \epsilon_{i}xiμi=wi1(x1μ1)+σiϵi
    • 执行线性运算之后,方差必然会发生变化。应变化为wi12⋅σi2w_{i1}^2 \cdot \sigma_i^2wi12σi2,但是P(xi∣x1)\mathcal P(x_i \mid x_1)P(xix1)并没有变化,依旧是σi2\sigma_i^2σi2:方差变化是xix_ixi的边缘概率分布P(xi)\mathcal P(x_i)P(xi),而不是P(xi∣x1)\mathcal P(x_i \mid x_1)P(xix1),这也是线性高斯模型的假设方式。
    • 偏置项去哪了:最终都需要‘去中心化’,将分布的均值(中心)回归零点,因而被省略掉了,或者也可理解为‘合并到’μi\mu_iμi中。

    欢迎小伙伴们交流讨论。

  • 同理,父结点集合中包含多个随机变量,将父结点集合看成向量形式,因而xpa(i)x_{pa(i)}xpa(i)以及对应权重信息Wi\mathcal W_iWi表示如下:
    xpa(i)=(x1,x2,⋯,xk)k×1TWi=(wi1,wi2,⋯,wik)k×1T\begin{aligned} x_{pa(i)} = (x_1,x_2,\cdots,x_k)_{k \times 1}^T \\ \mathcal W_i = (w_{i1},w_{i2},\cdots,w_{ik})_{k \times 1}^T \end{aligned}xpa(i)=(x1,x2,,xk)k×1TWi=(wi1,wi2,,wik)k×1T
    至此,P(xi∣xpa(i))\mathcal P(x_i \mid x_{pa(i)})P(xixpa(i))表示如下:
    P(xi∣xpa(i))=N(WiTxpa(i),σi2)=N(x1⋅wi1+⋯+xk⋅wik,σi2)\begin{aligned} \mathcal P(x_i \mid x_{pa(i)}) & = \mathcal N(\mathcal W_i^T x_{pa(i)},\sigma_i^2) \\ & = \mathcal N(x_1 \cdot w_{i1} + \cdots + x_k \cdot w_{ik},\sigma_i^2) \end{aligned}P(xixpa(i))=N(WiTxpa(i),σi2)=N(x1wi1++xkwik,σi2)
    因而xi,xpa(i)x_i,x_{pa(i)}xi,xpa(i)随机变量之间的关联关系表示为
    xi−μi=WiT(xpa(i)−μpa(i))+σi⋅ϵi=(wi1,wi2,⋯,wik)1×k[(x1x2⋮xk)−(μ1μ2⋮μk)]k×1+σi⋅ϵi=∑j∈xpa(i)wij(xj−μj)+σi⋅ϵi\begin{aligned} x_i - \mu_i & = \mathcal W_i^T (x_{pa(i)} - \mu_{pa(i)}) + \sigma_i \cdot \epsilon_i \\ & = \begin{pmatrix}w_{i1},w_{i2},\cdots,w_{ik}\end{pmatrix}_{1 \times k} \left[\begin{pmatrix}x_1 \\ x_2 \\ \vdots \\ x_k \end{pmatrix} - \begin{pmatrix}\mu_1 \\ \mu_2 \\ \vdots \\ \mu_k \end{pmatrix}\right]_{k \times 1} + \sigma_i \cdot \epsilon_i\\ & = \sum_{j \in x_{pa(i)}} w_{ij}(x_j - \mu_j) + \sigma_i \cdot \epsilon_i \end{aligned}xiμi=WiT(xpa(i)μpa(i))+σiϵi=(wi1,wi2,,wik)1×kx1x2xkμ1μ2μkk×1+σiϵi=jxpa(i)wij(xjμj)+σiϵi

下一节将介绍:高斯马尔可夫随机场

相关参考:
机器学习-高斯网络(2)-高斯贝叶斯网络

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_225475.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【软件测试】作为测试人,因工作与开发吵了一架碰撞,该咋办......

目录:导读前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结(尾部小惊喜)前言 测试与开发在工作中…

Redis数据库redisDb源码分析

写在前面 以下内容是基于Redis 6.2.6 版本整理总结 一、组织方式 Redis服务器将所有的数据库 都保存在src/server.h/redisServer结构中的db数组中。db数组的每个entry都是src/server.h/redisDb结构,每个redisDb结构代表一个数据库。Redis默认有16个数据库。 1.1…

Android App开发音量调节中实现拖动条和滑动条和音频管理器AudioManager讲解及实战(超详细 附源码和演示视频)

需要源码请点赞关注收藏后评论区留下QQ~~~ 一、拖动条和滑动条 拖动条SeekBar继承自进度条ProgressBar,它与进度条的不同之处在于,进度条只能在代码中修改进度值,不能由用户改变进度值,拖动条不仅可以在代码中修改进度值&#xf…

Greenplum数据库故障排查及修复

场景一:gp服务正常,存在部分segment实例丢失 1、异常现象 主节点切换gpadmin用户输入gpstate查看状态 如果红色框内有指向左边的箭头则说明存在部分segment实例丢失。 2、排查思路 首先查看主节点日志,重点关注发生segment丢失那段时间的…

Kafka开发环境搭建

kafka开发环境搭建一、安装Java环境1.1、下载Linux下的安装包1.2、解压缩安装包1.3、解压后的文件移到/usr/lib目录下1.4、配置java环境变量二、 Kafka的安装部署2.1、下载安装Kafka2.2、配置和启动zookeeper2.3、启动和停止Kafka后言一、安装Java环境 1.1、下载Linux下的安装…

【web前端开发】HTML知识点超详细总结

文章目录什么是网页常用的浏览器及内核VScode和WebStrom使用HTML常用标签文档类型<!DOCTYPE>网页语言lang字符集title标签标题标签段落和换行标签文本格式化标签div和span标签图像标签路径相对路径同一级路径上一级路径:下一级路径绝对路径链接标签超链接标签外部链接:内…

(DS90UB3702TRURRQ1) LT8640SHV-2低噪声降压稳压器QFN

LT8640/LT8640-1降压稳压器采用Silent Switcher架构&#xff0c;设计用于最大限度地降低EMI/EMC辐射并在高达3MHz的频率下提供高效率。由于具有2.5μA的超低静态电流&#xff08;当输出处于全面调节状态时&#xff09;&#xff0c;因此适用于要求在非常小负载电流条件下获得极高…

【Linux】(五)GateWay远程开发方式-实验室服务器使用GateWay远程开发

Jetbrains GateWay 方式系列文章一、服务器情况简介1.1服务器及用户1.2 cuda1.3 conda环境二、Jetbrains GateWay方式连接2.1 下载2.2 配置2.3 连接管理及附加说明2.3.1 关闭或退出2.3.2 重连附录公共数据集系列文章 &#xff08;一&#xff09;服务器初次配置及安装vncserver…

【CVPR 2022】QueryDet:加速高分辨率小目标检测

大连不负众望&#xff0c;疫情了&#xff0c;我们又封校了&#xff0c;可能初步封个5678天&#xff0c;微笑jpg 论文地址&#xff1a;https://arxiv.org/pdf/2103.09136.pdf 项目地址&#xff1a;https://github.com/ ChenhongyiYang/QueryDet-PyTorch 1. 简介 背景&#xf…

基于Netty的高性能RPC框架(分布式缓存、雪花算法、幂等性)

文章目录前言介绍1. 服务提供2. 安全策略3. 设计模式亮点1. 信息摘要算法的应用2. 心跳机制3. SPI 机制4. IO 异步非阻塞5. RNF 协议快速开始1.依赖1.1 直接引入1.2 maven引入2. 启动 Nacos3. 提供接口4. 启动服务5. 启动客户端5. 额外配置5.1 配置文件5.2 日志配置6. 场景应用…

电脑录屏快捷键是什么?win10自带屏幕录制在哪

​在使用电脑的过程中&#xff0c;我们难免会遇到使用电脑录屏功能。有时候可能是想录制网课&#xff0c;有时候可能是想录制游戏的精彩操作&#xff0c;有时候可能只是想录制会议内容。 电脑录屏能够将重要的画面内容进行录制&#xff0c;十分的方便。但也有很多的小伙伴不清…

傻白入门芯片设计,IP, MCM, SiP, SoC 和 Chiplet的区别(二)

一、IP&#xff1a; 早期的复制电路都是全定制&#xff0c;比如Intel的4004cpu&#xff0c;这种设计非常耗时。考虑到cpu的很多模块有相似的地方&#xff0c;能不能把这些东西模块化&#xff1f;于是就有了IP核的概念&#xff0c;Intelligent Property&#xff0c;即知识产权核…

EPICS -- asynRecord记录使用示例

这个示例演示了如何使用asynRecord记录 1、硬件准备工作 在这里准备了一个型号为NPort 5650-8-DT的Moxa串口服务器&#xff0c;用于一根交叉DB9双母头线缆连接设备上端口2和端口3&#xff0c;使之可以相互通信。 串口服务器配置如下&#xff1a; IP地址&#xff1a;192.168…

【Spring(五)】引入篇:一文带你弄懂AOP的底层原理(动态代理)

有关Spring的所有文章都收录于我的专栏&#xff1a;&#x1f449;Spring&#x1f448; 目录 一、前言 二、使用AOP需要的依赖 三、引入 四、AOP的底层原理之动态代理 五、总结 相关文章 【Spring&#xff08;一&#xff09;】如何获取对象&#xff08;Bean&#xff09;【Sprin…

移远EC20 4G模块LTE开发板三网通模块 MQTT阿里云物联网STM32代码

usb转tdl ath 挂断 22点评&#xff0c;要接转送帽 ATQGPSLOC? gps定位 ATQGPS1通过命令启动 启动好之后 505还没有启动 516 还没有定位好&#xff0c; 新版本数据模块&#xff0c;带电瓶转换芯片 效果会更好一些&#xff0c;专用的di芯片&#xff0c;单独把他tdl 1.8v转换…

JS if else语句详解

在正常情况下&#xff0c;JavaScript 脚本是按顺序从上到下执行的&#xff0c;这种结构被称为顺序结构。如果使用 if、else/if 或 switch 语句&#xff0c;可以改变这种流程顺序&#xff0c;让代码根据条件选择执行的方向&#xff0c;这种结构被称为分支结构。 if语句 if 语句…

分布式计算模型Mapreduce实践与原理剖析(二)

第二章 MapReduce核心组件实战 2.1 MapReduce中分区组件 需求&#xff1a;根据单词的长度给单词出现的次数的结果存储到不同文件中&#xff0c;以便于在快速查询 思路&#xff1a; 1、定义Mapper逻辑 2、定义Reducer逻辑 3、自定义分区Partitioner这个案例主要的逻辑在这个…

[附源码]SSM计算机毕业设计旅游管理系统JAVA

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

挂脖式运动蓝牙耳机推荐,目前适合运动佩戴的五款耳机推荐

在科技的不断进步下&#xff0c;新型的骨传导耳机也是逐渐成为我们生活日常中的主流&#xff0c;其特殊的发声原理成为了我们喜爱的重点之一&#xff0c;也有些伙伴们还在边缘徘徊&#xff0c;想要入手骨传导耳机但又怕踩坑得不到好的体验&#xff0c;刚好小编在使用骨传导耳机…

3.81 OrCAD软件绘制原理图时如何使用任意角度的走线?OrCAD软件怎么统一查看哪些元器件是没有PCB封装的?

笔者电子信息专业硕士毕业&#xff0c;获得过多次电子设计大赛、大学生智能车、数学建模国奖&#xff0c;现就职于南京某半导体芯片公司&#xff0c;从事硬件研发&#xff0c;电路设计研究。对于学电子的小伙伴&#xff0c;深知入门的不易&#xff0c;特开次博客交流分享经验&a…