数据挖掘,计算机网络、操作系统刷题笔记47

news/2024/4/29 1:46:36/文章来源:https://blog.csdn.net/weixin_46838716/article/details/128947202

数据挖掘,计算机网络、操作系统刷题笔记47

2022找工作是学历、能力和运气的超强结合体,遇到寒冬,大厂不招人,可能很多算法学生都得去找开发,测开
测开的话,你就得学数据库,sql,oracle,尤其sql要学,当然,像很多金融企业、安全机构啥的,他们必须要用oracle数据库
这oracle比sql安全,强大多了,所以你需要学习,最重要的,你要是考网络警察公务员,这玩意你不会就别去报名了,耽误时间!
考网警特招必然要考操作系统,计算机网络,由于备考时间不长,你可能需要速成,我就想办法自学速成了,课程太长没法玩
刷题系列文章
【1】Oracle数据库:刷题错题本,数据库的各种概念
【2】操作系统,计算机网络,数据库刷题笔记2
【3】数据库、计算机网络,操作系统刷题笔记3
【4】数据库、计算机网络,操作系统刷题笔记4
【5】数据库、计算机网络,操作系统刷题笔记5
【6】数据库、计算机网络,操作系统刷题笔记6
【7】数据库、计算机网络,操作系统刷题笔记7
【8】数据库、计算机网络,操作系统刷题笔记8
【9】操作系统,计算机网络,数据库刷题笔记9
【10】操作系统,计算机网络,数据库刷题笔记10
【11】操作系统,计算机网络,数据库刷题笔记11
【12】操作系统,计算机网络,数据库刷题笔记12
【13】操作系统,计算机网络,数据库刷题笔记13
【14】操作系统,计算机网络,数据库刷题笔记14
【15】计算机网络、操作系统刷题笔记15
【16】数据库,计算机网络、操作系统刷题笔记16
【17】数据库,计算机网络、操作系统刷题笔记17
【18】数据库,计算机网络、操作系统刷题笔记18
【19】数据库,计算机网络、操作系统刷题笔记19
【20】数据库,计算机网络、操作系统刷题笔记20
【21】数据库,计算机网络、操作系统刷题笔记21
【22】数据库,计算机网络、操作系统刷题笔记22
【23】数据库,计算机网络、操作系统刷题笔记23
【24】数据库,计算机网络、操作系统刷题笔记24
【25】数据库,计算机网络、操作系统刷题笔记25
【26】数据库,计算机网络、操作系统刷题笔记26
【27】数据库,计算机网络、操作系统刷题笔记27
【28】数据库,计算机网络、操作系统刷题笔记28
【29】数据库,计算机网络、操作系统刷题笔记29
【30】数据库,计算机网络、操作系统刷题笔记30
【31】数据库,计算机网络、操作系统刷题笔记31
【32】数据库,计算机网络、操作系统刷题笔记32
【33】数据库,计算机网络、操作系统刷题笔记33
【34】数据库,计算机网络、操作系统刷题笔记34
【35】数据挖掘,计算机网络、操作系统刷题笔记35
【36】数据挖掘,计算机网络、操作系统刷题笔记36
【37】数据挖掘,计算机网络、操作系统刷题笔记37
【38】数据挖掘,计算机网络、操作系统刷题笔记38
【39】数据挖掘,计算机网络、操作系统刷题笔记39
【40】数据挖掘,计算机网络、操作系统刷题笔记40
【41】数据挖掘,计算机网络、操作系统刷题笔记41
【42】数据挖掘,计算机网络、操作系统刷题笔记42
【43】数据挖掘,计算机网络、操作系统刷题笔记43
【44】数据挖掘,计算机网络、操作系统刷题笔记44
【45】数据挖掘,计算机网络、操作系统刷题笔记45
【46】数据挖掘,计算机网络、操作系统刷题笔记46


文章目录

  • 数据挖掘,计算机网络、操作系统刷题笔记47
    • @[TOC](文章目录)
  • 数据挖掘分析应用:朴素贝叶斯
  • 生成模型和判别模型
  • 决策树
  • graphviz:图表可视化软件,画决策树的模型图
  • 我们现在用的网络模式大多是以太网.那么,它的标准是( )
  • 下面关于以太网的描述正确的是( )。
  • 区分局域网(LAN)和广域网(WAN)的依据是______。
  • 进程从等待状态进入就绪状态可能是由于()。
  • 下面有关线程的说法错误的是()
  • 总结

数据挖掘分析应用:朴素贝叶斯

概率知识
在这里插入图片描述
联合就是共同发生的概率

概率和为1
在这里插入图片描述
在这里插入图片描述
easy

如果AB是独立的
条件概率就等于A本身的概率

在这里插入图片描述
得到了贝叶斯公式

在这里插入图片描述
到此你可以不用往下看这些例子了,你就随便看看就行
在这里插入图片描述
第一次抽到2种情况,在这两种情况下,第二次抽到红球的概率——全概率公式

在这里插入图片描述
在这里插入图片描述
请问
判断这个账户是真实的还是虚假的???

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
大概率是真实账户

这么多你也不要看了,反正了解一下即可

在这里插入图片描述
讲课搞这么复杂作甚??????????

直接看代码
在这里插入图片描述
上一篇文章的代码,我们集成一下
自动化程度高
方便以后加别的机器学习模型

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):from sklearn.model_selection import train_test_split# 切分函数#DataFramefeature_val = featureslabel_val = labeltrain_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集print(len(train_data), len(valid_data), len(test_data))# KNN分类from sklearn.neighbors import NearestNeighbors, KNeighborsClassifierfrom sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价models = []knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖for modelName, model in models:print(modelName)model.fit(train_data, y_train)  # 指定训练集# 又集成化数据集data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]for i in range(len(data)):print(i)y_input = data[i][0]y_label = data[i][1]  # 输入输出预测y_pred = model.predict(y_input)print("acc:", accuracy_score(y_label, y_pred))print("recall:", recall_score(y_label, y_pred))print("F1:", f1_score(y_label, y_pred))# 不考虑存储,你看看这个模型就会输出仨结果if __name__ == '__main__':features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,lower_d=True, ld_n=3)# print(df, label)# 灌入模型hr_modeling_all(features, label)8999 3000 3000
KNN
0
acc: 0.9595510612290254
recall: 0.9290681502086231
F1: 0.9167429094236048
1
acc: 0.928
recall: 0.8497191011235955
F1: 0.8485273492286115
2
acc: 0.9216666666666666
recall: 0.8547008547008547
F1: 0.8362369337979094Process finished with exit code 0

现在我们搞贝叶斯模型分类
就是给你提供不同字段状态,属于离职率高的用户,让你做一个分类

贝叶斯回去统计这些概率啥的,贼复杂,你只需要会用就行

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):from sklearn.model_selection import train_test_split# 切分函数#DataFramefeature_val = featureslabel_val = labeltrain_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集print(len(train_data), len(valid_data), len(test_data))# KNN分类from sklearn.neighbors import NearestNeighbors, KNeighborsClassifierfrom sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好models = []knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类bys_clf = GaussianNB()bnl_clf = BernoulliNB()models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖for modelName, model in models:print(modelName)model.fit(train_data, y_train)  # 指定训练集# 又集成化数据集data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]for i in range(len(data)):print(i)y_input = data[i][0]y_label = data[i][1]  # 输入输出预测y_pred = model.predict(y_input)print("acc:", accuracy_score(y_label, y_pred))print("recall:", recall_score(y_label, y_pred))print("F1:", f1_score(y_label, y_pred))print("\n")# 不考虑存储,你看看这个模型就会输出仨结果if __name__ == '__main__':features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,lower_d=True, ld_n=3)# print(df, label)# 灌入模型hr_modeling_all(features, label)8999 3000 3000
KNN
0
acc: 0.9609956661851317
recall: 0.9373271889400921
F1: 0.9205702647657841
1
acc: 0.921
recall: 0.8587896253602305
F1: 0.8341497550734779
2
acc: 0.9223333333333333
recall: 0.8514851485148515
F1: 0.8378566457898399GaussianNB
0
acc: 0.8806534059339927
recall: 0.6493087557603686
F1: 0.7240493319630011
1
acc: 0.888
recall: 0.6657060518731989
F1: 0.7333333333333334
2
acc: 0.8766666666666667
recall: 0.6562942008486563
F1: 0.7149460708782743BernoulliNB
0
acc: 0.7588620957884209
recall: 0.0
F1: 0.0
1
acc: 0.7686666666666667
recall: 0.0
F1: 0.0
2
acc: 0.7643333333333333
recall: 0.0
F1: 0.0Process finished with exit code 0

高斯贝叶斯比伯努利好
但是也比KNN差劲

反正贝叶斯一般般吧感觉

生成模型和判别模型

生成:求联合概率,再求分类概率——复杂
判别:不通过联合概率分布,直接输出分类概率
在这里插入图片描述
朴素贝叶斯就是生成模型

决策树

一步步按照特招判断,划分
在这里插入图片描述
在这里插入图片描述
怎么决策??


在这里插入图片描述
知道了条件熵,信息就算曝光了
在这里插入图片描述
wind两种条件下,打球的熵
这样的话,计算出来就好说了
这样就是根据风
这个特征进行切分的熵增益

别的字段呢???

在这里插入图片描述
因为天气的增益最大,所以咱们能第一次切分就用天气这个字段
显然天气下雨没法玩啊

信息增益率:
互信息不对称

在这里插入图片描述

基尼系数:取最小的基尼系数,才是我们要的切分字段
不纯度

CART决策树经常用哦

humidity有3取值
high有7个,打球不打球各3 4个
mid
low
类似统计
去算基尼系数
在这里插入图片描述
连续值咋搞?分段呗
规则很多,那就整体投票
解决过拟合的方法可能是剪枝啥的

在这里插入图片描述
收入中的人中,都是帅的,那剪枝,直接见面,别分支了
在这里插入图片描述

看代码

决策树的效果不错哦

# 集成化模型训练代码
# 模型
def hr_modeling_all(features, label):from sklearn.model_selection import train_test_split# 切分函数#DataFramefeature_val = featureslabel_val = labeltrain_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集print(len(train_data), len(valid_data), len(test_data))# KNN分类from sklearn.neighbors import NearestNeighbors, KNeighborsClassifierfrom sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好from sklearn.tree import DecisionTreeClassifier  # 决策树models = []  # 申请模型,挨个验证好坏knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类bys_clf = GaussianNB()bnl_clf = BernoulliNB()DT_clf = DecisionTreeClassifier()models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖models.append(("Decision Tree", DT_clf))  # 代码一个个模型测--放入的是元祖# 不同的模型,依次验证for modelName, model in models:print(modelName)model.fit(train_data, y_train)  # 指定训练集# 又集成化数据集data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]for i in range(len(data)):print(i)y_input = data[i][0]y_label = data[i][1]  # 输入输出预测y_pred = model.predict(y_input)print("acc:", accuracy_score(y_label, y_pred))print("recall:", recall_score(y_label, y_pred))print("F1:", f1_score(y_label, y_pred))print("\n")# 不考虑存储,你看看这个模型就会输出仨结果if __name__ == '__main__':features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,lower_d=True, ld_n=3)# print(df, label)# 灌入模型hr_modeling_all(features, label)
8999 3000 3000
KNN
0
acc: 0.9594399377708634
recall: 0.9254716981132075
F1: 0.9148985777570529
1
acc: 0.918
recall: 0.853185595567867
F1: 0.8335588633288227
2
acc: 0.92
recall: 0.877914951989026
F1: 0.8421052631578947GaussianNB
0
acc: 0.8820980108900989
recall: 0.6400943396226415
F1: 0.7189403973509934
1
acc: 0.881
recall: 0.6426592797783933
F1: 0.7221789883268482
2
acc: 0.8756666666666667
recall: 0.6488340192043895
F1: 0.7172100075815012BernoulliNB
0
acc: 0.7644182686965219
recall: 0.0
F1: 0.0
1
acc: 0.7593333333333333
recall: 0.0
F1: 0.0
2
acc: 0.757
recall: 0.0
F1: 0.0Decision Tree
0
acc: 1.0
recall: 1.0
F1: 1.0
1
acc: 0.9383333333333334
recall: 0.9016620498614959
F1: 0.8755884330867518
2
acc: 0.929
recall: 0.8984910836762688
F1: 0.8601444517399869Process finished with exit code 0

决策树在测试集上的表现很完美
训练集上基本都是完美的100%
看来决策树贼牛逼啊

graphviz:图表可视化软件,画决策树的模型图

将其加入环境变量

去官网下载

然后在代码中将我们的模型想办法保存到pdf文件中

# 集成化模型训练代码——保存模型DT
# 模型
def hr_modeling_all_saveDT(features, label):from sklearn.model_selection import train_test_split# 切分函数#DataFramefeature_val = features.valueslabel_val = label# 特征段feature_name = features.columnstrain_data, valid_data, y_train, y_valid = train_test_split(feature_val, label_val, test_size=0.2)  # 20%验证集train_data, test_data, y_train, y_test = train_test_split(train_data, y_train, test_size=0.25)  # 25%测试集print(len(train_data), len(valid_data), len(test_data))# KNN分类from sklearn.neighbors import NearestNeighbors, KNeighborsClassifierfrom sklearn.metrics import accuracy_score, recall_score, f1_score  # 模型评价from sklearn.naive_bayes import GaussianNB, BernoulliNB  # 高斯,伯努利,都是对特征有严格要求,离散值最好from sklearn.tree import DecisionTreeClassifier, export_graphviz  # 决策树from io import StringIOimport pydotplusimport osos.environ["PATH"] += os.pathsep+r"D:\Program Files\Graphviz\bin"models = []  # 申请模型,挨个验证好坏knn_clf = KNeighborsClassifier(n_neighbors=3)  # 5类bys_clf = GaussianNB()bnl_clf = BernoulliNB()DT_clf = DecisionTreeClassifier()# models.append(("KNN", knn_clf))  # 代码一个个模型测--放入的是元祖# models.append(("GaussianNB", bys_clf))  # 代码一个个模型测--放入的是元祖# models.append(("BernoulliNB", bnl_clf))  # 代码一个个模型测--放入的是元祖models.append(("Decision Tree", DT_clf))  # 代码一个个模型测--放入的是元祖# 不同的模型,依次验证for modelName, model in models:print(modelName)model.fit(train_data, y_train)  # 指定训练集# 又集成化数据集data = [(train_data, y_train), (valid_data, y_valid), (test_data, y_test)]for i in range(len(data)):print(i)y_input = data[i][0]y_label = data[i][1]  # 输入输出预测y_pred = model.predict(y_input)print("acc:", accuracy_score(y_label, y_pred))print("recall:", recall_score(y_label, y_pred))print("F1:", f1_score(y_label, y_pred))print("\n")# 保存模型DT为pdfdot_data = export_graphviz(decision_tree=model,out_file=None,feature_names=feature_name,class_names=["Nl", "left"],filled=True,rounded=True,special_characters=True)graph = pydotplus.graph_from_dot_data(dot_data)graph.write_pdf("dt_tree.pdf")# 不考虑存储,你看看这个模型就会输出仨结果if __name__ == '__main__':features, label = pre_processing(sl=True, le=True, npr=True, amh=True, wacc=True, pla=True, dep=False, sal=True,lower_d=True, ld_n=3)# print(df, label)# 灌入模型hr_modeling_all_saveDT(features, label)

安装好之后,一直没有成功,gg

暂时就看不了了
gg

我们现在用的网络模式大多是以太网.那么,它的标准是( )

在这里插入图片描述

下面关于以太网的描述正确的是( )。

在这里插入图片描述

区分局域网(LAN)和广域网(WAN)的依据是______。

在这里插入图片描述
现在课程里教的是根据采用的技术区分啊,根据范围的已经过时了。。。采用广域网技术即使距离近也是广域网

可恶

进程从等待状态进入就绪状态可能是由于()。

在这里插入图片描述

下面有关线程的说法错误的是()

在这里插入图片描述


总结

提示:重要经验:

1)
2)学好oracle,操作系统,计算机网络,即使经济寒冬,整个测开offer绝对不是问题!同时也是你考公网络警察的必经之路。
3)笔试求AC,可以不考虑空间复杂度,但是面试既要考虑时间复杂度最优,也要考虑空间复杂度最优。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_255850.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

FFmpeg集成qsv的编译安装

文章目录FFmpeg集成qsv的编译安装一、参考二、编译安装流程1. LibVA 和 Media-Driver 的安装2. Intel Media SDK 编译3. ffmpeg的编译安装4. 验证安装FFmpeg集成qsv的编译安装 一、参考 Ubuntu20.04 ffmpeg添加 Intel核显QSV加速支持 视频和视频帧:Intel GPU&…

持续集成Jenkins (四)Jenkins+git+maven项目构建、自动化部署

GIT配置1.1 前言:需要安装 git 客户端.yum install git1.2 Jenkins 配置插件 Git 在仪表盘选择Manage Jenkins>>Plugin Manager>>进入如下页面,可以选择可选的插件,安装完成后的插件在installed里面可以看到,我这里已…

Conda安装到虚拟环境中的包在pycharm中不显示--pip下载的包都到了base环境中-Ubuntu20.04

问题 今天刚装了一个Ubuntu20.04系统,安装完Anaconda,虚拟环境的包也都下载好了,结果在pycharm中配置完解释器后,只有几个基础的包,切换到base环境后发现,这些包都被下载到了base环境中。 在网上查了各种…

安装PhpStorm2020.3

1、卸载旧软件 如果已安装软件,先打开文件安装目录,找到Uninstall.exe点击卸载 删除.jetbrains目录 点击软件“PhpStorm-2020.3.exe”安装 打开软件 打开一个新建的空文件夹,预加载 将BetterIntelliJ.zip拖动到idea的编辑区域 然后…

我们的微服务中为什么需要网关?

说起 Spring Cloud Gateway 的使用场景,我相信很多小伙伴都能够脱口而出认证二字,确实,在网关中完成认证操作,确实是 Gateway 的重要使用场景之一,然而并不是唯一的使用场景。在微服务中使用网关的好处可太多了&#x…

nodejs基于vue的饭店点餐外卖平台网站

本系统主要实现了管理员:首页、个人中心、用户管理、菜品分类管理、菜品信息管理、菜品评价管理、系统管理、订单管理,用户:首页、个人中心、菜品评价管理、我的收藏管理、订单管理,前台首页:首页、菜品信息、菜品资讯、个人中心、后台管理、…

C++——继承那些事儿你真的知道吗?

目录1.继承的概念及定义1.1继承的概念1.2 继承定义1.2.1定义格式1.2.2继承关系和访问限定符1.2.3继承基类成员访问方式的变化2.父类和子类对象赋值转换3.继承中的作用域4.派生类的默认成员函数5.继承与友元6. 继承与静态成员7.复杂的菱形继承及菱形虚拟继承如何解决数据冗余和二…

基于深度学习的安全帽监管系统

摘 要 安全生产管理是建筑、重工业等高危企业发展的重要方针,安全帽在施工生产环境中对人员头部防护起着关键作用,因此加强安全帽佩戴监管十分必要。近年来,基于图像视觉的安全帽佩戴监测方法成为了企业实施管理的主要手段,如何提高安全帽佩戴检测精度和检测速度是应用的关键难…

【C++】 类和对象 (下)

文章目录📕再谈构造函数1. 构造函数体赋值2. 初始化列表3. explicit 关键字📕static 成员1. 概念2. static 成员变量3. static 成员函数📕 友元1. 友元函数2. 友元类📕内部类📕编译器优化📕再谈构造函数 1…

C# 引用DLL 静态字段和非静态字段

再讲一下如何引用dll动态链接库:右键项目----添加 --项目引用----选择你要添加的dll即可。在依赖项这里就可以看到。再在要用的项目那里using一下这个dll的命名空间:using 生成dll;然后就可以使用以下所说的两种方法去调用dll里的函数了。切记&#xff0…

canal 使用详解

第1章 Canal 简介canal [kənl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费工作原理canal 模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave ,向 MySQL master 发送 d…

fastadmin后台表单文字过长,限制显示,鼠标悬停显示全部

问题&#xff1a;显示文字区域过长&#xff0c;影响用户体验感 解决措施&#xff1a; 特别注意&#xff1a; return "<span styledisplay: block;overflow: hidden;text-overflow: ellipsis;white-space: nowrap; title" row.contents ">" value …

【物联网平台选型】葵花宝典:盘点开源、SaaS及通用型平台的优劣势和选型适配

随着工业物联网领域和智慧物联领域的发展&#xff0c;大大小小的物联项目和物联场景需求层出不穷&#xff0c;物联网平台作为技术底座型软件&#xff0c;是不可或缺的项目地基。 市场需求下&#xff0c;物联网平台提供商越来越多&#xff0c;“打地基”的方式大体分为开源平台、…

内核数据结构-XArray

内核数据结构-XArrayXArray简介XArray 基本数据结构Xarray结构图API介绍Xarray锁参考链接XArray简介 XArray是一种抽象数据类型&#xff0c;类似于一个大的指针数组&#xff0c;它满足了许多与哈希或常规可调整大小数组相同的需求。由于 xarray 中的数据都是指针&#xff0c;使…

以太网知识-GMII / RGMII接口

今天和海翎光电的小编一起分析MII/RMII/SMII&#xff0c;以及GMII/RGMII/SGMII接口的信号定义&#xff0c;及相关知识&#xff0c;同时小编也对RJ-45接口进行了总结&#xff0c;分析了在10/100模式下和1000M模式下的连接方法。GMII 接口分析GMII接口提供了8位数据通道&#xff…

shell条件测试

文章目录三、shell条件测试3.1条件测试的基本语法3.2 文件测试表达式3.3字符串测试表达式3.4 整数测试表达式3.5 逻辑操作符三、shell条件测试 为了能够正确处理Shell程序运行过程中遇到的各种情况&#xff0c;Linux Shell提供了一组测试运算符。通过这些运算符&#xff0c;Sh…

go语言的并发编程

并发编程是 Go语言的一个重要特性,而 go语言也是基于此而设计出来的。 本文将会介绍如何使用go-gc中的“runtime”方法实现 go语言中的并发编程。 在之前的文章中,我们已经对 runtime方法进行了详细介绍,这次文章将对 runtime方法进行深入分析,并讲解如何在go-gc中使用该方…

智能建筑电力监控自动化的解决方案

引言 安科瑞 李亚俊 壹捌柒贰壹零玖捌柒伍柒 所谓智能建筑就是采用计算机技术和通讯技术对建筑的设备进行自动监控&#xff0c;对信息资源进行管理和为用户提供信息服务等。美国智能建筑研究机构把智能建筑定义为&#xff1a;通过对建筑物的结构、系统、服务和管理四个基本要…

数据库模式(schema)是什么?

在数据库的术语中&#xff0c;模式&#xff08;schema&#xff09;是一个逻辑概念&#xff0c;用于组织数据库中的对象。模式中的对象通常包括表、索引、数据类型、序列、视图、存储过程、主键、外键等等。 模式可以为数据库对象提供逻辑隔离功能&#xff0c;不用应用程序可以…

负载均衡下的webshell上传

负载均衡下的webshell上传1.应用场景2.面临的困难2.1 shell文件上传问题2.2 命令执行时的漂移2.3 大工具投放失败2.4 内网穿透工具失效3.一些解决方案3.1 关机3.2 基于IP判断执行主机3.3 脚本实现web层的流量转发3.3.1 创建antproxy.jsp脚本3.3.2 修改 Shell 配置4.总结1.应用场…