elasticsearch基础6——head插件安装和web页面查询操作使用、ik分词器

news/2024/5/2 22:30:16/文章来源:https://blog.csdn.net/yi_qingjun/article/details/129656671

文章目录

  • 一、基本了解
    • 1.1 插件分类
    • 1.2 插件管理命令
  • 二、分析插件
    • 2.1 es中的分析插件
      • 2.1.1 官方核心分析插件
      • 2.1.2 社区提供分析插件
    • 2.2 API扩展插件
  • 三、Head 插件
    • 3.1 安装
    • 3.2 web页面使用
      • 3.2.1 概览页
        • 3.2.1.1 unassigned问题解决
      • 3.2.2 索引页
      • 3.2.3 数据浏览页
      • 3.2.4 基本查询页
        • 3.2.4.1 term指定查询
        • 3.2.4.2 range范围查询
        • 3.2.4.3 多条件查询
      • 3.2.5 复合查询页
        • 3.2.5.1 查询数据
        • 3.2.5.2 插入数据
        • 3.2.5.3 查询所有文档
        • 3.2.5.4 布尔查询
        • 3.2.5.5 创建索引库
  • 四、ik分词器
    • 4.1 Windows安装
    • 4.2 Linux安装
    • 4.3 自定义停用词词典

一、基本了解

1.1 插件分类

  1. 插件是用户以自定义方式增强es功能的一种方法,分两类,核心插件和社区贡献插件。
  2. 插件太多,只需要熟悉插件的安装流程即可,根据项目需要再自行安装。

核心插件:

  • 核心插件属于es项目,插件的版本号始终与es安装包的版本号相同,这些插件由es团队维护。
  • 项目地址
    在这里插入图片描述

社区贡献插件:

  • 社区贡献插件属于es项目外部的插件。这些插件由单个开发人员或私人公司提供,并拥有各自的许可证及各自的版本控制系统。

1.2 插件管理命令

1.列出当前已安装的插件。这里显示的就是我们已经安装了一个ik分词器插件。

[es-qingjun@localhost bin]$ elasticsearch-plugin list

在这里插入图片描述
2.安装插件。

[es-qingjun@localhost bin]$ elasticsearch-plugin install analysis-icu

在这里插入图片描述
3.删除插件。

[es-qingjun@localhost bin]$ elasticsearch-plugin remove analysis-icu

在这里插入图片描述

  1. 我们可以使用相关命今获取插件命令的使用说明:$es_home/bin/elasticsearch-plugin - h
    1.插件位置指定
    当在根目录中运行 Elasticsearch 时,如果使用 DEB 或RPM 安装了 Elasticsearch,则以根目录运行 /usr /share / Elasticsearch/ bin /Elasticsearch-plugin,以便 Elasticsearch 可以写入磁盘的相应文件,否则需要以拥有所有 Elasticsearch 文件的用户身份运行 bin/ Elasticsearch 插件当用户自定义URL 或文件系统时,用户可以通过指定 URL 直接从自定义位置下载插件:
    sudo bin / elasticsearch - plugin install [url]

二、分析插件

基本了解:

  • 分析器会接受一个字符串作为输入参数,将这个字符串拆分成独立的词或语汇单元(也称之为 token)。
  • 在处理过程中会丢弃一些标点符号等字符,处理后会输出一个语汇单元流(也称之为 token stream)。
  • es为很多语言提供了专用的分析器,特殊语言所需的分析器可以由用户根据需要以插件的形式提供。

分析器组成的三个部分:

  1. character filter: 分词之前的预处理,过滤HTML标签、特殊符号转换等。
  2. tokenizer:用于分词。
  3. token filter:用于标准化输出。

es内置的主要分析器:

  • Standard分析器:默认的分词器,会将词汇单元转换成小写形式,并且去除停用词和标点符号,支持中文(采用的方法为单字切分)。停用词指语气助词等修饰性词语,如 the、an、的、这等。
  • Simple分析器:首先通过非字母字符分割文本信息,并去除数字类型的字符,然后将词汇单元统一为小写形式。
  • Whitespace分析器:仅去除空格,不会将字符转换成小写形式,不支持中文:不对生成的词汇单元进行其他标准化处理。
  • Stop分析器:与Simple 分析器相比,增加了去除停用词的处理。
  • Keyword分析器:该分析器不进行分词,而是直接将输入作为一个单词输出。
  • Pattern分析器:该分析器通过正则表达式自定义分隔符,默认是“]W+”,即把非字词的符号作为分隔符。
  • Language分析器:这是特定语言的分析器,不支持中文,支持如 English、French 和Spanish 等蛮豆颓逼磺糯敢奇害弋亭缆忸侠子补。

注意事项:

  • 任何全文检索的字符串域都会默认使用 Standard 分析器。

Standard分析器简介:

  • 工作模式:一般来说,分析器会接受一个字符串作为输入。在工作时,分析器会将这个字符串拆分成独立的词或语汇单元(称之为 token),当然也会丢弃一些标点符号等字符,最终分析器输出一个语汇单元流。
  • 常规分析器使用算法:Whitespace 分词算法。
    • 该算法按空白字符,如空格、Tab、换行符等,对语句进行简单的拆分,将连续的非空格字符组成一个语汇单元。
    • 例如,对下面的语句使用 Whitespace 分词算法分词时,会得到如下结果:
      原文:You're the lst runner home!
      结果: You're、the、st、runner、home!
      
  • Standard 分析器使用算法: Unicode 文本分制算法。
    • 可以寻找单词之间的界限,并输出所有界限之间的内容。
    • Unicode 内包含的知识使其可以成功地对包含混合语言的文本进行分词。

2.1 es中的分析插件

分析插件是一类插件,可通过向es中添加新的分析器、标记化器、标记过滤器或字符过滤器等扩展es的分析功能。

2.1.1 官方核心分析插件

插件名称作用
ICU库可以扩展对 Unicode 的支持,
包括更好地分析亚洲语言、Unicode 规范化、
支持 Unicode 的大小写折叠、支持排序和音译。
Kuromoji 插件对日语进行分析
Lucene Nori 插件对韩语进行分析
Phonetic 插件可以使用 Soundex、Metaphone、Caverphone 和其他编码器/解码器将标记分析为其语音等价物。
SmartCN插件可用于对中文或中英文混合文本进行分析。
该插件利用概率知识对简化中文文本进行最优分词。
首先文本被分割成句子,然后每个句子再被分割成单词。
Stempel插件对波兰语进行分析
Ukrainian 插件为乌克兰语提供词干分析

2.1.2 社区提供分析插件

插件名称作用
IK Analysis Plugin将 Lucene IK Analyzer 集成到 Elasticsearch 中,支持读者自定义字典
Pinyin Analysis Plugin一款拼音分析插件,该插件可对汉字和拼音进行相互转换。
Vietnamese Analysis Plugin对越南语进行分析
Network Addresses Analysis Plugin可以用于分析网络地址。
Dandelion Analysis Plugin可译为蒲公英分析插件,该插件提供了一个分析器(称为“蒲公英-A”),该分析器会从输入文本中提取的实体进行语义搜索。
STConvert Analysis Plugin可对中文简体和繁体进行相互转换

2.2 API扩展插件

  • API扩展插件通过添加新的、与搜索有关的 API 或功能,实现对es新功能的添加。
  • es社区人员陆陆续续贡献了不少API扩展插件编辑器,汇总如下:
插件名称作用
Carrot2 Plugin用于结果聚类。
可访问 GitHub 官网搜索 elasticsearch-carrot2,查看配套代码。
Elasticsearch Trigram Accelerated Regular Expression Filter该插件包括查询、过滤器、原生脚本、评分函数,以及用户最终创建的任意其他内容,通过该插件可以让搜索变得更好。
可访问 GitHub 官网搜索 search-extra 获取插件。
Elasticsearch Experimental HighlighterJava 编写,用于文本高亮显示。
可访问 GitHub 官网,搜索 search-highlighter 获取插件。
Entity Resolution Plugin该插件使用 Duke (Duke 是一个用 Java 编写的、快速灵活的、删除重复数据的引擎)进行重复检测。读者可访问 GitHub 官网,搜索 elasticsearch-entity-resolution 获取插件
Entity Resolution Plugin(zentity)用于实时解析es中存储的实体信息。
可访问 GitHub 官网,搜索zentity 获取插件。
POL language Plugin该插件允许用户使用简单的管道查询语法对es进行查询。
可访问 GitHub官网,搜索 elasticsearch-pql 获取插件。
Elasticsearch Taste Plugin该插件基于 Mahout Taste 的协同过滤算法实现。
可访问 GitHub 官网,搜索elasticsearch-taste 获取插件。
WebSocket Change Feed Plugin该插件允许客户端创建到es节点的 WebSocket 连接,并从数据库接收更改的提要。
可访问 GitHub 官网,搜索 es-change-feed-plugin 获取插件

三、Head 插件

  • es-head插件在0.x-2.x版本时,是集成在elasticsearch内的。由elasticsearch的bin/elasticsearch-plugin来管理插件,从2.x版本跳到了5.x版本后,head就作用了一个独立的服务来运行了。
  • Elasticsearch 5之后则需要将elasticsearch-head服务单独运行,并且支持Chrome的插件方式或者Docker容器运行方式。
  • 这个插件我们前面已经安装过,这里就介绍下具体怎么玩它。

插件简介:

  • Head 插件,全称为 elasticsearch-head,是一个界面化的集群操作和管理工具,可以对集群进行“傻瓜式”操作。
  • 既可以把 Head 插件集成到 Elasticsearch 中,也可以把 Head 插件当成-个独立服务。

主要功能:

  1. 显示es集群的拓扑结构,能够执行索引和节点级别的操作。
  2. 在搜索接口能够查询es集群中原始JSON 或表格格式的数据。
  3. 能够快速访问并显示es集群的状态。

3.1 安装

1.安装node.js环境,注意版本不要太高,不然会跟linux本身的依赖库包版本冲突报错。

[root@localhost bck]# tar zxf node-v16.9.0-linux-x64.tar.gz 
[root@localhost bck]# mv node-v16.9.0-linux-x64 /usr/local/node[root@localhost bck]# tail -2 /etc/profile
export node_home=/usr/local/node
export PATH=$node_home/bin:$PATH[root@localhost bck]# source /etc/profile
[root@localhost bck]# node -v
v16.9.0

在这里插入图片描述
2.解压es-head安装包,安装依赖。注意这里需要进入解压出来的目录里执行命令。下载地址

#安装cnpm
[root@localhost elasticsearch-head-5.0.0]# npm install -g cnpm --registry=https://registry.npm.taobao.org#安装依赖
[root@localhost elasticsearch-head-5.0.0]# cnpm install

在这里插入图片描述
在这里插入图片描述
3.启动es-head

[root@localhost elasticsearch-head-5.0.0]# npm run start

在这里插入图片描述
4.访问页面。
在这里插入图片描述
5.修改es配置文件,添加如下两行,解决跨域问题。

[root@localhost elasticsearch-8.5.2]# vi config/elasticsearch.yml 
http.cors.enabled: true
http.cors.allow-origin: "*"

6.重启es,es-head就可以连接es了。
在这里插入图片描述

3.2 web页面使用

Head 插件首页由 4 部分组成:节点地址输入区域、信息刷新区域、导航条、概览中的集群信息汇总。

3.2.1 概览页

  • 第一部分:节点地址输入区域。这里输入es集群任意一个节点IP就可以查看集群所有状态和数据。
    在这里插入图片描述
  • 第二部分:信息刷新区域。
    1. 刷新区域可以查看es相关的信息和刷新插件的信息。
      在这里插入图片描述2. 信息区域可以看到es相关的信息,包括集群节点信息、节点状态、集群状态集群信息、集群健康值等内容。单击对应的按钮,即可查看对应的信息。
      在这里插入图片描述
      在这里插入图片描述
  • 第三部分:导航条。看到概览、索引、数据浏览、基本查询和复合查询五个 Tab 导航,默认为概览。
    在这里插入图片描述
  • 第四部分:概览中的集群信息汇总。可以看到es已经创建的索引,这些索引信息包含了索引的名称、索引的大小和索引的数据量,并且通过“信息”和“动作”两个按钮可以查看索引信息,或者给索引创建别名。
    在这里插入图片描述
  • 第五部分:集群健康值。es中有专门的衡量索引健康状况的标志,分为三个等级:
    • green,绿色。代表所有的主分片和副本分片都已分配,集群是 100% 可用的。
    • yellow,黄色。所有的主分片已经分片了,但至少还有一个副本是缺失的,不会有数据丢失,所以搜索结果依然是完整的。不过高可用性在某种程度上会被弱化。如果更多的分片消失,就会丢数据了。可以把 yellow 想象成一个需要及时调查的警告。
    • red,红色。至少一个主分片以及它的全部副本都在缺失中。意味缺少数据,搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。
    • 当只有一台主机时,索引的健康状况是 yellow。因为一台主机,集群没有其他的主机可以做副本,所以说,这就是一个不健康的状态,因此集群也是十分有必要的。
      在这里插入图片描述
  • 第六部分:索引分片。Elasticsearch数据就存储在这些分片中。每一个方框就是elasticsearch的分片,粗线方框是es的主分片,主分片旁边细线方框是es的备份分片,对应关系,粗线方框0的备份分片是细线方框0,以此类推。
    在这里插入图片描述

3.2.1.1 unassigned问题解决

副本分片作用:

  • 主要目的是为了故障转移,为备份数据。如果持有主分片的节点挂掉了,一个副本分片就会晋升为主分片的角色。

产生unassigned问题原因:

  • 副本分片和主分片不能放在同一个节点上,在这里集群里只有一个节点,副本分片没有办法分配到其他的节点上,所以出现所有副本分片都是未分配的情况。因为只有一个节点,如果存在主分片节点挂掉了,那么整个集群理应就挂掉了,不存在副本分片升为主分片的情况。
    在这里插入图片描述

处理手段:

  • 将每个索引的副本数重置为0即可解决这个未知节点问题。“number_of_replicas”:0
    在这里插入图片描述
    在这里插入图片描述

3.2.2 索引页

  • 可以查看当前es集群中的索引情况。

在这里插入图片描述
1.新建索引。
在这里插入图片描述
2.查看。
在这里插入图片描述
在这里插入图片描述

3.2.3 数据浏览页

  • 可以查看特定索引下的数据。

在这里插入图片描述

3.2.4 基本查询页

在这里插入图片描述

匹配方式:

  1. must子句:文档必须匹配 must 查询条件,相当于“=”。
  2. should子句:文档应该匹配 should 子查询的一个或多个条件。
  3. must_not子句:文档不能匹配该查询条件,相当于“!=”。
  4. term:表示的是精确匹配。
  5. wildcard:表示的是通配符匹配。
  6. prefix:表示的是前缀匹配。
  7. range:表示的是区间查询。
    在这里插入图片描述

注意事项:

  1. 当用多个查询条件进行搜索或查询时,需要注意多个查询条件间的匹配方式。
  2. 匹配方式主要有3种,即must、should 和mus_not。
  3. “+”“_”按用于增加查询条件或减少查询条件。
    在这里插入图片描述
  4. 在查询结果展示区域中,用户可以设置数据的呈现形式,如 table、JSON、CVS 表格等还可以勾选“显示查询语句”选项,呈现通过表单内容拼接的搜索语句。
    在这里插入图片描述

3.2.4.1 term指定查询

在这里插入图片描述

3.2.4.2 range范围查询

在这里插入图片描述

3.2.4.3 多条件查询

在这里插入图片描述

3.2.5 复合查询页

基本了解:

  1. “复合查询”标签页可以自由拼接条件,进行复杂的数据查询。
  2. “复合查询”标签页为用户提供了编写 RESTful接口风格的请求,用户可以使用JSON 进行复杂的查询,比如发送 PUT 请求新增及更新索引,使用 delete 请求删除索引等。
    在这里插入图片描述

RESTful API的基本格式

  • http://ip:port/索引/类型/文档ID
    在这里插入图片描述

配置接口的四个选项:

  1. 在es中,以POST 方法自动生成ID,而 PUT 方法需要指明ID。
    • 请求方法与HTTP 的请求方法相同,如 GET、PUT、POST、DELETE 等。
    • 还可以配置查询JSON 请求数据、请求对应的es节点和请求路径。
  2. 支持配置JSON验证器对用户输入的JSON 请求数据进行JSON 格式校验。
  3. 支持重复请求计时器配置重复请求的频率和时间。
  4. 在结果转换器中支持使用 JavaScript 表达式变换结果。
    在这里插入图片描述

3.2.5.1 查询数据

  • 查询。查询索引111中编号为1的文档。

在这里插入图片描述

3.2.5.2 插入数据

新增数据有两种方式,POST和PUT,两者的区别就是POST自动生成文档编号,也可以指定,而PUT需要指定文档编号生成。

1.post方式指定id生成。
在这里插入图片描述
在这里插入图片描述
2.post方式不指定id生成会是随机生成一个id。
在这里插入图片描述
3.put方式指定id生成。
在这里插入图片描述

3.2.5.3 查询所有文档

在这里插入图片描述

3.2.5.4 布尔查询

  1. must:文档必须匹配这些条件才能被搜索出来。
  2. must_not:文档必须不匹配这些条件才能被搜索出来。
  3. should:如果满足这些语句中的任意语句,则将增加搜索排名结果 score; 否则,对查询结果无任何影响。其主要作用是修正每个文档的相关性得分。
  4. filter:表示必须匹配,但它是以不评分的过滤模式进行的。这些语句对评分没有贡献只是根据过滤标准排除或包含文档。

注意事项:

  • 如果没有 must 语句,那么需要至少匹配其中的一条 should 语句。但如果存在至少一条 must 语句,则对 should 语句的匹配没有要求。
  • 查看匹配”qingjun“,且不匹配”baimu“的文档。
{"query": {"bool": {"must": [{"match": {"name": "qingjun"}}],"must_not": [{"match": {"name": "baimu"}}]}}
}

在这里插入图片描述

3.2.5.5 创建索引库

在这里插入图片描述
在这里插入图片描述

四、ik分词器

什么是IK分词器 ?

  • 分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如“我爱狂神"会被分为"我"“爱”“狂"神”,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。

注意事项:

  • 如果要使用中文,建议使用ik分词器 !
  • ik提供了两个分词算法:ik_smat 和ik_max_word,其中 ik_mart 为最少切分,ik_max_word为最细粒度划分!一会我们测试!

常用配置文件:

  • IKAnalyzer.cfg.xml:用来配置自定义词库。
  • main.dic:ik原生内置的中文词库,总共有27万多条,只要是这些单词,都会被分在一起,最常用的文件
  • quantifier.dic:存放了一些单位相关的词。
  • suffix.dic:存放了一些后缀。
  • surname.dic:中国的姓氏。
  • stopword.dic:包含了英文的停用词,停用词 stop word ,比如 a 、the 、and、 at 、but 等会在分词的时候直接被干掉,不会建立在倒排索引中。
    在这里插入图片描述

4.1 Windows安装

1.下载ik分词器安装包,注意下载版本需要与安装的es版本一致。github下载地址
在这里插入图片描述
2.将下载的压缩包解压到我们本地安装es根目录下的plugins目录。我这里新增加了一个ik目录是为了好区分,该目录下的所有文件就是解压出来的。
在这里插入图片描述
3.重启es,包括与之相关的所有服务kibana。重启再启动后能读到分词器,日志就会显示。
在这里插入图片描述
4.可以通过elasticsearch-plugin命令查看加载进来的插件,这里就显示了一个ik插件。
在这里插入图片描述
5.启动kibana测试。

get _analyze       ##get请求,_analyze为请求对象(分词器)。下面括号内容为请求要求。
{"analyzer": "ik_smart",        ##选中ik分词器。"text": "跟我一起学运维"                ##分哪个词。
}

ik_smart为最少切分,是将一句话按段切分出来的,分出来的内容没有重复的字。

在这里插入图片描述

ik_max_word最小粒度划分,穷尽所有组合,会出现重复的字。

在这里插入图片描述

这里就出现了一个问题,把“学运维”三个字拆分了,我不需要将这三个字拆分,应该是一个组合词,该怎么办?自己去添加词库。

6.进入ik分词器安装目录下的config目录,手动创建一个文档,以dic结尾,里面添加我们想要的词。
在这里插入图片描述
7.将新建的文档名称添加到IKAnalyzer.cfg.xml文件中。
在这里插入图片描述

8.重启es和kibana。
在这里插入图片描述
9.再次查看kibana上的分词效果。此时“学运维”就是我们添加再词库里的词,而不是切分开来;用最小粒度查看就多了一个“学运维”词,之前是没有这个词的。
在这里插入图片描述
在这里插入图片描述

4.2 Linux安装

1.同样需要准备ik分词器的安装包,版本最好与es、kibana版本一致。我们还是解压到es的插件目录里,方便管理。
在这里插入图片描述
2.进入config目录,自定义分词。

  • 第一种,在默认词库里添加后在重启es、kibana服务,测试效果。

在这里插入图片描述
在这里插入图片描述

  • 第二种,新建自定义分词库,再重启es和kibana,测试效果。

在这里插入图片描述
在这里插入图片描述

4.3 自定义停用词词典

  • 上面我们已经自定义了“学运维”一词,在分词时可以把这三个字排一起当成一个词分出来。
  • 当然也可以自定义停用词词典,比如了、的、啥、么,我不像搜索这样的词出来。

1.比如我想在能把“吧”这个词搜索出来,对我没有实际意义,就可以把它单独停用。
在这里插入图片描述
2.在ik/config目录下自定义个文件,里面添加不像分的词,再添加到IKAnalyzer.cfg.xml文件里,最后重启es和kibana。

在这里插入图片描述
3.重启后在测试,就不会有“吧”这个词了。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_283277.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微服务+springcloud+springcloud alibaba学习笔记(1/9)

1.微服务简介 什么是微服务呢? 就是将一个大的应用,拆分成多个小的模块,每个模块都有自己的功能和职责,每个模块可以 进行交互,这就是微服务 简而言之,微服务架构的风格,就是将单一程序开发成…

项目管理案例分析有哪些?

项目管控中遇到的问题有哪些?这些问题是如何解决的? 在项目管理领域,案例分析是一种常见的方法来学习和理解项目管理实践,下面就来介绍几个成功案例,希望能给大家带来一些参考。 1、第六空间:快速响应个性…

1669_MIT 6.828 xv6代码的获取以及编译启动

全部学习汇总: GreyZhang/g_unix: some basic learning about unix operating system. (github.com) 6.828的学习的资料从开始基本信息的讲解,逐步往unix的一个特殊版本xv6过度了。这样,先得熟悉一下这个OS的基本代码以及环境。 在课程中其实…

最短路径算法及Python实现

最短路径问题 在图论中,最短路径问题是指在一个有向或无向的加权图中找到从一个起点到一个终点的最短路径。这个问题是计算机科学中的一个经典问题,也是许多实际问题的基础,例如路线规划、通信网络设计和交通流量优化等。在这个问题中&#…

Downloader工具配置参数并烧录到flash中

1 Downloader工具介绍 Downloader工具可以用来烧录固件到设备中,固件格式默认为*dcf。该工具还可以用来在线调试EQ或者进行系统设置。 2 配置参数 2.1 作用 当有一个dcf文件时,配合不同的配置文件*.setting,在不进行编译的情况下&#xff…

【毕业设计】ESP32通过MQTT协议连接服务器(二)

文章目录0 前期教程1 前言2 配置SSL证书3 配置用户名和密码4 配置客户端id(client_id)5 conf文件理解6 websocket配置7 其他资料0 前期教程 【毕业设计】ESP32通过MQTT协议连接服务器(一) 1 前言 上一篇教程简单讲述了怎么在虚拟…

【调试】ftrace(三)trace-cmd和kernelshark

之前使用ftrace的时候需要一系列的配置,使用起来有点繁琐,这里推荐一个ftrace的一个前端工具,它就是trace-cmd trace-cmd安装教程 安装trace-cmd及其依赖库 git clone https://git.kernel.org/pub/scm/libs/libtrace/libtraceevent.git/ c…

【Ruby学习笔记】19.Ruby 连接 Mysql - MySql2

Ruby 连接 Mysql - MySql2 前面一章节我们介绍了 Ruby DBI 的使用。这章节我们技术 Ruby 连接 Mysql 更高效的驱动 mysql2,目前也推荐使用这种方式连接 MySql。 安装 mysql2 驱动: gem install mysql2你需要使用 –with-mysql-config 配置 mysql_conf…

【DevOps】GitOps 初识(下) - 让DevOps变得更好

实践GitOps的五大难题 上一篇文章中,我们介绍了GitOps能为我们带来许多的好处,然而,任何新的探索都将不会是一帆风顺的。在开始之前,如果能了解实践GitOps通常会遇到的挑战,并对此作出合适的应对,可能会使…

数据结构和算法(一):复杂度、数组、链表、栈、队列

从广义上来讲:数据结构就是一组数据的存储结构 , 算法就是操作数据的方法 数据结构是为算法服务的,算法是要作用在特定的数据结构上的。 10个最常用的数据结构:数组、链表、栈、队列、散列表、二叉树、堆、跳表、图、Trie树 10…

StorageManagerService.java中的mVold.mount

android源码:android-11.0.0_r21(网址:Search (aospxref.com)) 一、问题 2243行mVold.mount执行的是哪个mount函数? 2239 private void mount(VolumeInfo vol) { 2240 try { 2241 // TOD…

【LeetCode】-- 108. 将有序数组转换为二叉搜索树

1. 题目 108. 将有序数组转换为二叉搜索树 - 力扣(LeetCode) 给你一个整数数组 nums ,其中元素已经按升序排列,请你将其转换为一棵高度平衡二叉搜索树。高度平衡二叉树是一棵满足「每个节点的左右两个子树的高度差的绝对值不超过 …

mysql在CentOS7.x环境安装

查看当前环境的yum源 ls -l /etc/yum.repos.d/ 可以看到当前环境是没有下载mysql对应的yum源的, 所以需要去官网下载对应的yum源. 找mysql的yum源并安装 http://repo.mysql.com/ 在选择对应yum源之前, 需要看一下自己系统的版本: 进入官网后, 鼠标右击进入查看页面源代码, 因为…

Leetcode.463 岛屿的周长

题目链接 Leetcode.463 岛屿的周长 easy 题目描述 给定一个 row x col的二维网格地图 grid,其中:grid[i][j] 1表示陆地, grid[i][j] 0表示水域。 网格中的格子 水平和垂直 方向相连(对角线方向不相连)。整个网格被…

如何从功能测试转型到自动化测试:我三年的学习经历

前言 在软件测试的领域里,自动化测试已经成为了不可或缺的一部分。 与传统的手工测试相比,自动化测试具有更高的效率和精确度,能够有效地减少测试时间和成本,同时提高测试质量。作为一个从事软件测试的人员,如果你想…

Oracle JDK 和 OpenJDK 有什么区别?

可能在看这个问题之前很多人和我一样并没有接触和使用过 OpenJDK 。那么 Oracle JDK 和 OpenJDK 之间是否存在重大差异?下面我通过收集到的一些资料,为你解答这个被很多人忽视的问题。 首先,2006 年 SUN 公司将 Java 开源,也就有…

智慧方政务云顶层设计与建设方案(ppt)

本资料来源公开网络,仅供个人学习,请勿商用,如有侵权请联系删除 对一网统管总体架构的理解物联网生态中的业务定位物联网产品与解决方案概览智联物联网管理平台总体方案智联物联网管理平台总体架构智联联连接平台(HLINK)应用架构智慧社区基于…

Linux--进程信号

前言 无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事情,而不是让烦恼和焦虑毁掉你不就不多的热情和定力。心可以碎,手不能停,该干什么干什么,在崩溃中继续努力前行&#xff0c…

export、export default 和import

👨 作者简介:大家好,我是Taro,前端领域创作者 ✒️ 个人主页:唐璜Taro 🚀 支持我:点赞👍📝 评论 ⭐️收藏 文章目录前言一、export default 和 import ?1. e…

【教学类-29-03】20230409《门牌号-黏贴版(5层*5间)灰底下划线》-(中班《我爱我家》偏数学)

作品样式: 背景需求 在门牌号黏贴版教学实践中,发现90%的幼儿都不会做 1、空格没有平均分布: 从5*630的门牌号中,随机抽取5个空格,有80%的概率出现“一行2个空、3行1个空”的情况。但幼儿第一次做,楼层都…