华为服务器RAID卡BBU信息中MAX_ERROR的含义

在linuxos中,使用4.00.11_Linux_MegaCLI查询BBU电池信息,发现Max Error: 100%而不是正常的2%。此时并不一定代表电池故障,这有可能是电池一个正常的调整过程。Maxerror的含义:Maxerror是一个衡量标准,用来比较电量读取精确度。当一个电池正常的relearn周期完成时,会设置Maxerror为2%。每比较一次,如果发现比较结果错误,MAXerror值变大。当数值达到10%时,Firmware会把MAXerror自动变为100%,同时强制设置为Write-Through模式...

阅读全文

subline text取消上次打开文件的方法

在安装sublimetext以后发现总是会打开历史记录的文件,这里mark下,方便以后查找找到设置->设置添加以下两行配置即可    "hot_exit": false,    "remember_open_files":false免得总是再找,在自己博客上记录下...

阅读全文

ELK中修改默认的@timestamp时间为日志生成时间

在logstash处理filebeat收集的日志数据以后我们可以发现logstash解析以后有一个@timestamp时间,然后而这个时间跟我们grok解析日志以后里面所包含的时间不是一致的,logstash收集日志的@timestamp时间是日志采集时间,而且使用的是UTC时区,相对于北京时间会晚8个小时,我们一般都不太关注日志采集时间,而是更加关注日志生成时间,所以我们需要将@timestamp字段的时间改写成日志生成时间我们这里还是用之前收集mongodb日志的例子来继续学习下如何改写@timestamp字段的时间,mongodb收集日志的方式还是...

阅读全文

linux最大进程数和最大打开文件数

之前有笔记记录linux内核参数的介绍和一些优化方法https://sulao.cn/post/494.html,这次的笔记其实还是基于原来的笔记,针对于最大进程数和最大打开文件数的优化,这两个参数的优化在我们日常的优化中比较常见,我们来看看详细介绍1.最大打开文件数的优化当在当前系统下提供tcp服务时,在并发持续很高的时候容易产生toomanyopenfiles错误,这时查看netstat可以发现很多TIME_WAIT状态的链接,这说明大量链接处于半开状态,已经完成了请求响应,并且进入了TCP关闭的四步握手按照TCP协议要求,在这里需要等待一段时...

阅读全文

python脚本加密的常用方式

在项目中有时不想别人看到我们写的python脚本内容,这时候我们需要将我们的python脚本进行加密,其实是不像让别人看到我写的代码太LOW了,(*^_^*)python脚本加密常用的有两种方式,一种是将文件.py文件转换为.pyc文件,但是这种加密方式可以被反编译,骗骗小白还是可以的,另一种方式则是使用cython将我们的脚本转换为.so文件我的测试代码很简单func.py文件,存放在test_func目录下#!/usr/bin/python3#coding:utf-8def test(name):  &n...

阅读全文

zabbix监控redis状态

redis是我们常用的数据中间件,在目前大多项目中经常会使用到,所以使用zabbix对他进行监控还是非常又必须要的,我们这里来看看具体操作过程,以下操作过程目录约束为/usr/local/redis,admin123为我的redis认证密码获取redis状态和性能有一个命令可以直接获取/usr/local/redis/src/redis-cli -a admin123 info返回# Serverredis_version:5.0.5redis_git_sha1:00000000redis_git_di...

阅读全文

kafka中删除topic的方法

目前在我的工作中删除topic这种操作基本很少去做,但是之前也做过几次,都是很粗暴的去目录下删除文件,移除目录等方法这次学习的笔记中我们学习记录如何彻底删除kafka的topic,按照一个正常的流程去操作,删除kafka的步骤有以下这些首先你需要停止订阅这个topic的所有消费者和生产者,如果不停止回导致broker一致更新消费者offset状态,直接调用kafka删除命令无法删除topic,同时auto.create.topics.enable的值设置为false,默认是true,如果不进行修改的话,没有完全停止生产者,生产者在没有topic的情况下回...

阅读全文

python使用pykafka操作kafka

Kafka是一种分布式的、分区的、多副本的基于发布/订阅的消息系统。它是通过zookeeper进行协调,常见可以用于web/nginx日志、访问日志、消息服务等。主要应用场景为:日志收集系统和消息系统。Kafka的主要设计目标如下:1.以时间复杂度为O(1)的方式提供持久化能力,即使对TB级别以上的数据也能保证常数时间的访问性能。2.高吞吐率,即使在十分廉价的机器上也能实现单机支持每秒100K条消息的传输。3.支持KafkaServer(即Kafka集群的服务器)间的消息分区,及分布式消费,同时保证每个parti...

阅读全文

kafka查看存储数据的方法

我们通过之前得学习,得知kafka一些特性和python操作kafka得方法,但是我们还没有学习过查看kafka数据方法,然后在这一篇笔记中我们来学习下使用命令来查看kafka数据我们首先查看kafka主题分布情况/usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic nginx-logsTopic:nginx-logs      &...

阅读全文

ELK中logstash从kafka中读写数据

考虑到发布和订阅消息的实时性问题,有时需要消费者重新消费之前的历史日志消息,所以后面肯定需要使用kafka替换掉原来使用的redis,所以这里暂时先mark下logstash清洗过滤日志以后发布到kafka主题中的方式将日志数据导入到kafkainput {  beats {    port => 5044    codec => plain { &...

阅读全文