在介绍之前,我先说一下整体思路,如果你的业务日志量不是特别大恰好你又使用的是云服务,那你直接使用云服务日志就可以了,比如阿里云的SLS,基本就是点点鼠标配置几步就可以将你的日志收集到阿里云的SLS里面了,直接就可以在阿里云中查看收集上来的日志了,感觉也没必要折腾。
如果你的日志量比较大,那就可以上日志系统了。
我们将业务日志打印到console、file之后,市面上比较常用的方式是elk、efk等基本思路一样,我们拿常说的elk来举例,基本思路就是logstash收集过滤到elasticsearch中,然后kibana呈现
但是logstash本身是使用java开发的,占用资源是真滴高,我们用go做业务,本身除了快就是占用资源少构建块,现在在搞个logstash浪费资源,那我们使用go-stash替代logstash,go-stash是go-zero官方自己开发的并且在线上经过长期大量实践的,但是它不负责收集日志,只负责过滤收集上来信息(https://github.com/kevwan/go-stash)
filebeat收集我们的业务日志,然后将日志输出到kafka中作为缓冲,go-stash获取kafka中日志根据配置过滤字段,然后将过滤后的字段输出到elasticsearch中,最后由kibana负责呈现日志
在上一节错误处理中,我们可以看到已经将我们想要的错误日志打印到了console控制台中了,现在我们只需要做后续收集即可
#消息队列
kafka:
image: wurstmeister/kafka
container_name: kafka
ports:
- 9092:9092
environment:
KAFKA_ADVERTISED_HOST_NAME: kafka
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
TZ: Asia/Shanghai
restart: always
volumes:
- /var/run/docker.sock:/var/run/docker.sock
networks:
- looklook_net
depends_on:
- zookeeper
先配置好kafka、zookeeper
然后我们进入kafka中先创建好filebeat收集日志到kafka的topic
进入kafka容器
$ docker exec -it kafka /bin/sh
$ cd /opt/kafka/bin/
$ ./kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 -partitions 1 --topic looklook-log
在项目根目录下 docker-compose-env.yml文件中可以看到我们配置了filebeat
filebeat的配置我们挂载到 deploy/filebeat/conf/filebeat.yml
filebeat.inputs:
- type: log
enabled: true
paths:
- /var/lib/docker/containers/*/*-json.log
filebeat.config:
modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
processors:
- add_cloud_metadata: ~
- add_docker_metadata: ~
output.kafka:
enabled: true
hosts: ["kafka:9092"]
#要提前创建topic
topic: "looklook-log"
partition.hash:
reachable_only: true
compression: gzip
max_message_bytes: 1000000
required_acks: 1
配置比较简单,可以看到我们收集所有日志直接 输出到我们配置的kafka中 , topic配置上一步kafka中创建的topic即可
我们来看下go-stash的配置文件 deploy/go-stash/etc/config.yaml
Clusters:
- Input:
Kafka:
Name: gostash
Brokers:
- "kafka:9092"
Topics:
- looklook-log
Group: pro
Consumers: 16
Filters:
- Action: drop
Conditions:
- Key: k8s_container_name
Value: "-rpc"
Type: contains
- Key: level
Value: info
Type: match
Op: and
- Action: remove_field
Fields:
# - message
- _source
- _type
- _score
- _id
- "@version"
- topic
- index
- beat
- docker_container
- offset
- prospector
- source
- stream
- "@metadata"
- Action: transfer
Field: message
Target: data
Output:
ElasticSearch:
Hosts:
- "http://elasticsearch:9200"
Index: "looklook-{{yyyy-MM-dd}}"
配置消费的kafka以及输出的elasticsearch , 以及要过滤的字段等
访问kibana http://127.0.0.1:5601/ , 创建日志索引
点击左上角菜单(三个横线那个东东),找到Analytics - > 点击discover
然后在当前页面,Create index pattern->输入looklook-* -> Next Step ->选择@timestamp->Create index pattern
然后点击左上角菜单,找到Analytics->点击discover ,稍等一会,日志都显示了 (如果不显示,就去排查filebeat、go-stash,使用docker logs -f filebeat查看)
我们在代码中添加一个错误日志尝试一下,代码如下
func (l *BusinessListLogic) BusinessList(req types.BusinessListReq) (*types.BusinessListResp, error) {
logx.Error("测试的日志")
........
}
我们访问这个业务方法,去kibana中搜索 data.log : "测试",如下图
-
go-stash镜像版本使用错了
看看go-stash的log ,如果出现core dumped , 就说明镜像使用错了。
解答:
如果你是mac m1或者 linux arm,请更改一下docker-compose-env.yml中go-stash镜像 kevinwan/go-stash:1.0-arm64 ,默认是linux amd的
-
docker版本问题
解答:
这个我没有实际遇到,但是有同学使用docker版本是1.13遇到了,filebeat配置文件中配置收集docker的路径低版本docker可能位置不一样导致收集不到docker内部日志,最好升级一下docker18.03.1以上目前都没问题,17没有实际测试 , 我这边用的docker版本是 Version: 20.10.8
-
内部kafka问题
解答:
1)docker logs 按照顺序检查kafka、filbeat、go-stash、es的容器日志,确认服务都没问题
2)先docker logs -f filebeat查看filebeat是否正确连接到了kafka
3)进入kafka容器内,执行消费kafka-log消息,看看是否filebeat的消息已经发送到了kafka
$ docker exec -it kafka /bin/sh $ cd /opt/kafka/bin $ ./kafka-console-producer.sh --bootstrap-server kafka:9092 --topic kafka-log
【注】如果能消费到消息,说明filebeat与kafka没问题,就去排查go-stash、es
如果不能消费
1)就应该是filebeat与kafka之间连接的问题,要去看下kafka的配置信息Listen是否修改了
2)在kafka容器内部命令行使用consumer.sh消费kafka-log,另外一个终端命令行用producer.sh给kafka-log发送消息,如果consumer收不到,说明kafka出问题了,docker logs -f kafka看看什么问题
到此日志收集就完成了,接下来我们要实现链路追踪