针对以上问题,需要深入研究distribution gc的原理和s3相关的接口,进而优化gc代码,理想目标是gc在8个小时以内。
registry
harbor
manifest
blob
在1.6版本的harbor中,暂时还没有GC的概念,所以这里个GC是指对于镜像仓库(distribution)的GC。下面简单介绍下GC的逻辑。
harbor [ / ]$ registry_DO_NOT_USE_GC garbage-collect --help
`garbage-collect` deletes layers not referenced by any manifests
Usage:
registry garbage-collect <config> [flags]
Flags:
-m, --delete-untagged=false: delete manifests that are not currently referenced via tag
-d, --dry-run=false: do everything except remove the blobs
-h, --help=false: help for garbage-collect
通过查询相关文档,并没有查看到具体的解释,通过梳理代码流程,这个参数的作用是清理以下两种情况下的镜像。
docker tag centos:7 myos:v1
docker push myos:v1 # 生成一个sha256值
docker tag ubuntu:20 myos:v1
docker push myos:v1 # 生成一个sha256值
经过上诉步骤后,使用docker pull myos:v1
只能拉取到ubuntu的镜像,但是centos:7
这个镜像并没有被删除,可以通过centos:7
的sha256
值的方式进行拉取。
sha256
的方式删除镜像,那么此sha256
对应镜像的tag将无法被拉取。docker push myos:v2 # 生成一个sha256值,比如是987654321
docker tag myos:v2 centos:7
docker push centos:7
docker tag myos:v2 ubuntu:20
docker push ubuntu:20
docker remove remote myos@987654321
经过上诉步骤后,centos:7
和````ubuntu:20``均无法被拉取。
了解原有gc速度慢是因为ceph性能低的原因后,就可以做针对性的优化。
1、通过s3 list 遍历获取镜像列表 改为 从pgsql中中获取镜像列表
2、去掉stat获取key的状态。
3、遍历blob,不需要遍历到data文件。
4、去掉删除函数中的list操作。
5、合并删除请求,挨个删除blob数据,修改为每500个blob(这个量要控制一下,防止ceph崩溃和其他影响),调用s3接口删除一次。
6、为方便观察GC效率,增加GC记录信息,每隔5分钟输出一次剩余的待删除layers的数据。
相关代码就不展示了,需要的同学可以私信获取。优化的第一步就是要了解到性能慢的细节和代码执行的完整步骤,在有限的条件下思考每个步骤是否有优化的空间。本次优化,将GC时间从原来的至少两天缩短到了不到3个小时,性能提升了20多倍。