-
Notifications
You must be signed in to change notification settings - Fork 90
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
高可用的保证 #60
Comments
我理解是:Coordinator可以做分片,并且做了服务发现,通过这种方式做服务的一些切换。但如果中间有一个服务器挂掉了,切换过去还是会出现数据断的情况。 |
我也有同样的问题:每当kvass分片发生变动或意外重启的时候,总会断数据。目前我是准备跑两套kvass去采集相同的指标,用这种方式去保障高可用,但这样做资源消耗比较大。 |
目前是支持高可用的, |
是指只部署一个Coordinator来管理两套Prometheus的StatefulSet是吗?!我起初理解也是应该可以这样,但实际测了一下,发现第二套sts起的实例感觉被当作了第一套sts的子分片实例,感觉有点bug。后来我看Coordinator本身占用资源不多,我就跑了两个Coordinator分别管理自己那套Prometheus的StatefulSet。这个大佬可以再确认一下 |
每个StatefulSet是单独管理的。你的情况是不是因为2个StatefulSet的pod selector有冲突导致的?使用1个Coordinator的好处是,他会整合多个副本的Target结果。只要有一个副本采集成功就会是up的。当然,使用独立的Coordinator,可用性更高一些。 |
我希望能让每2个普罗米修斯采集同样的数据,通过thanos来做去重,保证高可用性。但使用了kvass之后,无法控制让他们去采集重复的数据。请问是你们是如何保证高可用的?
The text was updated successfully, but these errors were encountered: