有点彪悍啊。
ok,是我没注意审题。
我仔细想了想,tiflash的话好像还真没有想到特别好的办法。看看其他大佬怎么说。
这个不实际操作一下,很难回答。我个人感觉这样恢复很难,非常不靠谱。看看是否有其他大佬有好的实践。
感觉恐怕不是文件合并能解决的问题。
因为目录里面看应该是一堆sst文件,这可能可以理解为就是region的原始信息,而且带了备份时间开始到现在的所有mvcc信息来实现pitr。这个东西恐怕不是文件合并能解决的。
因为会有一些sst没写满,按天还原sst肯定有相互的覆盖,按天操作一个顺序搞错,恢复的日志就没法用了。
如果非要一天上传一次,我感觉保险点还是每天tiup br log stop之后备份掉,再按照时间戳启动一下任务,并且改变一下保存的路径。可能可以做到。
我也没试过。你可以尝试一下。
最好还是弄个s3.就非常省心了。你这么绕一圈折腾的原因,还是因为用的是共享目录。
能看到ru_comsumption=0.
如果不是资源组和用户绑定有问题,那可能就是像楼上说的那样。资源组的ru用完了,实在没ru给他了。导致等待时间巨长。
看看执行计划里面是否有具体的信息。
cpu都没跑满,这个测试就属于没压到位啊。
当然cpu跑满了,也可能跑不过单机mysql。
还是建议先压满cpu,再考虑调优。
看这个,里面写道:
selectResult 实现了 SelectResult 这个接口,代表了一次查询的所有结果的抽象,计算是以 Region 为单位进行,所以这里全部结果会包含所有涉及到的 Region 的结果。调用 Chunk 方法可以读到一个 Chunk 的数据,通过不断调用 NextChunk 方法,直到 Chunk 的 NumRows 返回 0 就能拿到所有结果。NextChunk 的实现会不断获取每个 Region 返回的 SelectResponse,把结果写入 Chunk。
所以结论是按chunk分批拿结果。
给的信息还是太少。
先从grafana -》fast tune里面找找看,是否能快速找到一些有价值的信息。
这是手册。
tidb-loadbalance代码库的位置在这里,找了下没有发现report字样。
建议在自己的代码里面检索一下report,看看是否能找到些什么。
你中控机都找不到还要重启这个tikv实例?你确定这样不会背锅嘛?
如果是离职交接的原因该叫就叫啊。现在叫不会是你的错,但是你不叫,重启出了问题,肯定就是你的问题了。
[ERROR] [grpclogger.go:116] ["[transport]transport: Got too many pings from the client, closing the connection."] [system=grpc] [grpc_log=true]"
[ERROR] [grpclogger.go:116] ["[transport]transport: loopyWriter.run returning. Err: transport: Connection closing"] [system=grpc] [grpc_log=true]
你日志里面这个b…
这应该是个bug。没有发现有hint导致不能mpp。