新建一个同步任务,指定新的binlog-name和binlog-pos,从新的位置开始同步
你的意思你有很多tikv节点,想一个一个缩容,缩掉6个节点,但是缩容第一个节点时又不想让这个节点的region自动迁移时迁移到即将缩容的剩下5个节点上,如何处理,可以保持这个5个节点上的region暂时不往外迁移,也不接受其他region?
这样如果你pd-ctl store weight <store_id> 0这样设置权重的话,这些节点上的region应该都会往外迁移,应该只能通过打label来解决,
如果可以承受数据不一致的 话,直接跳到下个binlog文件开始同步,不行的话只能重新初始化了
这里报错是因为请求的binlog文件超出范围了 ,你用 mysqlbinlog 工具查看 binlog 文件的内容,确保请求的位置在文件范围内。可能是这个文件缺失了。
tidb中default_authentication_plugin 的作用和mysql8不同:tidb仅用于告诉客户端“服务器支持哪些认证方式”,而非控制用户创建的默认值。
TiDB 的设计逻辑:通过强制显式指定用户认证插件,避免全局参数变更导致的安全风险,同时提供更细粒度的权限控制。
正确操作:创建用户时,必须使用 WITH 子句明确指定插件,否则 TiDB 会回退到安全兼容的默认值(mysql_native_password)。
dashboard里面看sql吧,把大sql优化下,tikvcpu占用高都是大sql造成的
最期望的还是这个:
用 TiDB 快速开发 AI 应用实践/流程
我看你的186上应该是混合部署了tikv和tiflash?强烈不建议这么用,建议单独部署tiflash。tidb内存分布不均衡还挺正常的,首先不能保证所有业务平均连接到这几个节点上,另外可能某些节点跑了大sql,占用内存就会大一点。但是184这个tikv内存占用这么多,确实有点不正常
你的tikv一共多少核?
Grafana → TiKV-Details → Thread CPU → async apply CPU
这个监控看下,如果利用率比较高的话,考虑调大一点apply-pool-size
SHOW config WHERE NAME LIKE ‘%apply-pool-size%’
SET CONFIG tikv `raftstore.apply-pool-size` = '4';
如果你目前已部署,可以聊聊:
【你使用的是 TiDB Operator 还是其他方式部署 TiDB?】
都有
【在 K8s 上部署 TiDB 的主要应用场景是什么】
业务上云,不给物理机,只能部署在k8s上
【你认为容器化 K8s 部署 TiDB 有哪些优势和挑战?】
没看到什么优势,全是挑战,日志不好排查,问题不好处理,运维复杂,不如本地物理机部署的一根
应该是没有考虑到id已经设置为非空了,所以统一选择回表了。确实如果没有 设置为非空,有空值的情况下,是需要回表的。
看着是你的tikv扛不住了,发下拓扑结构,能上tiflash上tiflash吧
这里都写内网地址不行吗?应该就会通过内网地址访问啊。。。
8台 64c + 256g的机器,建议拿三台出来都是pd+tidb-server混布(包括Prometheus和grafana之类的);通过numa隔离资源,剩下4台部署tikv,可以每天上部署2个示例,通过numa隔离资源;剩下一台部署tiflash即可,tiflash部署太多没多大用。。。
其实就是excel文件入库,用python实现简单点,给你个我的例子:
import pandas as pd
from sqlalchemy import create_engine
# 定义数据库连接参数
user = '******'
password = '******'
host = '******' # 或其他数据库主机
port = '******' # MySQL 默认端口
database = '******'
table_name = '******'
# 创建数据库连接字符串
connection_string = f'mysql+mysqlconne…