TiDBer_小阿飞
TiDBer_小阿飞
V9
弱水三千
2023-08-25 加入
获赞
121
回答
963
文章
3
    【你有用 Deepseek 做过数据库选型参考吗?】有 【你问的问题是】HTAP类型的数据库的优缺点 【准确率如何?】高 【回答截图】 [1739935000640] [1739935085889]
    4 天前
    解决了,群里大佬给的方案,tidb-deploy/alertmanager-9093/scripts/run_alertmanager.sh的脚本里看看监听地址是否是0.0.0.0,如果是,先改成对外实际IP,9093和9094都要改,然后启动节点,最后检查ip addr看看是否有私网地址,没有私网地址就会一直报上述错误。
    8 天前
    解决了吗?和你报错一样
    8 天前
    .sst就是KV键值对数据,看下rockdb就知道了 https://docs.pingcap.com/tidb/v8.4/rocksdb-overview 在 TiDB 中,.sst 文件(Sorted String Table 文件)是 RocksDB 用于持久化存储数据的关键组件。RocksDB 是一种高性能的嵌入式键值存储引擎,采用 LSM-tree(Log-Structured Merge-Tree)架构。以下是 .sst 文件生成的基础和过程,以及 RocksDB 在数据持久化和检索中的作用: .sst 文件的生成过程 数据写入:当用户向 TiDB 写入数据时,数据首先被记…
    1 个月前
    tot_proc: 40.4s, 你TIKV有什么瓶颈么? cop_task 的总处理时间怎么这么长?
    1 个月前
    你主键是是创建主键时自动创建的聚集索引吧,会不会执行计划是全表扫描
    1 个月前
    开源社区、分布式、节点任意扩缩容
    1 个月前
    大部分是自动化运维,因为有监控平台,报警后,登录tidb后台,再查询报错类型和原因,手动处理并优化
    1 个月前
    检查数据迁移进度:使用pd-ctl工具检查数据迁移的进度,确保所有数据已成功迁移到其他节点。 释放磁盘空间:检查并释放TiFlash节点上的磁盘空间,确保有足够的空间进行数据迁移。 检查网络连接:确保TiFlash节点与集群其他部分的网络连接正常,排除网络问题。 验证配置:检查TiFlash的配置文件,确保配置正确无误。
    1 个月前
    这个应该是业务范畴吧,写个程序或者脚本,脚本里加SQL把用户表和关联的操作拉出来就行吧?
    1 个月前
    手动GC清一下版本先
    1 个月前
    补充: 如果 CSV 文件遵循严格格式(每个字段仅占用一行),可以启用 strict-format 设置以允许 Dumpling 将文件分割为多个 256 MiB 大小的块以进行并行处理。这可以通过在配置文件中设置: [mydumper] strict-format = true 没实践过,你可以试试这个参数
    1 个月前
    在使用 Dumpling 导出 CSV 文件时,有几个重要的配置选项需要注意,其中之一是 --fields-terminated-by 参数。这个参数用于指定 CSV 文件中字段之间的分隔符。选择合适的分隔符对于确保数据的正确导出和后续处理至关重要。 对于包含特殊字符的数据,可以选择使用 --fields-terminated-by '\t'(制表符)来确保数据的完整性。 除了 --fields-terminated-by,Dumpling 还提供了其他选项来定制 CSV 文件的格式,例如: --csv-delimiter:用于指定字符型变量的定界符,默认是双引号". --csv-se…
    1 个月前
    你这WPS里C列是一列值么?缺失的内容好像很多啊,不止符号,A1的1,B1的1都没有?
    2 个月前
    在TiDB中,聚簇主索引和非聚簇主索引有以下区别: 数据存储方式: 聚簇主索引:数据按照主键的顺序存储。每一行数据只需要一个键值对,即“主键数据(键)- 行数据(值)”。这种方式可以提高涉及主键的查询性能,尤其是范围查询和前缀条件查询。 非聚簇主索引:数据不按照主键的顺序存储。每一行数据需要至少两个键值对:一个是“_tidb_rowid(键)- 行数据(值)”,另一个是“主键数据(键)- _tidb_rowid(值)”。这种方式在查询时需要额外的步骤来定位数据。 性能差异: 聚簇主索引:在插入数据时减少了一次网络写入;在仅涉及主键的等值查询中减少了一次网络读取;在仅涉及主键的范…
    2 个月前
    干看合集也没什么用,要遇到实际问题以后,根据问题类型再参考合集
    2 个月前
    1.考虑使用join语法 2.查看索引是否需要重建,比如你的 lqcv_trip_data表的id字段和 lqcv_tmp_behavior_trip_score的 trip_id 字段 3.简化一下时间的判断条件, 由于 TIMESTAMPDIFF(DAY, t1.start_time, NOW()) 会计算两次,可以考虑使用子查询或临时变量来避免重复计算 4.数据量如果太大太多的话,最终可以考虑批量更新,limit 10000或者更少,看你实际情况
    2 个月前
    UPDATE lqcv_trip_data t1 JOIN lqcv_tmp_behavior_trip_score t2 ON t1.id = t2.trip_id JOIN ( SELECT id, TIMESTAMPDIFF(DAY, start_time, NOW()) AS day_diff FROM lqcv_trip_data ) t3 ON t1.id = t3.id SET t1.score = t2.trip_score, t1.is_processing = 1 WHERE t3.day_diff <= 3 AND t3.day_diff >= 0 AN…
    2 个月前