【火热报名中】4 月 12 日 TiDB 社区活动在南京!传统技术栈替换和 AI 浪潮正当时,面向未来的国产数据库怎么选择?
其他
其他
商业咨询
其他
文档
其他
论坛
其他
专栏
其他
课程
其他
活动
其他
排行榜
其他
TiDB User Group
其他
TiDB 地区组织活动
其他
贡献者专区
其他
社区准则
其他
私信
shiyuhang0
V7
于 2021-12-15 加入
获赞
14
回答
43
文章
6
徽章
11/87
点亮更多徽章
回答 43
提问 5
文章 6
全部
查看tikv-client-java的版本支持对应的tidb版本?
没有官方说明。 但据我了解能支持 <= v6,更加新的版本可能要自己评估是否能接受可能的不兼容。 但是最好能用 client-go 就用 client-go,因为他稳定性可靠性有保障
2 个月前
dumpling 导出数据文件过小
-r 开启表内并发,dumpling 并没有聚合的逻辑,这个并发处理的数据量少,文件就小。 -r 开启后如何拆分数据是自动的,不是外部能控制的 -F 可以理解为每个并发生成的文件的上限
2 个月前
2024年了,TIDB Serverless版本可以在国内使用了吗?
一直可以使用的,
https://tidbcloud.com/
. 只是托管在 AWS 上,开放了 5个 region。国内可以选最近的新加坡,相当于数据库部署在新加坡,延迟肯定稍高,你可以自己测具体多少延迟
2 个月前
TiDB 为什么没有物理导出?
emm,看了大家的回答,感觉可能是我表述的不太对。 我是这么理解的: Backup&Restore:纯从 TiKV 导入导出 SST file lighting 的物理导入模式:支持各种格式的导入。首先需要把 sql/csv/parquet 等格式编码处理成键值对,然后再直接插入 TiKV Dumpling: 仅支持从 TiDB 读取。 我的问题是,为什么没有这样一个工具:当想导出某一个大表时,从 TiKV 直接读取,然后解码成 sql/csv/parquet 等格式
4 个月前
TiDB 为什么没有物理导出?
BR 那不一样啊,只能在 TiDB 之间做备份恢复。 这就和即使有 restore ,还有 lighting 的物理导入道理一样。lighting 的物理导入可以支持各种格式。 虽然有 backup 了,但他并不能导出为其他格式,直接用于分析或者导入到其他数据库。
4 个月前
tispark 连接8.1tidb 异常问题: ERROR SparkSQLEngine: Failed to instantiate SparkSession: Error scanning data from region.
咱们业务上能否切换成 spark jdbc 写入呢,如果可以推荐做一下切换。 错误原因主要是写入前的 scatterRegion (预切region)失败。考虑到这个错误只在 TiDB 8.1 上出现,可能是兼容性方面的问题,这方面目前官方也没有保证和 TiDB 8.1 的兼容性。 时间变长可能是中间有许多错误,在重试。
8 个月前
spark-sql 执行 delete 报错
It should be fixed in this pr
Support localdate convert to date in datetype by shiyuhang0 · Pull Request #2780 · pingcap/tispark · GitHub
1 年前
tispark查询数据量和直接tidb查询数据量不一致
Fix in this PR
https://github.com/pingcap/tispark/pull/2775
.
1 年前
【TiDBer 唠嗑茶话会 110】 PlanetScale 不免费后,选什么数据库好?
之前写了一个小 blog
1 年前
用pytispark写入从tidb的一个表写到另一个表性能很差
写时候的读取是用于冲突等判断 根据之前的 bechmark, 4000w 的数据用 tispark / spark jdbc 应该都是分钟级别的。如果不需要全局事务还是建议 spark jdbc 你现在的并发度是多少,benchmark 里的是 32。如果低了可以增加 executor 数量/核心数来增加并发
1 年前
tispark, insert 受 spark.tispark.replica_read 参数影响
应该是设计的时候没有考虑好,我觉得这个参数不应该影响写入。 提了一个 issue,
https://github.com/pingcap/tispark/issues/2756。
但这个问题很好规避 fix 不是很急,我有空再搞一下,或者大家有兴趣也可以贡献
2 年前
文档优化建议,Follower Read
这里上下文就是 learner 了
[image]
2 年前
pyspark 提示 warn:Unable to find
感觉确实是日志级别不太合适,但不影响正常功能。欢迎在 client-java contribute
2 年前
tispark 如何指定使用 tikv/tiflash
spark-sql 还不支持相应 hint,也无法在 spark-sql 中进行语句级别的配置。 目前应该只能: 在配置文件中配置,但这就不是语句级别的 使用 spark-shell/pyspark 等可编程的方式,可以进行语句级别的配置 spark.tispark.isolation_read_engines
https://github.com/pingcap/tispark/blob/master/docs/userguide_3.0.md
2 年前
spark读取tidb,所有select出来的数据都在一个executor中,最后导致了oom
https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html
JDBC 可以参考这里手动进行分区
[image]
2 年前
【已结束】倒计时!七夕节为爱挑战!“爱有多深,TiDB 就有多稳”TiDB 社区为你准备好了给另一半的“七夕节”礼物,回复“我要挑战”参加吧!
我要挑战
2 年前
tidb 分区表使用tispark越跑越慢,怎么回事?
还没有支持 unix_timestamp 的分区裁剪。
https://github.com/pingcap/tispark/blob/master/docs/userguide_3.0.md#partition-table-support
[image] 可以到
https://github.com/pingcap/tispark/issues
提一个 feature request
2 年前
tispark执行sql,where条件中筛选日期报错
分区定义也要改一下,mysql 协议 datetime 类型应该是yyyy-MM-dd HH:mm:ss 这个格式
2 年前
tispark执行sql,where条件中筛选日期报错
我查了一下原因,目前 string 转换为 datetime 时,需要为 yyyy-MM-dd HH:mm:ss 的格式。 你可以这样定义:partition p202005 values less than (“2020-06-01 00:00:00”) 参考
https://docs.pingcap.com/zh/tidb/dev/partitioned-table#range-columns-分区
在 TiSpark 3.0 中这样定义仍有问题(bug),在 TiSpark >= 3.1 之后这样定义不再有问题
2 年前
没有更多内容了