好了,总结一下有几个需要注意的点:
版本要选低一点的
权限要给足
sink-url 配置要准确
我这边确认了 kafka 的版本是正确的,我能通过什么手段读到 api 里用到的是那个版本吗?
host=*, operation=ALL, permissionType=ALLOW
权限是最大了,报错如下:
Error: [CDC:ErrKafkaNewSaramaProducer]new sarama producer: kafka: client has run out of available brokers to talk to: 3 errors occurred:
* EOF
* EOF
* EOF
没有,文档中提及的权限我都有,但还是报这个错误
kafka server: The client is not authorized to send this request type
我们 kafka 线上配置如下:
security.protocol: “SASL_PLAINTEXT”
sasl.mechanism: “SCRAM-SHA-256”
sasl.jaas.config: “org.apache.kafka.common.security.scram.ScramLoginModule required username=“xxx” password=“xxx”;”
ticdc 的参数中只有一个 protocol,没有找到 security.protocol 的配置
我指的是 security.protocol 这个参数在文档里没有找到对应的配置
这是我的完整配置:
tiup cdc:v6.5.3 cli changefeed create -c xxxx --pd=
http://xxx:2379 --sink-uri=“kafka://xxx/xxx?protocol=canal-json&enable-tidb-extension=false&kafka-version=2.5.1&sasl-user=xxx&sasl-password=xxxxxx&sasl-mechanism=SCRAM-SHA-256&partition-num=40&ka…
如果业务用 go client 是否也会碰到这个问题呢?
mysql> CREATE TABLE `t1` (
-> `id` bigint(20) unsigned NOT NULL AUTO_INCREMENT COMMENT '',
-> `u` bigint(20) unsigned NOT NULL DEFAULT '0' COMMENT '',
-> `p` bigint(20) unsigned NOT NULL DEFAULT '0' COMMENT '',
-> `k` bigint(20) unsigned NOT NULL DEFAULT '0' COMMENT '',
->…
我之前尝试过改成 2,还是报相同的错,还有请问如果是有自增主键的聚簇表,想打散如何操作
我建了个空表,然后预打散,发现报错
mysql> SPLIT TABLE t1 BETWEEN (0) AND (18446744073709551615) REGIONS 128;
ERROR 1105 (HY000): Split table region lower value count should be 2
请教下 lower_value 和 upper_value 是指的什么,是指的表主键 id 吗?
[image]RU 评估 300w,我限制成了 1w,看样子限制不住