Skip to content

Commit

Permalink
Remove duplicate white space between Chinese characters (pingcap#12082)
Browse files Browse the repository at this point in the history
  • Loading branch information
Oreoxmt authored Jan 3, 2023
1 parent 8404a5b commit 7ad73c4
Show file tree
Hide file tree
Showing 166 changed files with 323 additions and 323 deletions.
4 changes: 2 additions & 2 deletions alert-rules.md
Original file line number Diff line number Diff line change
Expand Up @@ -382,7 +382,7 @@ aliases: ['/docs-cn/dev/alert-rules/','/docs-cn/dev/reference/alert-rules/']
* 处理方法:

* 确认是否需要扩容。
* 排查是否有文件占用了大量磁盘空间,比如日志、快照或 core dump等文件
* 排查是否有文件占用了大量磁盘空间,比如日志、快照或 core dump 等文件

#### `PD_system_time_slow`

Expand Down Expand Up @@ -789,7 +789,7 @@ aliases: ['/docs-cn/dev/alert-rules/','/docs-cn/dev/reference/alert-rules/']

## TiCDC 报警规则

关于TiCDC 报警规则的详细描述,参见 [TiCDC 集群监控报警](/ticdc/ticdc-alert-rules.md)
关于 TiCDC 报警规则的详细描述,参见 [TiCDC 集群监控报警](/ticdc/ticdc-alert-rules.md)

## Node_exporter 主机报警规则

Expand Down
6 changes: 3 additions & 3 deletions analyze-slow-queries.md
Original file line number Diff line number Diff line change
Expand Up @@ -41,7 +41,7 @@ summary: 学习如何定位和分析慢查询。
- 慢日志记录了 SQL 从解析到返回,几乎所有阶段的耗时,较为全面(在 TiDB Dashboard 中可以直观地查询和分析慢日志);
- `explain analyze` 可以拿到 SQL 实际执行中每个执行算子的耗时,对执行耗时有更细分的统计;

总的来说,利用慢日志和 `explain analyze` 可以比较准确地定位查询的瓶颈点,帮助你判断这条 SQL 慢在哪个模块 (TiDB/TiKV) ,慢在哪个阶段,下面会有一些例子。
总的来说,利用慢日志和 `explain analyze` 可以比较准确地定位查询的瓶颈点,帮助你判断这条 SQL 慢在哪个模块 (TiDB/TiKV),慢在哪个阶段,下面会有一些例子。

另外在 4.0.3 之后,慢日志中的 `Plan` 字段也会包含 SQL 的执行信息,也就是 `explain analyze` 的结果,这样一来 SQL 的所有耗时信息都可以在慢日志中找到。

Expand Down Expand Up @@ -112,7 +112,7 @@ summary: 学习如何定位和分析慢查询。

#### 取 TS 慢

可以对比慢日志中的 `Wait_TS``Query_time` ,因为 TS 有预取操作,通常来说 `Wait_TS` 应该很低。
可以对比慢日志中的 `Wait_TS``Query_time`,因为 TS 有预取操作,通常来说 `Wait_TS` 应该很低。

```
# Query_time: 0.0300000
Expand All @@ -131,7 +131,7 @@ TiDB 侧 Region 信息可能过期,此时 TiKV 可能返回 `regionMiss` 的

#### 子查询被提前执行

对于带有非关联子查询的语句,子查询部分可能被提前执行,如:`select * from t1 where a = (select max(a) from t2)` `select max(a) from t2` 部分可能在优化阶段被提前执行。这种查询用 `explain analyze` 看不到对应的耗时,如下:
对于带有非关联子查询的语句,子查询部分可能被提前执行,如:`select * from t1 where a = (select max(a) from t2)``select max(a) from t2` 部分可能在优化阶段被提前执行。这种查询用 `explain analyze` 看不到对应的耗时,如下:

```sql
mysql> explain analyze select count(*) from t where a=(select max(t1.a) from t t1, t t2 where t1.a=t2.a);
Expand Down
2 changes: 1 addition & 1 deletion backup-and-restore-using-dumpling-lightning.md
Original file line number Diff line number Diff line change
Expand Up @@ -84,7 +84,7 @@ SELECT table_name,table_schema,SUM(data_length)/1024/1024 AS data_length,SUM(ind
[tikv-importer]
# "local":默认使用该模式,适用于 TB 级以上大数据量,但导入期间下游 TiDB 无法对外提供服务。
# "tidb":TB 级以下数据量也可以采用`tidb`后端模式,下游 TiDB 可正常提供服务。 关于后端模式更多信息请参阅:https://docs.pingcap.com/tidb/stable/tidb-lightning-backends
# "tidb":TB 级以下数据量也可以采用`tidb`后端模式,下游 TiDB 可正常提供服务。关于后端模式更多信息请参阅:https://docs.pingcap.com/tidb/stable/tidb-lightning-backends
backend = "local"
# 设置排序的键值对的临时存放地址,目标路径必须是一个空目录,目录空间须大于待导入数据集的大小。建议设为与 `data-source-dir` 不同的磁盘目录并使用闪存介质,独占 IO 会获得更好的导入性能
sorted-kv-dir = "${sorted-kv-dir}"
Expand Down
2 changes: 1 addition & 1 deletion benchmark/benchmark-tidb-using-tpcc.md
Original file line number Diff line number Diff line change
Expand Up @@ -37,7 +37,7 @@ tiup install bench

关于 TiUP Bench 组件的详细用法可参考 [TiUP Bench](/tiup/tiup-bench.md)

假设已部署 TiDB 集群,其中 TiDB 节点部署在 172.16.5.140、 172.16.5.141 实例上,端口都为 4000 ,可按如下步骤进行 TPC-C 测试。
假设已部署 TiDB 集群,其中 TiDB 节点部署在 172.16.5.140、 172.16.5.141 实例上,端口都为 4000,可按如下步骤进行 TPC-C 测试。

## 导入数据

Expand Down
2 changes: 1 addition & 1 deletion best-practices/tidb-best-practices.md
Original file line number Diff line number Diff line change
Expand Up @@ -79,7 +79,7 @@ TiDB 支持完整的二级索引,并且是全局索引,很多查询可以通
- 区分度比较大的列,通过索引能显著地减少过滤后的行数
- 有多个查询条件时,可以选择组合索引,注意需要把等值条件的列放在组合索引的前面

这里举一个例子,假设常用的查询是 `select * from t where c1 = 10 and c2 = 100 and c3 > 10`, 那么可以考虑建立组合索引 `Index cidx (c1, c2, c3)`,这样可以用查询条件构造出一个索引前缀进行 Scan。
这里举一个例子,假设常用的查询是 `select * from t where c1 = 10 and c2 = 100 and c3 > 10`那么可以考虑建立组合索引 `Index cidx (c1, c2, c3)`,这样可以用查询条件构造出一个索引前缀进行 Scan。

+ 通过索引查询和直接扫描 Table 的区别

Expand Down
2 changes: 1 addition & 1 deletion br/backup-and-restore-storages.md
Original file line number Diff line number Diff line change
Expand Up @@ -130,7 +130,7 @@ TiDB 支持 Amazon S3、Google Cloud Storage (GCS)、Azure Blob Storage 和 NFS
- 备份时 TiKV 和 br 命令行工具需要的访问备份数据目录的最小权限:`s3:ListBucket``s3:PutObject``s3:AbortMultipartUpload`
- 恢复时 TiKV 和 br 命令行工具需要的访问备份数据目录的最小权限:`s3:ListBucket``s3:GetObject`

如果你还没有创建备份数据保存目录,可以参考 [创建存储桶](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/user-guide/create-bucket.html)在指定的区域中创建一个 S3 存储桶。如果需要使用文件夹,可以参考 [使用文件夹在 Amazon S3 控制台中组织对象](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/user-guide/create-folder.html)在存储桶中创建一个文件夹。
如果你还没有创建备份数据保存目录,可以参考[创建存储桶](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/user-guide/create-bucket.html)在指定的区域中创建一个 S3 存储桶。如果需要使用文件夹,可以参考[使用文件夹在 Amazon S3 控制台中组织对象](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/user-guide/create-folder.html)在存储桶中创建一个文件夹。

配置访问 Amazon S3 的账户可以通过以下两种方式:

Expand Down
4 changes: 2 additions & 2 deletions br/backup-and-restore-use-cases.md
Original file line number Diff line number Diff line change
Expand Up @@ -44,13 +44,13 @@ aliases: ['/docs-cn/dev/br/backup-and-restore-use-cases/','/docs-cn/dev/referenc
- 安装:

```shell
`tiup install br:v6.5.0`
tiup install br:v6.5.0
```

- 升级:

```shell
`tiup update br:v6.5.0`
tiup update br:v6.5.0
```

## 配置备份存储 (Amazon S3)
Expand Down
4 changes: 2 additions & 2 deletions br/br-pitr-guide.md
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ aliases: ['/zh/tidb/dev/pitr-usage/']

全量备份包含集群某个时间点的全量数据,但是不包含其他时间点的更新数据,而 TiDB 日志备份能够将业务写入 TiDB 的数据记录及时备份到指定存储中。如果你需要灵活的选择恢复的时间点,即实现 Point-in-time recovery (PITR),可以开启[日志备份](#开启日志备份),并[定期执行快照(全量)备份](#定期执行全量备份)

使用 br 命令行工具备份与恢复数据前,请先[安装 br 命令行工具](/br/br-use-overview.md#部署和使用-br)
使用 br 命令行工具备份与恢复数据前,请先[安装 br 命令行工具](/br/br-use-overview.md#部署和使用-br)

## 对集群进行备份

Expand Down Expand Up @@ -102,7 +102,7 @@ Restore KV Files <--------------------------------------------------------------

### 能力指标

- PITR 恢复速度,平均到单台 TiKV 节点:全量恢复为 280 GB/h ,日志恢复为 30 GB/h
- PITR 恢复速度,平均到单台 TiKV 节点:全量恢复为 280 GB/h,日志恢复为 30 GB/h
- 使用 `br log truncate` 清理过期的日志备份数据速度为 600 GB/h

> **注意:**
Expand Down
2 changes: 1 addition & 1 deletion br/br-snapshot-guide.md
Original file line number Diff line number Diff line change
Expand Up @@ -6,7 +6,7 @@ aliases: ['/zh/tidb/dev/br-usage-backup/','/zh/tidb/dev/br-usage-restore/','/zh/

# TiDB 快照备份与恢复使用指南

本文介绍如何使用 br 命令行工具进行 TiDB 快照备份和恢复。使用前,请先[安装 br 命令行工具](/br/br-use-overview.md#部署和使用-br)
本文介绍如何使用 br 命令行工具进行 TiDB 快照备份和恢复。使用前,请先[安装 br 命令行工具](/br/br-use-overview.md#部署和使用-br)

快照备份是集群全量备份的一种实现。它基于 TiDB 的[多版本并发控制 (MVCC)](/tidb-storage.md#mvcc) 实现,将指定快照包含的所有数据备份到目标存储中。备份下来的数据大小约等于集群(压缩后的)单副本数据大小。备份完成之后,你可以在一个空集群或不存在数据冲突(相同 schema 或 table)的集群执行快照备份恢复,将集群恢复到快照备份时的数据状态,同时恢复功能会依据集群副本设置恢复出多副本。

Expand Down
2 changes: 1 addition & 1 deletion br/external-storage.md
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@ summary: 了解 BR、TiDB Lightning 和 Dumpling 中所用外部存储服务的

# 外部存储

Backup & Restore (BR)、TiDB Lightning 和 Dumpling 都支持在本地文件系统和 Amazon S3 上读写数据;另外 BR 还支持 Google Cloud Storage、Azure Blob Storage (Azblob)。通过传入不同 URL scheme 到 br 工具 的 `--storage` (`-s`) 参数、TiDB Lightning 的 `-d` 参数及 Dumpling 中的 `--output` (`-o`) 参数,可以区分不同的存储方式。
Backup & Restore (BR)、TiDB Lightning 和 Dumpling 都支持在本地文件系统和 Amazon S3 上读写数据;另外 BR 还支持 Google Cloud Storage、Azure Blob Storage (Azblob)。通过传入不同 URL scheme 到 br 工具的 `--storage` (`-s`) 参数、TiDB Lightning 的 `-d` 参数及 Dumpling 中的 `--output` (`-o`) 参数,可以区分不同的存储方式。

## Scheme

Expand Down
4 changes: 2 additions & 2 deletions character-set-gbk.md
Original file line number Diff line number Diff line change
Expand Up @@ -59,7 +59,7 @@ SHOW COLLATION WHERE CHARSET = 'gbk';
### 非法字符兼容性

* 在系统变量 [`character_set_client`](/system-variables.md#character_set_client)[`character_set_connection`](/system-variables.md#character_set_connection) 不同时设置为 `gbk` 的情况下,TiDB 处理非法字符的方式与 MySQL 一致。
*`character_set_client``character_set_connection` 同时为 `gbk` 的情况下, TiDB 处理非法字符的方式与 MySQL 有所区别。
*`character_set_client``character_set_connection` 同时为 `gbk` 的情况下,TiDB 处理非法字符的方式与 MySQL 有所区别。

- MySQL 处理非法 GBK 字符集时,对读和写操作的处理方式不同。
- TiDB 处理非法 GBK 字符集时,对读和写操作的处理方式相同。TiDB 在严格模式下读写非法 GBK 字符都会报错,在非严格模式下,读写非法 GBK 字符都会用 `?` 替换。
Expand All @@ -77,7 +77,7 @@ SHOW COLLATION WHERE CHARSET = 'gbk';

* 目前 TiDB 不支持通过 `ALTER TABLE` 语句将其它字符集类型改成 `gbk` 或者从 `gbk` 转成其它字符集类型。

* TiDB 不支持使用 `_gbk` 比如:
* TiDB 不支持使用 `_gbk`,比如:

```sql
CREATE TABLE t(a CHAR(10) CHARSET BINARY);
Expand Down
2 changes: 1 addition & 1 deletion check-before-deployment.md
Original file line number Diff line number Diff line change
Expand Up @@ -196,7 +196,7 @@ TiDB 是一套分布式数据库系统,需要节点间保证时间的同步,
Active: active (running) since Mon 2021-04-05 09:55:29 EDT; 3 days ago
```

若发现系统既没有配置 `chronyd` 也没有配置 `ntpd` ,则表示系统尚未安装任一服务。此时,应先安装其中一个服务,并保证它可以自动启动,默认使用 `ntpd`
若发现系统既没有配置 `chronyd` 也没有配置 `ntpd`,则表示系统尚未安装任一服务。此时,应先安装其中一个服务,并保证它可以自动启动,默认使用 `ntpd`

如果你使用的系统配置是 `chronyd`,请直接执行步骤 3。

Expand Down
2 changes: 1 addition & 1 deletion clinic/clinic-user-guide-for-tiup.md
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ summary: 详细介绍在使用 TiUP 部署的 TiDB 集群或 DM 集群上如何

> **注意:**
>
> - 本文档****适用于使用 TiUP 部署的集群。如需查看适用于使用 Operator 部署的集群,请参阅 [在 TiDB Operator 部署环境使用 PingCAP Clinic](https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/clinic-user-guide)
> - 本文档****适用于使用 TiUP 部署的集群。如需查看适用于使用 Operator 部署的集群,请参阅[在 TiDB Operator 部署环境使用 PingCAP Clinic](https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/clinic-user-guide)
>
> - PingCAP Clinic 暂时**不支持**对使用 TiDB Ansible 部署的集群进行数据采集。
Expand Down
2 changes: 1 addition & 1 deletion clinic/quick-start-with-clinic.md
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ PingCAP Clinic 由 Diag 诊断客户端(以下简称为 Diag)和 Clinic Serv

> **注意:**
>
> - 本文档提供的采集和上传数据的方式****适用于使用 [TiUP 部署](/production-deployment-using-tiup.md)的集群。如需查看适用于使用 Operator 部署的集群,请参阅 [在 TiDB Operator 部署环境使用 PingCAP Clinic](https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/clinic-user-guide)
> - 本文档提供的采集和上传数据的方式****适用于使用 [TiUP 部署](/production-deployment-using-tiup.md)的集群。如需查看适用于使用 Operator 部署的集群,请参阅[在 TiDB Operator 部署环境使用 PingCAP Clinic](https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/clinic-user-guide)
> - 通过 PingCAP Clinic 采集和上传的数据****用于定位和诊断集群问题。
## 准备工作
Expand Down
2 changes: 1 addition & 1 deletion command-line-flags-for-pd-configuration.md
Original file line number Diff line number Diff line change
Expand Up @@ -48,7 +48,7 @@ PD 可以通过命令行参数或环境变量配置。

+ 初始化 PD 集群配置。
+ 默认:`"{name}=http://{advertise-peer-url}"`
+ 例如,如果 name 是 "pd", 并且 `advertise-peer-urls``http://192.168.100.113:2380`,那么 `initial-cluster` 就是 `pd=http://192.168.100.113:2380`
+ 例如,如果 name 是 "pd"并且 `advertise-peer-urls``http://192.168.100.113:2380`,那么 `initial-cluster` 就是 `pd=http://192.168.100.113:2380`
+ 如果你需要启动三台 PD,那么 `initial-cluster` 可能就是 `pd1=http://192.168.100.113:2380, pd2=http://192.168.100.114:2380, pd3=192.168.100.115:2380`

## `--join`
Expand Down
2 changes: 1 addition & 1 deletion configure-load-base-split.md
Original file line number Diff line number Diff line change
Expand Up @@ -25,7 +25,7 @@ Load Base Split 是 TiKV 在 4.0 版本引入的特性,旨在解决 Region 访

Load Base Split 会基于统计信息自动拆分 Region。通过统计信息识别出读流量或 CPU 使用率在 10s 内持续超过阈值的 Region,并在合适的位置将这些 Region 拆分。在选择拆分的位置时,会尽可能平衡拆分后两个 Region 的访问量,并尽量避免跨 Region 的访问。

Load Base Split 后的 Region 不会被迅速 Merge。一方面,PD 的 `MergeChecker` 会跳过 hot Region ,另一方面 PD 也会针对心跳信息中的 `QPS`去进行判断,避免 Merge 两个 `QPS` 很高的 Region。
Load Base Split 后的 Region 不会被迅速 Merge。一方面,PD 的 `MergeChecker` 会跳过 hot Region,另一方面 PD 也会针对心跳信息中的 `QPS`去进行判断,避免 Merge 两个 `QPS` 很高的 Region。

## 使用方法

Expand Down
2 changes: 1 addition & 1 deletion dashboard/continuous-profiling.md
Original file line number Diff line number Diff line change
Expand Up @@ -55,7 +55,7 @@ summary: 了解如何持续地收集 TiDB、TiKV、PD 各个实例的性能数
你可以通过以下步骤启用该功能:

1. 访问[持续性能分析页面](#访问页面)
2. 点击**打开设置** (Open Settings)。在右侧**设置** (Settings) 页面,将**启用特性** (Enable Feature) 下方的开关打开。设置**保留时间** (Retention Period), 默认值为 3 天。
2. 点击**打开设置** (Open Settings)。在右侧**设置** (Settings) 页面,将**启用特性** (Enable Feature) 下方的开关打开。设置**保留时间** (Retention Period),默认值为 3 天。
3. 点击**保存** (Save)。

![启用功能](/media/dashboard/dashboard-conprof-start.png)
Expand Down
6 changes: 3 additions & 3 deletions dashboard/dashboard-diagnostics-usage.md
Original file line number Diff line number Diff line change
Expand Up @@ -33,7 +33,7 @@ aliases: ['/docs-cn/dev/dashboard/dashboard-diagnostics-usage/']
上面诊断结果显示,在诊断的时间内可能有大查询,下面的每一行的含义是:

* `tidb_qps`:QPS 下降 0.93 倍。
* `tidb_query_duration`P999的查询延迟上升 1.54 倍。
* `tidb_query_duration`P999 的查询延迟上升 1.54 倍。
* `tidb_cop_duration`:P999 的 COP 请求的处理延迟上升 2.48 倍。
* `tidb_kv_write_num`:P999 的 tidb 的事务写入 kv 数量上升 7.61 倍。
* `tikv_cop_scan_keys_total_nun`:TiKV 的 coprocessor 扫描 key/value 的数量分别在 3 台 TiKV 上有很大的提升。
Expand All @@ -60,7 +60,7 @@ digest | 24bd6d8a9b238086c9b8c3d240ad4ef32f79ce94cf5a468c0b8fe1eb5f8

可以发现,从 13:24:30 开始有一个批量删除的大写入,一共执行了 196 次,每次删除 5000 行数据,总共耗时 46.8 秒。

#### 示例2
#### 示例 2

如果大查询一直没执行完,就不会记录慢日志,但仍可以进行诊断,示例如下:

Expand Down Expand Up @@ -98,7 +98,7 @@ MESSAGE | [expensivequery.go:167] [expensive_query] [cost_time=60.085949605s] [

上图中,也是在跑 go-ycsb 的压测,可以发现,在 `2020-05-22 22:14:00` 时,QPS 突然开始下降,大概在持续 3 分钟后恢复。

生成以下2个时间范围的对比报告
生成以下 2 个时间范围的对比报告

- t1: 2020-05-22 22:11:00 - 2020-05-22 22:14:00,正常时间段。
- t2: 2020-05-22 22:14:00 - 2020-05-22 22:17:00,QPS 开始下降的异常时间段。
Expand Down
4 changes: 2 additions & 2 deletions dashboard/dashboard-ops-reverse-proxy.md
Original file line number Diff line number Diff line change
Expand Up @@ -66,7 +66,7 @@ http://192.168.0.123:2379/dashboard/
2. 重启 HAProxy,以使配置生效。
3. 测试反向代理是否生效:访问 HAProxy 所在机器的 8033 端口下 `/dashboard/` 地址,如 <http://example.com:8033/dashboard/> ,即可访问 TiDB Dashboard。
3. 测试反向代理是否生效:访问 HAProxy 所在机器的 8033 端口下 `/dashboard/` 地址,如 <http://example.com:8033/dashboard/>,即可访问 TiDB Dashboard。
</details>
Expand Down Expand Up @@ -98,7 +98,7 @@ http://192.168.0.123:2379/dashboard/
sudo nginx -s reload
```
3. 测试反向代理是否生效:访问 NGINX 所在机器的 8033 端口下 `/dashboard/` 地址,如 `http://example.com:8033/dashboard/` ,即可访问 TiDB Dashboard。
3. 测试反向代理是否生效:访问 NGINX 所在机器的 8033 端口下 `/dashboard/` 地址,如 `http://example.com:8033/dashboard/`,即可访问 TiDB Dashboard。
</details>
Expand Down
2 changes: 1 addition & 1 deletion dashboard/dashboard-ops-security.md
Original file line number Diff line number Diff line change
Expand Up @@ -29,7 +29,7 @@ TiDB Dashboard 的账号体系与 TiDB SQL 用户一致,并基于 TiDB SQL 用

> **注意:**
>
> TiDB v6.5.0 且 TiDB Operator v1.4.0之后,在 Kubernetes 上支持将 TiDB Dashboard 作为独立的 Pod 部署。在 TiDB Operator 环境,可直接访问该 Pod 的 IP 来打开 TiDB Dashboard,该端口不与其他 PD 内部特权接口关联,对外提供该端口不需要额外的防火墙操作。具体信息,参考 [TiDB Operator 部署独立的 TiDB Dashboard](https://docs.pingcap.com/zh/tidb-in-kubernetes/dev/get-started#部署独立的-tidb-dashboard)
> TiDB v6.5.0 且 TiDB Operator v1.4.0 之后,在 Kubernetes 上支持将 TiDB Dashboard 作为独立的 Pod 部署。在 TiDB Operator 环境,可直接访问该 Pod 的 IP 来打开 TiDB Dashboard,该端口不与其他 PD 内部特权接口关联,对外提供该端口不需要额外的防火墙操作。具体信息,参考 [TiDB Operator 部署独立的 TiDB Dashboard](https://docs.pingcap.com/zh/tidb-in-kubernetes/dev/get-started#部署独立的-tidb-dashboard)
TiDB Dashboard 通过 PD Client 端口提供服务,默认为 <http://IP:2379/dashboard/>。尽管 TiDB Dashboard 需要验证身份,但 PD Client 端口上承载的其他 PD 内部特权接口不需要验证身份,且能进行特权操作,例如 <http://IP:2379/pd/api/v1/members>。因此,将 PD Client 端口直接暴露给外部网络具有极大的风险。

Expand Down
2 changes: 1 addition & 1 deletion dashboard/dashboard-session-sso.md
Original file line number Diff line number Diff line change
Expand Up @@ -210,7 +210,7 @@ TiDB Dashboard 支持基于 [OIDC](https://openid.net/connect/) 协议的单点
![Settings](/media/dashboard/dashboard-session-sso-casdoor-settings-1.png)
4. 填写**名称**和**显示名称**,比如:**TiDB Dashboard**
4. 填写**名称**和**显示名称**,比如:**TiDB Dashboard**。
5. 在**回调 URLs** 中添加如下内容:
Expand Down
Loading

0 comments on commit 7ad73c4

Please sign in to comment.