Skip to content

关于 spark 的统计信息

spark 能提交并计算一些统计数据。

在所有情况下,测量所用标准的数据都来自别的地方。如果出现错误,说明 spark 所接收的数据很有可能存在错误。

数据名称数据来源
TPS服务器活动(通过 spark 的 TickHook 接口获取)
MSPT服务器活动(通过 spark 的 TickReporter 接口获取)
CPU 使用情况Java API(jdk.management/OperatingSystemMXBean
内存使用情况Java API(jdk.management/OperatingSystemMXBean)& /proc/meminfo(仅 Linux)
磁盘使用情况Java API(java.base/FileStore
GCJava API(jdk.management/GarbageCollectorMXBean
玩家延迟服务器 API(通过 spark 的 PlayerPingProvider 接口获取)
网络使用情况/proc/net/dev/(仅 Linux)
CPU 名称Linux 上为 /proc/cpuinfo,Windows 上为 wmic cpu
操作系统名称及版本Linux 上为 /proc/os-releases,Windows 上为 wmic os

面板服与 Docker 镜像

在服务器(以及 spark 的拓展)运行在容器(例如 Pterodactyl 等)中时,我们可以看见某些统计数据(大多数 CPU/内存使用情况)不与实际情况对应。

spark 对此无能为力。如你所见,spark 只会使用一些标准的 Java 和操作系统的 API 来获取一些统计数据。如果这些内容不准确,那么有可能是你的安装或 Java/Docker/操作系统 的漏洞。