走るたびに、journalctl
速度が非常に遅くなります。結果が返されるまでに数分または数時間かかることがよくあります。影響を受けるコンピュータでI / O集約型アプリケーションに関連しているように見えるいくつかの異なるパフォーマンス問題が発生しました。私は最近SATAケーブルを交換しましたが、パフォーマンスは向上しましたが、問題は完全には解決されませんでした。すべてのドライブに対してSMARTテストを実行しましたが、結果はすべて良好でした。このリストディスクエラーを予測するための「主な」属性。
残念ながら、数ヶ月間影響を受けたコンピュータに物理的にアクセスできません。
私はrootとして実行していますjournalctl -xn
。strace -T
出力例は次のとおりです。
fstatfs(23, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10246662, f_bavail=9257376, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000044>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 24 <0.000045>
fstat(24, {st_mode=S_IFREG|0640, st_size=67108864, ...}) = 0 <0.000044>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 24, 0) = 0x7fce771b7000 <0.000052>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 24, 0) = 0x7fce6be4c000 <0.000101>
fstatfs(24, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10246681, f_bavail=9257367, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000044>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 25 <0.000040>
fstat(25, {st_mode=S_IFREG|0640, st_size=83886080, ...}) = 0 <0.000040>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 25, 0) = 0x7fce771b6000 <0.000177>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 25, 0) = 0x7fce6b64c000 <0.000126>
fstatfs(25, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10246807, f_bavail=9257509, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000071>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 26 <0.000073>
fstat(26, {st_mode=S_IFREG|0640, st_size=67108864, ...}) = 0 <0.000046>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 26, 0) = 0x7fce771b5000 <0.554027>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 26, 0) = 0x7fce6ae4c000 <0.000155>
fstatfs(26, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10248655, f_bavail=9257373, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000091>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 27 <0.000082>
fstat(27, {st_mode=S_IFREG|0640, st_size=8388608, ...}) = 0 <0.000064>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 27, 0) = 0x7fce771b4000 <0.129685>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 27, 0) = 0x7fce6a64c000 <0.000119>
fstatfs(27, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10245778, f_bavail=9256592, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000043>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 28 <0.000043>
fstat(28, {st_mode=S_IFREG|0640, st_size=109051904, ...}) = 0 <0.000047>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 28, 0) = 0x7fce771b3000 <2.106414>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 28, 0) = 0x7fce69e4c000 <0.000099>
fstatfs(28, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10247093, f_bavail=9257207, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000037>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 29 <0.000039>
fstat(29, {st_mode=S_IFREG|0640, st_size=50331648, ...}) = 0 <0.000034>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 29, 0) = 0x7fce771b2000 <0.000043>
mmap(NULL, 8388608, PROT_READ, MAP_SHARED, 29, 0) = 0x7fce6964c000 <0.000026>
open("/dev/urandom", O_RDONLY|O_NOCTTY|O_CLOEXEC) = 30 <0.000019>
read(30, "_\f\327\367\310\220\344\23U\307\23N@\310\323\226", 16) = 16 <0.000010>
close(30) = 0 <0.000010>
open("/dev/urandom", O_RDONLY|O_NOCTTY|O_CLOEXEC) = 30 <0.000014>
read(30, "u\207\326\2360t\0T*\34\222\226\4\22\361w", 16) = 16 <0.000011>
close(30) = 0 <0.000010>
fstatfs(29, {f_type=0x9123683e, f_bsize=4096, f_blocks=272871862, f_bfree=10246938, f_bavail=9257024, f_files=0, f_ffree=0, f_fsid={-1736151745, 782050752}, f_namelen=255, f_frsize=4096}) = 0 <0.000015>
open("/var/log/journal/40b4c4d188900ed4b228417f53bce3a8/[email protected]~", O_RDONLY|O_CLOEXEC) = 30 <0.000014>
fstat(30, {st_mode=S_IFREG|0640, st_size=58720256, ...}) = 0 <0.000010>
mmap(NULL, 4096, PROT_READ, MAP_SHARED, 30, 0) = 0x7fce771b1000 <3.332606>
mmap()
以前のコールと同様に見えるコールの場合、プロセスは常にしばらく中断されるように見えます。dd if=/dev/zero of=testfile.tmp
ディスクI / Oをベンチマークしたことがあります。これを行っている間、ディスクの書き込み速度が時々300M / s以下に低下したが、(ほとんど+/-〜150M / s)約1000M / s(ほとんど+/-〜150M / s)が低下していることが観察された。 70M/s)/秒)。私が殺したときにdd
報告しました15689293824 bytes (16 GB) copied, 174.361 s, 90.0 MB/s
。同じテストを逆方向に実行するとき(dd if=testfile.tmp of=/dev/null
)報告されたディスク読み取り性能は、決してiotop
250M / sを超えず、ほぼ常に100M / s未満、しばしば50M / s未満であることに注意する価値があります。 2回目のdd
殺害プロセスが行われます10573660160 bytes (11 GB) copied, 148.573 s, 71.2 MB/s
。
追加のデバッグ情報は次のとおりです。 (これらの内容は実行中です。後ろに私はjournalctl -xn
プロセスを終了しました):
% find /var/log/journal | wc -l
115
% uname -a
Linux steevie 4.9.0-0.bpo.5-amd64 #1 SMP Debian 4.9.65-3+deb9u2~bpo8+1 (2017-01-05) x86_64 GNU/Linux
% vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 1495592 160420 80 4586516 199 179 15827 1391 15 8 7 5 37 51 0
ファイルシステムはbtrfs RAID1アレイにあり、デバイスの1つはLUKSコンテナ内にあります(記録上の理由から)。
% sudo btrfs filesystem show /
Label: '[root]' uuid: 06c6565d-af6c-4123-9e42-3b6281f164e6
Total devices 4 FS bytes used 990.93GiB
devid 2 size 931.47GiB used 931.47GiB path /dev/mapper/sda2_crypt
devid 4 size 109.45GiB used 109.45GiB path /dev/sda6
devid 5 size 109.45GiB used 109.45GiB path /dev/sdb6
devid 6 size 931.47GiB used 931.47GiB path /dev/sdc2
% sudo btrfs device usage /
/dev/mapper/sda2_crypt, ID: 2
Device size: 931.47GiB
Device slack: 0.00B
Data,RAID1: 917.50GiB
Metadata,RAID1: 13.94GiB
System,RAID1: 32.00MiB
Unallocated: 1.02MiB
/dev/sda6, ID: 4
Device size: 109.45GiB
Device slack: 0.00B
Data,RAID1: 102.51GiB
Metadata,RAID1: 6.94GiB
Unallocated: 1.00MiB
/dev/sdb6, ID: 5
Device size: 109.45GiB
Device slack: 0.00B
Data,RAID1: 104.42GiB
Metadata,RAID1: 5.00GiB
System,RAID1: 32.00MiB
Unallocated: 3.00MiB
/dev/sdc2, ID: 6
Device size: 931.47GiB
Device slack: 0.00B
Data,RAID1: 927.47GiB
Metadata,RAID1: 4.00GiB
Unallocated: 1.02MiB
sda2_crypt
/dev/sdd2
これには誤解を招くものがあります。実際にはSSD/dev/sda
でHDDです。/dev/sdb
/dev/sdc
/dev/sdd
私はDebian 8を使用しています。必要な場合ログを投稿できて嬉しいですがsmartctl
、やや長いので今は省略させていただきます。