DBサーバのslow_queryログがローテートされておらず単一ファイルで100G超えしていて辛いmix3です。
巨大なファイルを rm するのは危険
実際に試していないのでどうなるのか分からないですが、おそらく消し終わるまで間IOが占有されてDBのパフォーマンスに影響が出ちゃうのでしょう。
rm はやらないほうが良いねとなりました。
: > /path/to/file
じゃあどうすればという事で調べていたら
: > /path/to/file
を使ってはどうか?というようなものを見かけました
Is there a way to delete 100GB file on Linux without thrashing IO / load?
容量に余裕のある別サーバで $ dd if=/dev/zero of=tempfile bs=1024000 count=100000 とかしてファイルを作って試したところ、readが発生するもののパフォーマンスにはあまり影響は無い感じで使えそうということに。
ちなみに
: > /path/to/file は空ファイルを作るときの方法のようで、Linuxでファイルを空にする5つの方法 とかで見かけました
他のやり方だとまた違ってくるのでしょうか?