Cacti重い

たまにサーバの状況を見ていると、cactiのグラフの値が定期的に取れなくなっている時間があったので少し気にはなっていたけど、実際にサーバが重い時にプロセスを見てみたらcacti+RRDToolがCPUを90%くらい占領していたというのを度々確認したのでこれはもう止めた方がいいなと判断。

CactiとRRDToolをアンインストールして代わりにMRTGをインストール。

当サーバのMRTGグラフ
MRTG

なんでCactiがあんなにCPUを食っていたのかはよく分からないけど
とりあえず、こちらでしばらく様子を見てみようかな(゜д゜;)


[追記]
この記事に「Cacti アンインストール」で検索してきた人がいたみたいなので、Cacti+RRDTOOLのアンインストール方法もついでに書いておきます。
とは言っても、

yum remove rrdtool
って打つだけです。
バージョンとか環境にもよるかもしれないけど、うちの環境ではRRDTOOLをアンインストールしたらCactiも一緒に削除された模様。

サーバーがすぐ落ちる

昨日はよく分からない突然のメモリ枯渇によりダウン・・・。
そして本日はCPUの過剰負荷によるダウン・・・。

まさかロードアベレージが40越えるとは。
連邦のCPUはバケモノか!?と言わざるを得ないくらいの負荷。

(サーバのLoadAverageの40越えというのは人間に例えるとカレーを食べてる時に上から豚カツと天ぷらが振ってきて飲み物がコーラに差し替えられた挙句に空気椅子での食事を強要されてしまいには目の前の人が「あと3分です!」って言ってるようなテンパり具合をパソコンが食らっているとでも想像してもらえれば・・・。(^^;))

Apacheを再起動したら直ったのでサイトへのアクセスが原因で落ちたのだとは思いますけど・・・。
ただ、ログ見ても原因を断言できる程の要因が無いので
「それ、結局はサーバのスペックでしょ?」
という免罪符にすがりたくもなるもので。

Apacheのaccess_logは負荷の影響を考えて吐き出さないようにしてますが、error_logは出すようにしているのでチェックしたところ当サーバに置いてある掲示板サイトがスパム天国状態だったのでとりあえず閉鎖。

NoSQL

普及度の割りにはまだまだ解説サイトが少ないと感じるNoSQL。
ちょっと気になったのでメモ。

NoSQLを動かしてみよう

既にNoSQLも種類は結構ありますが、日本でよく見聞きするサービスに限って挙げるとこんな感じでしょうかね。

・GoogleAppEngine→DataStore
・Amazon→SimpleDB
・Twitter→Cassandra
・mixi→Tokyo Tyrant
・楽天→ROMA

個人的予想としてはデファクトスタンダードはApacheとの抱き合わせ的な意味でCassandraになりそうな気がするんだけどどうなんかなぁ。

CentOSでアンマウントしようとすると「デバイスを使用中です」

サーバを再起動したときに外付けUSBメモリが自動マウントされてなかったので
もっかいマウントしておこうという経緯でのメモ。

まず、USBメモリがどこに認識されているのかが分からなかったので

dmesg
コマンドで確認。

~(なんかいろいろ)~~~~~~~~~~~~~~~~~~~~~~~
SCSI device sda: 7886848 512-byte hdwr sectors (4038 MB)
sda: Write Protect is off
sda: Mode Sense: 03 00 00 00
sda: assuming drive cache: write through
SCSI device sda: 7886848 512-byte hdwr sectors (4038 MB)
sda: Write Protect is off
sda: Mode Sense: 03 00 00 00
sda: assuming drive cache: write through
sda: sda1
~(なんかいろいろ)~~~~~~~~~~~~~~~~~~~~~~~

上記よりUSBメモリはsda1として認識されていることを確認。

そしてマウント・・・・としたかったが、誤ってext3ではなくvfatでマウントしてしまった。
なので、一応アンマウントしようとして
umount (マウントしたUSBのパス)
とすると
「デバイスを使用中です」
となる。

どうしたものかといろいろググってみたところ、まさに下記URLに記載されているのがドンピシャ。
Linux で umount した時に「デバイスを使用中です」と言われる時

以下、引用。

しかし,こういわれる原因の多くは,自分が shell 上でマウント先のディレクトリにいる場合が多いです.

まさにいましたよ、マウント先に・・・OTL
というわけでディレクトリ移動してからアンマウントしたらできた。

でも、なんかext3でマウントできなくなってるー!
仕方ないのでvfatでマウントしてみて、「一応・・・USBメモリへのバックアップは動作してるっぽい・・・のかな?」という感じ。

これで何か不都合出たりするかな?
画像とテキストファイルくらいだからvfatでもext3でも大差は無いと思いたい・・・・(=_=;

サーバ監視用ページ用意したよー

CactiのGraphExportを使って
http://rutti.net/monitor/
のURLでサーバの状態を見れるようにしました。

今の時点で一番メモリを食ってるのはApacheのアイドルプロセスみたいなので、yum-updatesdとclamscanの対処でサーバは落ち着いたと思ってよさそうな気配。

これでまたサーバ止まってしまったら助けてエロい人(><)

clamscanでCPU負荷

こちらはこちらでCPUを圧迫していました。
というかプロセスが多数出てるぅー。

ということでclam関連のプロセスを一旦全て停止。
これでLoadAverageも4.8→0.7への大復活。

かと言ってNoSecurityでも困りますので、以下のサイトを参考にしてウィルスチェックをしない箇所を指定。

clamscanでload averageが大変な時は。

CPUの負荷は今のところ大丈夫ですが、メモリは22%程侵食中。
サーバ自体がメモリ256Mしかないので22%といえば40Mちょっと。
まぁ仕方ないのかなー。

とりあえずはこれでしばらく様子見ですかね。

yum-updatesd がメモリを食ってる・・・・。

yum-updatesdがメモリを30%も使用してました。

いろいろググってみた結果、どうもメモリの減り具合がこちらのページとよく似ています・・・。

http://d.hatena.ne.jp/dayflower/20070309/1173451272

あとこちらにもyum-updatesdのメモリ消費について書かれています。
http://motos-diary.seesaa.net/article/31195146.html

というわけでyum-updatesdは一旦停止。
上記ページにも書かれているようにyum-cronに変更。

ただ問題はメモリが急激に減り始めたのはcacti+RRDToolを入れた後くらいから。
RRDToolインストールとyum-updatesdfで一番関係ありそうなのは・・・・リポジトリ?

またサーバー落ちたーよ

サーバ監視ツールとしてcacti+RRDTOOLを入れてから毎日午前4:00時にサーバのメモリが20%ごと削りとられるという呪いが勃発。

つまり、5日後にはメモリが0になってoom-killerが「メモリが足りないので強制終了!」という流れに。どうしてこうなった。

昨日サーバを再起動したのでその5日後と考えると10月10日にはメモリが枯渇してもう一度落ちまする。
逆に考えるとあと4日も猶予があるってこったな!

そもそもうちのサーバは
・CPUがCeleron2.2GHz
・メモリが256M
という低スペックだから最近のツールではキツイのか・・・?

cacti+RRDTOOLを止めてMRTGに変更しようかしら。

ローカルネットワークについて補足!

ローカルネットワーク内でも内部DNSを立てればホストの名前解決はできるぞ!
でも、うちのネットワーク構成ではDNSを立てるメリットが無いから立ててないだけ!
つまりは「もうローカルIPで直接指定すればいいんじゃね?」状態なのであーる!

以上、メールでローカルネットワークの説明をした人向けへの補足説明でした。