2008年7月31日木曜日

(FreeBSD) portauditとperiodic securityとfetchの合わせ技で、file system full...やれやれ

FreeBSDの最大の長所であるports。/usr/ports/ports-mgmt/portaudit をインストールしておくと、portsでインストールしたソフトウェアにセキュリティホールなどの問題がある場合に、こんな具合に、報告してくれます。



# portaudit
Affected package: fetchmail-6.3.8_6
Type of problem: fetchmail -- potential crash in -v -v verbose mode (revised patch).
Reference: <http://www.FreeBSD.org/ports/portaudit/1e8e63c0-478a-11dd-a88d-000ea69a5213.html>



Affected package: php5-posix-5.2.6
Type of problem: php -- input validation error in posix_access function.
Reference: <http://www.FreeBSD.org/ports/portaudit/ee6fa2bd-406a-11dd-936a-0015af872849.html>



2 problem(s) in your installed packages found.



You are advised to update or deinstall the affected package(s) immediately.



この、portsでインストールしたソフトウェアに関するセキュリティホールのレポートは、毎日、自動的にメールで送られてきます。



これは、こういう仕掛けになっているからです。



  1. /etc/crontab に書いてあるperiodic dailyというコマンドが、毎日午前3時(デフォルトの設定)に実行される


  2. periodic dailyは、/etc/periodic/daily/ など、特定のディレクトリ以下にあるファイルを、順番に実行していく


  3. /etc/periodic/daily/450.status-security を実行したとき、そこから、periodic securityが実行される


  4. periodic securityも同様にして、/etc/periodic/securityとか/usr/local/etc/periodic/securityなど特定のディレクトリ以下のファイルを実行していく


  5. portauditをインストールしていると、/usr/local/etc/periodic/security/410.portaudit というファイルもインストールされている。この中で、portauditを実行している。


  6. 実行ログが、メールでrootあてに送られる




というわけで、portauditは、毎日、勝手に実行されています。



portauditは、セキュリティホール情報をどこから入手しているかというと、まあ当たり前ですが、ネットワーク経由でダウンロードしてきています。ダウンロードしたファイルは、デフォルトでは、/var/db/portaudit/auditfile.tbz という名前で保存されています。



/usr/local/etc/portaudit.conf.sample というファイルがありますが、これを参考に、/usr/local/etc/portaudit.confという名前の設定ファイルを作れば、portauditの挙動をいろいろとカスタマイズできます。



たとえばauditfile.tbzというファイルをどこからダウンロードするかも、指定できるようになっています。
たとえば私の場合、たくさんのFreeBSDマシンを動かしているので、



  • 1台だけ、http://www.FreeBSD.org/ports/ からダウンロードするようにして、


  • ダウンロードしたファイルを、ローカル環境のWebサーバにおいておき、


  • そのほかのFreeBSDマシンは、ローカル環境のWebサーバからダウンロードする


ようにしています(http proxyのキャッシュ機能がどうも腐ってて、何日たってもキャッシュのデータを返してくるとか、そういう理由もあったり・・・)。



ちなみに、portaudit.confにどんなことを書けるかは、実は、/usr/local/sbin/portauditを解読したほうが手っ取り早いかもしれません・・・portauditは、ただのシェルスクリプトなので。
さらに余談ですが、/usr/sbin/periodicもシェルスクリプトなんですねぇ。



なお、portauditを実行するたびに、毎回auditfile.tbzをダウンロードしているわけではなく、ある程度日付が経過したら、改めて、サーバから最新版をダウンロードするようになっています。man portauditして、「-X」オプションの説明に書いてあります。





あるとき、/tmpに巨大なファイルが作られて、file system full、ディスクの空き容量がなくなってしまいました。



その巨大なファイルの中身をのぞいたら、



Checking for a current audit database:



Downloading fresh database.
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Operation timed out
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
(以下、ディスクの空き容量を食いつぶすまで繰り返し)



ということになってました。



どうやら、



  1. periodic securityの実行がはじまって、


  2. その実行ログが/tmp以下に一時ファイルとして作られていて、


  3. ログが永遠に出力されけてしまった挙句の、file system full


ということだったようです。



たまたまそのとき、ローカル環境のWebサーバを停止させていたのですが、portauditは、auditfile.tbzをダウンロードしようとして、無限ループしていました。



ログメッセージには「fetch」と書いてあるように、portauditは、/usr/bin/fetchというコマンドを使って、ファイルauditfile.tbzをダウンロードしようとしています。



ダウンロードするときにどんなコマンドを使うかは、やはりportaudit.confで指定できます。



たまたまなんですが、portaudit.confでは

portaudit_fetch_cmd="fetch -1amp"

と記述していました。このため、ファイルをダウンロードするとき、



fetch -1amp fetch: http://ローカル環境のWebサーバ/auditfile.tbz



が実行されることになります。



ためしに、手で上記のコマンドを入力して、実行してみました。



すると、Webサーバが落ちている場合、こんな実行シーケンスが起きてしまうことがわかりました



  1. (Webサーバは同じサブネット上に存在しているため)、ARPでMACアドレス解決をしようとして


  2. しばらくたってタイムアウトしてエラー


  3. fetchに-aオプションを指定していると、一時的なエラーの場合は(ファイルが存在しない、といったエラーじゃない場合)、成功するまで繰り返すことになっている


  4. 今回出た「Host is down」の場合は、繰り返すことになっている


  5. というわけで、もう一回、サーバに接続を試みる


  6. 今度は、ARPのキャッシュが有効で、といってもARPが解決できない、という結果になるだけですが(arp -aしたときincompleteと表示される)


  7. というわけで、即座に、Host is downというエラーになる


  8. -aオプションのせいで、また繰り返し・・・


  9. ARPのキャッシュの有効期限内は、そりゃーもー、猛烈な勢いで、エラーが出続けます


  10. ARPのキャッシュの有効期限が過ぎても、しばらくたって、やっぱりARP解決できないエラーになり、また同じことの繰り返し


以上のようなシーケンスで、



fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down



というエラーが、永遠に吐き出され続けるのでした。うぐぅ・・・





さて、これは、何が悪いのでしょうか。



(1) fetchに-aオプションをつけるのが悪い



/usr/local/sbin/portauditを見るとわかるのですが、実は、デフォルトでは-aオプションは、ついてないのです。portaudit.conf.sampleに「-1amp」って書いてあるのは、まずいですねぇ。



(2) fetchが、全速力でリトライを繰り返すのはまずい



昔、ダイアルアップでインターネット接続していたころの話ですが、電話では、リダイアル規制ってのがあって、お話中でCONNECTできなかった場合、リダイアルをするんですが、あんまり立て続けにリダイアルしちゃダメ、というルールがありました。



そういうルールって、やっぱり必要ですよね。というわけで、fetchには、-wオプションで、待ち時間が指定できるようになっています。



でも、これって、filesystem fullになるまでの、時間稼ぎにしかならないですね。



(3) fetchが、永遠にリトライしつづけるのが悪い



まあ、これは無限ループしちゃうケースがあるってのは、一般的な話としても、プログラムとして非常に問題なわけです。



というわけで、思いつきで、-eオプションというのを追加して、リトライ回数の上限を指定できるようにしてみました。



# diff -u fetch.c.ORG fetch.c
--- fetch.c.ORG 2006-12-27 09:50:57.000000000 +0900
+++ fetch.c     2008-07-28 16:15:40.000000000 +0900
@@ -57,6 +57,7 @@
int     b_flag;        /*!   -b: workaround TCP bug */
char    *c_dirname;    /*    -c: remote directory */
int     d_flag;        /*    -d: direct connection */
+int     e_retry;       /*    -e: max retry */
int     F_flag;        /*    -F: restart without checking mtime  */
char   *f_filename;    /*    -f: file to fetch */
char   *h_hostname;    /*    -h: host to fetch from */
@@ -730,7 +731,7 @@
        int c, e, r;



        while ((c = getopt(argc, argv,
-           "146AaB:bc:dFf:Hh:lMmN:nPpo:qRrS:sT:tUvw:")) != -1)
+           "146AaB:bc:de:Ff:Hh:lMmN:nPpo:qRrS:sT:tUvw:")) != -1)
                switch (c) {
                case '1':
                        once_flag = 1;
@@ -762,6 +763,9 @@
                case 'd':
                        d_flag = 1;
                        break;
+               case 'e':
+                       e_retry = strtol(optarg, &end, 10);
+                       break;
                case 'F':
                        F_flag = 1;
                        break;
@@ -973,8 +977,12 @@
                                            "before retrying\n", w_secs);
                                if (w_secs)
                                        sleep(w_secs);
-                               if (a_flag)
+                               if (a_flag) {
+                                   static int retry = 0;
+                                   if ( ++retry < e_retry ) {
                                        continue;
+                                   }
+                               }
                        }
                }



fetchは、引数で、複数のURLを指定できるみたいなんですが、それだと、上のパッチ、正しくないですね。2つめのURLのときに、retryを初期化していないので。まあ、トータルでのリトライ回数、というこじつけにしておきます(笑)



(4) それにしても/usr/bin/fetchの出来は悪い



個人的に帰着した結論ですが、やはり、これなんです。
以前、ここのブログで、portsnapでトラブルが起きたことを書いたような気がしますが、そのときも、fetchって出来が悪いなぁ、と思ったのでした。



そういえば、fetchって、URLにユーザー名とパスワードを埋め込んだ、「ftp://ユーザー名:パスワード@サーバーアドレス/パス」という形式のURLが、使えないですよね。



0 件のコメント:

コメントを投稿