一頃はアクセスログの解析結果をネタにしていたこともあり、約一年前に現在地の自前サイト( http://whitewing.bitter.jp/ )に越してきてからも延々とアクセスログを取り続けている。が、難点があり、会員用ページに都度ログインして取りにいかないといけないのと、保存期限が7日分しかないのとで、結構厄介な作業となっている。今のところは週2回、土日のどちらかと水曜に取りに行くことにしている。
1つ1つのログは小さく、1日分が1ファイルに収まり、適宜圧縮された形で入手できるようにはなっているが、塵も積もればなんとやら。ブラウザのフォーム画面で1つ1つ日付を指定しては読み出し、これまた所定の場所を探し出しては保存し、解凍…という作業を繰り返すのは。かなりまどろっこしい。
そこで、かねがね目をつけてはいたが、先日の基本情報技術者のお受験準備でほったらかしになっていたツールを動かしてみることにした。「cURL( http://www.kaoriya.net/ )」の出番である。
これを使えばHTTPやFTPを使ってファイルをダウンロードしたり、なんて動作をコマンドプロンプトでやってしまえる。この類の作業の自動化にはそれなりの需要があるのか、Linux用ながら手順を公開しているサイトも若干見つかった。
さすがに自宅にはLinuxのような贅沢かつ素敵な代物は無いので、適宜手持ちのDOSコマンドとPerlの組み合わせにより作業用のバッチファイルをでっち上げ、今週分からアクセスログの取得の半自動化を開始。ワンクリックで最大6日分のアクセスログのうち未取得のものを勝手に取ってきてくれるようにはなったが、果たしてこのまま安定して動いてくれるかはまだ定かではない。
…てなことをやっているとあっという間に日が落ちる。MCPC検定のお受験本番まであと3週間弱。これでいいのか?