[Tep-j-general] Re: サーバ負荷に関して

Back to archive index

hamada bungu****@leo*****
2004年 7月 31日 (土) 11:28:29 JST


こんにちわ。

On Fri, 30 Jul 2004 16:26:37 +0900
K_Ochiai <kodue****@ra2*****> wrote:

> キャッシュディレクトリは個別に指定をしなおして、catalogディレクトリの中
> におきました。キャッシュは問題なくされています。

???? よく解らないんですが。なんでキャッシュをapacheの公開ディレクト
リ下に設定されたんでしょう?

この設定はセキュリティ的にあまり好ましくないと思われますんで、キャッシュ
ディレクトリを再考されたほうがいいのではないでしょか?

> その後報告をしたのですが、「対策がなされていません」という返事が来てしまい
> ました。

キャッシュは、2回め以降のアクセスには効果がありますが、初回は(キャッシュ
ファイルを作るので)あまり効果が無い→適用直後には効果が出にくいかもしれ
ません。

カテゴリが多かったり深かったりする場合は、かなり劇的に差が出るみたいです
けど。

> この他にも負荷を減らす対策はありますでしょうか?

正直いってMySQLの負荷は軽くないです(^_^;) そのため、MySQLへのクエリーを
多用してるosCの負荷も、低いとはとても言えません。

topとかgtopとかで負荷を監視しながらosCにアクセスすると、結構派手な数値変
動が見られます。sshが使用可能な環境でしたら一度実際に見てみられるといい
かもしれません。

特に文字列を入れての全文検索がヤバいようで(^_^;)

> いません。呼び出し回数が少なくてもサーバ会社の言うような「著しい負荷」と
> いうものはかかるものなのでしょうか?(当方はまだまだ来店客数も多くない

「サーバ会社が顧客1人あたりの負荷をどの程度と見積っているか」

によりますのでなんとも言えませんが、静的ページを基本に考えてて、webサー
バとデータベースサーバが同一機で、かつ1サーバのユーザ数が多いとすれば文
句を言いたくなるかもしれません。

> この日GOOGLEのロボットが来ていた痕跡はあるのですが、これも関係ありますで
> しょうか?

ロボットの負荷は正直あなどれません。

でも、Googlebotなら5〜10秒間隔でアクセスしてくれるハズ→この負荷で耐
えられないようなサーバでしたら、実運用にも耐えられない→乗り換えを考えら
れるべきだと思います。それじゃ駄目かと。

Googlebotは随分行儀のいいロボットで、もっと行儀の悪いロボット、一杯居ま
すからねぇ(^_^;)

当方は一度、Openbotにサーバを落とされかけたことがあります。当方のosCは専
用(非共用)サーバで動いてるんですが、この時はLoad Averageが1000(!)を余
裕で越えまして、タイヘンな騒ぎでした。

> 今まで一度移転をしたことがあるのですが、以前のサーバではそんなことは一度も
> なく、サーバの移転も考えているのですが、当面の運用の問題もありますし(8月に
> 大きな広告を打つため、8月すぐには移転できない事情があります)。

・dnsを書き換える
・.htaccessdでRedirect permanentを指定する

等では絶対に駄目なんでしょか?

いまやレンタルサーバは(重量級blogツールのお陰で:^^;)安くて高機能なのが
一杯ある→性能の低いサーバに固執して無理するよりも、さくっと「使える」サー
バに乗り換えるほうが早そうな気がします。

.htaccessとRedirect permanentを使えばディレクトリ構造ごとリダイレクト出
来るハズですので、現在のosCを新サーバに移植して「そのまま」アクセスする
事ができるように思うんですが…駄目ですかね?

はまだ






Tep-j-general メーリングリストの案内
Back to archive index