2006年12月20日(水曜日)
RFC2616の同時接続数の規定
「HTTPの同時接続数はどうあるべきか? (slashdot.jp)」というお話。誰も原文を引用していないのが悲しかったので、引いておきます。
8.1.4 Practical Considerations
(~中略~)
Clients that use persistent connections SHOULD limit the number of simultaneous connections that they maintain to a given server. A single-user client SHOULD NOT maintain more than 2 connections with any server or proxy. A proxy SHOULD use up to 2*N connections to another server or proxy, where N is the number of simultaneously active users. These guidelines are intended to improve HTTP response times and avoid congestion.
こんな感じ。確かに、1人のユーザにつき 2本を超えるコネクションを維持すべきでない (SHOULD NOT) と書いてありますね。
ちなみに、個人的にはこの手の同時接続でサーバが死んだという経験はありません。たまに分割ダウンロードを試みていると思われるアクセスはありますが、長時間持続するわけではないので、そんなに大変なことにはならないようです。むしろ検索エンジンのクローラーが手強くて、BaiduSpider やら dloader やらには泣かされましたが……。
※昔は hatomaru.dll のアルゴリズムがしょぼかったので、ホントに dloader が来たというだけでサーバが DoS 状態になっていました。最近は大丈夫だと思いますが……。ちなみに、Googlebot はアクセス間隔を開けてくれるので、だいたい安心です。
というわけで、個人的にはエンドユーザーが同時接続数を増やすのは特に脅威とは感じません。もっとも、これはあくまで私のサーバのケースなので、画像満載なサイトの管理者にはまた違う意見があるかもしれませんが。
関連する話題: Web / HTTP / dloader / BaiduSpider / RFC
- 前(古い): 2006年12月18日(Monday)のえび日記
- 次(新しい): 2006年12月21日(Thursday)のえび日記