[PHP-users 19770]Re: リンク切れHTMLファルのチェック
HAYAKAWA Hiroshi
hayakawa @ sam.hi-ho.ne.jp
2004年 1月 8日 (木) 09:05:14 JST
おはようございます。早川@名古屋 です。
on 04.1.7 7:05 PM, Teruyuki Wakamatsu at terupost @ mxa.mesh.ne.jp wrote:
> ページ内のリンクまでは関知せずなので、本当に数万です。
> HEADメソッドでリクエストしてますので多分GETより早いのかと
> 思いますけど、確かに時間がかかりますね。涙。oO
GETメソッドでも、データ本体を取得しないようにすれば
速度は基本的に変わらないと思いますよ。
ただ、使用される関数・クラス等が高次なものだと
その点の柔軟性がないかもしれません。
あと、仲村さんが紹介されたURLのシステムを試してみたのですが、
このように結果をウェブに表示する仕組みの場合、
出力があまりに大規模になるとブラウザがフリーズする可能性もありますね。
せっかく何時間も待ったのに...ということにもなりかねません。
wakamatsuさんがPHPで作られるのであれば、
(しつこいですが)ぜひコマンドライン版を使ってみてください。
たぶん、ウェブからやらせるより楽だと思いますので。
結果をファイルに保存し、それを印刷するなどして、
各担当者の方で確認・修正作業を分担されればよいかと思います。
コマンドライン版(CLI)は使用者がまだまだ少ないと思いますので、
大規模データで試していただけると開発者の方もハッピーかと思います。
あと個人的な興味なのですが、
チェックURI数と処理時間の統計データに関心があります。
サーバーが落ちていたりしてタイムアウトを待たなければいけない
URIの数が一番影響を及ぼすのではないかと推測しますが、
後日で結構ですので、ぜひレポしていただけると嬉しいです。
(マシンスペック/ネット環境/手法と、
チェックURI数/正常URI数/異常URI数/処理時間など)
-----
With your dreaming, with your smile.
Hayakawa, Hiroshi <hayakawa @ sam.hi-ho.ne.jp>
Nagoya,Aichi,JAPAN ☆彡
PHP-users メーリングリストの案内