c/fe

http://d.hatena.ne.jp/uzulla から移行しました。

サイトのコピーを作る

「○○のサイトに、新しく××ってページつくるんだけど、こんな感じで」
「はいはい、了解です、なるほど」
「初めてやるサイトだから、ガイドライン読んでね」
「なんだこのガイドライン、この会社がつくってる携帯電話の取説ですか?」
「全部準拠してね」
「そうですね、これくらいだと納期は四「(遮って)宜しくね、納期は月曜朝一だから」
「え?今、金曜日の夜ですけど?」
「そうだね」
「…」
「出来ないと、困るんだよね」
「俺は今困ってますね」
「…」
「まあ、やりますけど。本番機は当然さわれないですよね?」
「そうだね」
「じゃあテストサイトで作成しますが、現行のファイル、テンプレートとかはもらえるんですか?」
「○○を参考にして下さい」
「いや、だからファイル群がほしいのですが」
「先方に依頼したらもらえるね」
「金曜の夜だから、もうもらえないってことですね」
「そうだね」
「このサイトすげーJSとかたくさんあるんですが」
「そうだね」


こんな心温まる状況ってのはよくありますよね!
間違いなく俺の手前のどっかの誰かが(多分)おしゃれなカフェに行ったり、(おそらく)ウェブサーフィンしてたおかげで、俺が諸々を手配する時間がなくなるわけです!

どうやって引っ張ってくるか

さておき、昔は(今も?)サイトミラーリングツールなんてのがよくあったけれど、いまではJSやらCSSやらをIncludeするサイトが当たり前で、使い物にならない。

だから、HTML構造を調べて…JSを読んで…相対Pathを脳内で絶対Pathにして…なんて事をやったりやらなかったり。


でも、URLをJSの中で色々組み立てている様な場合においてはすごく面倒だし、間違えやすい。
さらに、swfの中から引っ張られているファイルなんかは当然わからないない。

ファイルリストを取得

FirefoxFirebugで、接続のリストを使うと良い。

これで
Ajaxでよんでるファイルとか
・@importされてるCSSとか
Flash内部から引いている画像とか
を、もれなくゲットできる。
(勿論、一度キャッシュを消してからやってくださいね。)


これのURLリストを一発でテキストに保存する方法があればいいんだが、なんとなくみつからなかったので、右クリックでURLをコピーしてペーストしていく。

まあ、時間がかかるのはここだけなので。
Firebugに依存ファイルリストの出力機能がつくことを祈ろう、もしくはだれかが実装すればいいよ。


俺が今回あつかったサイトでは、1Pに約200個のアイテムがありました。
200回も右クリックしてペーストしたらマウスが爆発しますが、携帯電話を壁に投げつけるよりは安く済みます。

DLする

wget -x -i filelist

wgetの -xオプションで、サイトのディレクトリ構造をコピー出来ます

テストサイトを作る

Xamppとか使うと、簡単ですね。
同時にHostsもいじるとそれっぽくなりますね。

…なんか足りないファイルがあるよ?

テストサイトに接続して、旨く動かない時は、もう一度Firebugのお世話になったらよい。
404は赤文字になっているので、簡単に見つけられる。

できた!

まあ、電話を切ってから30分はしないで表示に必要なファイル全部とってこれます。


メールや電話で
「ファイル郡が無いと作業ができないので、送って下さい」
「解りました、先方につたえます。多分週の半ば、水曜日にはファイルがもらえるでしょう、でも納期は月曜朝一です」
「お前は何をいっているんだ?(画像略」
「あ、ファイルリストは作ってくださいね、先方には判断できないので」
「お前は何をいっているんだ?(画像略」
とかいうほほえましいやりとりをしなくて済むのがいいですね。