闲来无事,趁着中文维基百科还能访问.
想在本地建立个镜像.
无奈从http://download.wikimedia.org/zhwiki/latest/用迅雷下载撑死50kb,慢死鸟.
拿服务器下载吧,原打算用wget的.无奈发现wget无法下载http的列表(其实递归也是可以的)
网上说用lftp可以下载整个目录.上网搜索了下使用方法,具体步骤如下:
敲入lftp后:
lftp :~> open http://download.wikimedia.org/zhwiki/latest/
cd ok, cwd=/zhwiki/latest
lftp download.wikimedia.org:/zhwiki/latest> mirror
呃.整个的latest的目录就下载下来了,平均速度1m.嘿嘿:)
个人理解:
lftp可以用来下载
wget可以用来抓链接/下载
curl类似于命令行下的浏览器
呃,用过wget写过分析源码程序
用过curl刷过校内买卖好友.
这回把lftp也用上了.不错:)改天补上wget和curl的内容