在Linux的命令行中从网站下载文件

维琪

我需要从网站下载文件,该网站的URL格式如下:

http://www.server.com/downloads/1234/

这将重定向到必须保存的.zip文件。还需要根据用户名和密码进行身份验证。

我试图用wgetcurllynx没有运气。

更新:

  • wget不适用于重定向。它只是下载网页而不是zip文件。
  • curl 给出错误“最大重定向超出> 50”
  • lynx 也给出了相同的错误。
亚尼克·罗雄(Yanick Rochon)

Wget支持重定向,这行得通吗?

wget --user=USER --password=PASS --max-redirect URL

请注意,如果该站点未实现HTTP身份验证(需要通过GET或POST提交表单),那么您将需要进行更多工作(鉴于您所提供的有关文件所在站点的信息很少,一个很好的答案是很难给)

wget --post-file=datafile --keep-session-cookies --max-redirect URL

datafile可能看起来像

username=USER
password=PASS

其中usernamepassword应该是要提交的表单字段的名称。

注意:该站点需要重定向到实际的Zip文件,而不是重定向到Zip文件的链接的其他页面。在这种情况下,您将需要编写一个解析脚本,因为Curl或Wget都无法为您提供帮助。它们是从给定的Url获取内容的工具,它们并不是要“猜测”您希望它们获取的内容;他们只是下载服务器发送的内容。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章