我需要下载大约 1000 个文件/url,手动下载它们会很困难。
我试图将 url 放在一个列表中并遍历列表,但我认为我的代码覆盖了以前的文件并只保留列表中的最后一项
这是我的代码
#!/usr/bin/env python
import urllib3
http = urllib3.PoolManager()
urls = ["http://url1.nt.gz" , "http://url2.nt.gz" , "http://url3.nt.gz"]
N =1; // counter helps me to rename the downloaded files
print "downloading with urllib"
for url in urls
r = http.request('GET',url)
Name =str(N+1) // each time increment the counter by one
with open("file"+Name+".nt.gz", "wb") as fcont:
fcont.write(r.data)
有什么建议么?
print "downloading with urllib" for url in urls r = http.request('GET',url) Name += N
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句