# -*- coding: utf-8 -*-
"""
Created on Fri Jun 29 10:38:46 2018
@author: Cinthia
"""
from bs4 import BeautifulSoup as soup
from urllib.request import urlopen as uReq
array = ['146-face', '153-palettes-sets', 'https://www.sociolla.com/147-eyes', 'https://www.sociolla.com/150-lips', 'https://www.sociolla.com/149-brows', 'https://www.sociolla.com/148-lashes']
base_url='https://www.sociolla.com/142-face'
uClient = uReq(base_url)
page_html = uClient.read()
uClient.close()
#html parsing
page_soup = soup(page_html, "html.parser")
#grab the product
kosmetik = page_soup.findAll("div", {"class":"col-md-3 col-sm-6 ipad-grid col-xs-12 productitem"})
print(len(kosmetik))
我想从该网站上抓取数据,上面的代码仅在基本网址上占用了多少产品。我不知道该数组如何工作,因此它可以从产品中获取的数据(例如描述,图像,价格)从我在数组中创建的所有页面中获取。
我是Python的新手,对循环了解不多。
您可以在id=product-list-grid
此处找到表/网格的根元素,并提取包含所有需要的信息(品牌,链接,类别)和第一个<img>
标签的属性。
对于分页,似乎可以添加到下一页p=<page number>
,而当该页面不存在时,它将重定向到第一页。一种解决方法是检查响应URL,并检查其是否与您请求的URL相同。如果相同,则可以增加页码,否则将所有页面刮掉
from bs4 import BeautifulSoup
import urllib.request
count = 1
url = "https://www.sociolla.com/142-nails?p=%d"
def get_url(url):
req = urllib.request.Request(url)
return urllib.request.urlopen(req)
expected_url = url % count
response = get_url(expected_url)
results = []
while (response.url == expected_url):
print("GET {0}".format(expected_url))
soup = BeautifulSoup(response.read(), "html.parser")
products = soup.find("div", attrs = {"id" : "product-list-grid"})
results.append([
(
t["data-eec-brand"], #brand
t["data-eec-category"], #category
t["data-eec-href"], #product link
t["data-eec-name"], #product name
t["data-eec-price"], #price
t.find("img")["src"] #image link
)
for t in products.find_all("div", attrs = {"class" : "product-item"})
if t
])
count += 1
expected_url = url % count
response = get_url(expected_url)
print(results)
结果存储在这里results
,是一个元组数组
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句