如何使用异常表格从选举网站上抓取数据

我试图从选举网站上抓取一些数据,但不知道如何使用 BeautifulSoup 提取这些数据。

德克萨斯州选举结果https://results.texas-election.com/contestdetails?officeID=1001&officeName=PRESIDENT%2FVICE-PRESIDENT&officeType=FEDERAL%20OFFICES&from=race

我试过的代码

import pandas as pd
from bs4 import BeautifulSoup

tx_url = 'https://results.texas-election.com/contestdetails?officeID=1001&officeName=PRESIDENT%2FVICE-PRESIDENT&officeType=FEDERAL%20OFFICES&from=race'


import urllib.request
local_filename, headers = urllib.request.urlretrieve(tx_url)

urllib.error.HTTPError:HTTP 错误 403:禁止

soup = BeautifulSoup(tx_url)

/home/server/pi/homes/woodilla/.conda/envs/baseDS_env/lib/python3.7/site-packages/bs4/ init .py:357: UserWarning: "https://results.texas-election.com /contestdetails?officeID=1001&officeName=PRESIDENT%2FVICE-PRESIDENT&officeType=FEDERAL%20OFFICES&from=race" 看起来像一个 URL。Beautiful Soup 不是 HTTP 客户端。您可能应该使用 HTTP 客户端(如请求)来获取 URL 后面的文档,并将该文档提供给 Beautiful Soup。那个文件给Beautiful Soup。%decoded_markup

这是表的样子:

在此处输入图片说明

巴杜克

首先,你得到的错误意味着你使用BeautifulSoup不正确。

您需要将来自 HTTP 客户端的响应传递给BeautifulSoup这样的:

import requests
from bs4 import BeautifulSoup

url = "https://results.texas-election.com/races"

headers = {
    "user-agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36",
}

response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, "html.parser")

其次重要的是,你需要BeautifulSoup刮该页面。一切都回来了JSON例如:

import requests

url = "https://results.texas-election.com/static/data/election/44146/246/Federal.json"

headers = {
    "user-agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36",
}
response = requests.get(url, headers=headers).json()

for race in response["Races"]:
    print(f"Results for {race['N']}")
    for candidate in race["Candidates"]:
        print(f"{candidate['N']} - {candidate['P']}: Votes {candidate['V']} - {candidate['PE']}%")
    print(f"Total votes: {race['T']}")
    print("-" * 80)

输出:

RESIDENT/VICE-PRESIDENT
ROQUE "ROCKY" DE LA FUENTE GUERRA - REP: Votes 7563 - 0.37%
BOB ELY - REP: Votes 3582 - 0.18%
ZOLTAN G. ISTVAN - REP: Votes 1447 - 0.07%
MATTHEW JOHN MATERN - REP: Votes 3512 - 0.17%
DONALD J. TRUMP (I) - REP: Votes 1898664 - 94.13%
JOE WALSH - REP: Votes 14772 - 0.73%
BILL WELD - REP: Votes 15824 - 0.78%
UNCOMMITTED - REP: Votes 71803 - 3.56%
Total votes: 2017167
--------------------------------------------------------------------------------
U. S.  SENATOR
VIRGIL BIERSCHWALE - REP: Votes 20494 - 1.06%
JOHN ANTHONY CASTRO - REP: Votes 86916 - 4.49%
JOHN CORNYN (I) - REP: Votes 1470669 - 76.04%
DWAYNE STOVALL - REP: Votes 231104 - 11.95%
MARK YANCEY - REP: Votes 124864 - 6.46%
Total votes: 1934047
--------------------------------------------------------------------------------
U. S. REPRESENTATIVE DISTRICT 1
JOHNATHAN KYLE DAVIDSON - REP: Votes 9659 - 10.33%
LOUIE GOHMERT (I) - REP: Votes 83887 - 89.67%
Total votes: 93546
--------------------------------------------------------------------------------
and so on ...

编辑:

要获取您提到的特定URL的数据,只需使用以下命令:

注意:这只是数据的一小部分,因为数据JSON很大。我添加了用于转储整个内容的代码,JSON以便您可以按照自己的方式解析它。

import json

import requests

url = "https://results.texas-election.com/static/data/election/44144/108/County.json"

headers = {
    "user-agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36",
}
response = requests.get(url, headers=headers).json()


with open("county_results.json", "w") as output:
    json.dump(response, output, indent=4, sort_keys=True)

for v in response.values():
    for id_, race_data in v["Races"].items():
        print(race_data["C"])

示例输出:

{'4250': {'id': 4250, 'N': 'KEN WISE (I)', 'P': 'REP', 'V': 0, 'PE': 0.0, 'C': '#E30202', 'O': 1, 'EV': 0}, '6015': {'id': 6015, 'N': 'TAMIKA "TAMI" CRAFT', 'P': 'DEM', 'V': 0, 'PE': 0.0, 'C': '#007BBD', 'O': 2, 'EV': 0}}
{'2966': {'id': 2966, 'N': 'BRENDA MULLINIX (I)', 'P': 'REP', 'V': 0, 'PE': 0.0, 'C': '#E30202', 'O': 1, 'EV': 0}, '6224': {'id': 6224, 'N': 'JANET BUENING HEPPARD', 'P': 'DEM', 'V': 0, 'PE': 0.0, 'C': '#007BBD', 'O': 2, 'EV': 0}}
{'2967': {'id': 2967, 'N': 'MAGGIE JARAMILLO (I)', 'P': 'REP', 'V': 0, 'PE': 0.0, 'C': '#E30202', 'O': 1, 'EV': 0}, '3708': {'id': 3708, 'N': 'TAMEIKA CARTER', 'P': 'DEM', 'V': 0, 'PE': 0.0, 'C': '#007BBD', 'O': 2, 'EV': 0}}
and much, much more...

我是怎么找到的JSON

我检查了浏览器开发工具的网络选项卡。:)

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

如何使用节点从网站上抓取数据

如何使用异常表从选举网站中删除数据

如何从网站上抓取数据?

使用 rvest 从网站上抓取表格

烦恼如何从该网站上抓取数据(使用R)

如何使用VBA从Bloomberg网站上抓取数据

如何从网站上的最后一张表格中抓取数据

从网站上的表格中抓取数据,而无需搜索标签

如何使用Flutter从网站上抓取图像?

如何在生成表格的网站上使用Python进行网络抓取?

使用熊猫从网站上抓取表格并保存到 csv 文件

如何使用美丽汤来抓取选举数据

如何使用 Scrapy 在可以选择加载更多帖子的网站上抓取数据?

如何使用python中的BeautifulSoup库从具有“查看更多”选项的网站上抓取数据

当 URL 不变时,如何使用过滤器从网站上抓取数据?

如何从网站上抓取描述

如何从物业税网站上抓取数据

链接到事件点击后如何从网站上抓取数据?

如何从加载缓慢的网站上抓取表数据

如何从需要验证代码的网站上抓取数据?

如何从网站上抓取所有数据?

如何从物业税网站上抓取数据

如何使用 R 从 PHP 网站抓取表格?

使用 Beautiful Soup 和 Pandas 从网站上抓取数据

无法使用 BeautifulSoup 从网站上抓取所有数据

如何使用Beautifulsoup从网站上抓取产品价格?

如何使用硒从网站上抓取一些链接

如何使用BeautifulSoup从eCom网站上抓取<li>?

如何使用 VBA 从网站上抓取选项值