Python3.模拟表单提交、爬取表格数据

论坛 期权论坛 期权     
碎积云   2019-7-7 23:19   2917   0
主要内容有:通过requests库模拟表单提交通过pandas库提取网页表格
上周五,大师兄发给我一个网址,哭哭啼啼地求我:“去!把这个网页上所有年所有县所有作物的数据全爬下来,存到Access里!”
我看他可怜,勉为其难地挥挥手说:“好嘞,马上就开始!”
[h2]目录[/h2]目标分析尝试获取目标页面尝试pandas库提取网页表格准备所有参数正式开始
[h1]目标分析[/h1]大师兄给我的网址是这个:
https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg
打开长这样:

提交前网页根据我学爬虫并不久的经验,通常只要把年月日之类的参数附加到url里面去,然后用
  1. requests.get
复制代码
拿到
  1. response
复制代码
解析html就完了,所以这次应该也差不多——除了要先想办法获得具体有哪些年份、地名、作物名称,其他部分拿以前的代码稍微改改就能用了,毫无挑战性工作,生活真是太无聊了
点击
  1. View Summary
复制代码
后出现目标网页长这样

提交后网页那个大表格的数据就是目标数据了,好像没什么了不起的——
有点不对劲
目标数据所在网页的网址是这样的:https://www.ctic.org/crm/?action=result ,刚刚选择的那些参数并没有作为url的参数啊!网址网页都变了,所以也不是ajax
这和我想象的情况有巨大差别啊
[h1]尝试获取目标页面[/h1]让我来康康点击
  1. View Summary
复制代码
这个按钮时到底发生了啥:右键
  1. View Summary
复制代码
检查是这样:

表单实话说,这是我第一次遇到要提交表单的活儿。以前可能是上天眷顾我,统统
  1. get
复制代码
就能搞定,今天终于让我碰上一个
  1. post
复制代码
了点击
  1. View Summary
复制代码
,到DevTools里找network第一条:

formdata不管三七二十一,
  1. post
复制代码
一下试试看
  1. 1import requests 2 3url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg' 4headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 5           'AppleWebKit/537.36 (KHTML, like Gecko) ' 6           'Chrome/74.0.3729.131 Safari/537.36', 7           'Host': 'www.ctic.org'} 8data = {'_csrf': 'SjFKLWxVVkkaSRBYQWYYCA1TMG8iYR8ReUYcSj04Jh4EBzIdBGwmLw==', 9        'CRMSearchForm[year]': '2011',10        'CRMSearchForm[format]': 'Acres',11        'CRMSearchForm[area]': 'County',12        'CRMSearchForm[region]': 'Midwest',13        'CRMSearchForm[state]': 'IL',14        'CRMSearchForm[county]': 'Adams',15        'CRMSearchForm[crop_type]': 'All',16        'summary': 'county'}17response = requests.post(url, data=data, headers=headers)18print(response.status_code)
复制代码
果不其然,输出
  1. 400
复制代码
……我猜这就是传说中的
  1. cookies
复制代码
在搞鬼吗?《Python3网络爬虫实战》只看到第6章的我不禁有些心虚跃跃欲试呢!
首先,我搞不清
  1. cookies
复制代码
具体是啥,只知道它是用来维持会话的,应该来自于第一次
  1. get
复制代码
,搞出来看看先:
  1. 1response1 = requests.get(url, headers=headers)2if response1.status_code == 200:3    cookies = response1.cookies4    print(cookies)
复制代码
输出:
  1. 1
复制代码
Nah,看不懂,不看不管,直接把它放到
  1. post
复制代码
里试试
  1. 1response2 = requests.post(url, data=data, headers=headers, cookies=cookies)2print(response2.status_code)
复制代码
还是
  1. 400
复制代码
,气氛突然变得有些焦灼,我给你
  1. cookies
复制代码
了啊,你还想要啥?!
突然,我发现一件事:
  1. post
复制代码
请求所带的
  1. data
复制代码
中那个一开始就显得很可疑的
  1. _csrf
复制代码
我仿佛在哪儿见过?
那个我完全看不懂的
  1. cookies
复制代码
里好像就有一个
  1. _csrf
复制代码
啊!但是两个
  1. _csrf
复制代码
的值很明显结构不一样,试了一下把
  1. data
复制代码
里的
  1. _csrf
复制代码
换成
  1. cookies
复制代码
里的
  1. _csrf
复制代码
确实也不行
但是我逐渐有了一个想法:这个两个
  1. _csrf
复制代码
虽然不相等,但是应该是匹配的,我刚刚的
  1. data
复制代码
来自浏览器,
  1. cookies
复制代码
来自python程序,所以不匹配!
于是我又点开浏览器的DevTools,Ctrl+F搜索了一下,嘿嘿,发现了:

_csrf和
state_county这三处第一处那里的下一行的
  1. csrf_token
复制代码
很明显就是
  1. post
复制代码
请求所带的
  1. data
复制代码
里的
  1. _csrf
复制代码
,另外两个是js里的函数,虽然js没好好学但也能看出来这俩是通过
  1. post
复制代码
请求获得州名和县名的,Binggo!一下子解决两个问题
为了验证我的猜想,我打算先直接用request获取点击
  1. View Summary
复制代码
前的页面的HTML和
  1. cookies
复制代码
,将从HTML中提取的
  1. csrf_token
复制代码
值作为点击
  1. View Summary
复制代码
  1. post
复制代码
请求的
  1. data
复制代码
里的
  1. _csrf
复制代码
值,同时附上
  1. cookies
复制代码
,这样两处
  1. _csrf
复制代码
就应该是匹配的了:
  1. 1from lxml import etree2response1 = requests.get(url, headers=headers)3cookies = response1.cookies4html = etree.HTML(response1.text)5csrf_token = html.xpath('/html/head/meta[3]/@content')[0]6data.update({'_csrf': csrf_token})7response2 = requests.post(url, data=data, headers=headers, cookies=cookies)8print(response2.status_code)
复制代码
输出
  1. 200
复制代码
,虽然和Chrome显示的
  1. 302
复制代码
不一样,但是也表示成功,那就不管了。把
  1. response2.text
复制代码
写入html文件打开看是这样:

htmlYeah,数据都在!说明我的猜想是对的!那一会再试试我从没用过的
  1. requests.Session()
复制代码
维持会话,自动处理
  1. cookies
复制代码
[h1]尝试pandas库提取网页表格[/h1]现在既然已经拿到了目标页面的HTML,那在获取所有年、地区、州名、县名之前,先测试一下
  1. pandas.read_html
复制代码
提取网页表格的功能
  1. pandas.read_html
复制代码
这个函数时在写代码时IDE自动补全下拉列表里瞄到的,一直想试试来着,今天乘机拉出来溜溜:
  1. 1import pandas as pd2df = pd.read_html(response2.text)[0]3print(df)
复制代码
输出:

target_tableYeah!拿到了,确实比自己手写提取方便,而且数值字符串自动转成数值,优秀!
[h1]准备所有参数[/h1]接下来要获取所有年、地区、州名、县名。年份和地区是写死在HTML里的,直接xpath获取:

year_region州名、县名根据之前发现的两个js函数,要用
  1. post
复制代码
请求来获得,其中州名要根据地区名获取,县名要根据州名获取,套两层循环就行
  1. 1def new(): 2    session = requests.Session() 3    response = session.get(url=url, headers=headers) 4    html = etree.HTML(response.text) 5    return session, html 6 7years = html.xpath('//*[@id="crmsearchform-year"]/option/text()') 8regions = html.xpath('//*[@id="crmsearchform-region"]/option/text()') 9_csrf = html.xpath('/html/head/meta[3]/@content')[0]10region_state = {}11state_county = {}12for region in regions:13    data = {'region': region, '_csrf': _csrf}14    response = session.post(url_state, data=data)15    html = etree.HTML(response.json())16    region_state[region] = {x: y for x, y in17                            zip(html.xpath('//option/@value'),18                                html.xpath('//option/text()'))}19    for state in region_state[region]:20        data = {'state': state, '_csrf': _csrf}21        response = session.post(url_county, data=data)22        html = etree.HTML(response.json())23        state_county[state] = html.xpath('//option/@value')
复制代码
啧啧,使用
  1. requests.Session
复制代码
就完全不需要自己管理
  1. cookies
复制代码
了,方便!具体获得的州名县名就不放出来了,实在太多了。然后把所有年、地区、州名、县名的可能组合先整理成csv文件,一会直接从csv里读取并构造
  1. post
复制代码
请求的
  1. data
复制代码
字典:
  1. 1remain = [[str(year), str(region), str(state), str(county)]  2         for year in years for region in regions 3         for state in region_state[region] for county in state_county[state]] 4remain = pd.DataFrame(remain, columns=['CRMSearchForm[year]', 5                                       'CRMSearchForm[region]', 6                                       'CRMSearchForm[state]', 7                                       'CRMSearchForm[county]']) 8remain.to_csv('remain.csv', index=False) 9# 由于州名有缩写和全称,也本地保存一份10import json11with open('region_state.json', 'w') as json_file:12        json.dump(region_state, json_file, indent=4)
复制代码
我看了一下,一共49473行——也就是说至少要发送49473个
  1. post
复制代码
请求才能爬完全部数据,纯手工获取的话大概要点击十倍这个数字的次数……
[h1]正式开始[/h1]那么开始爬咯
  1. 1import pyodbc 2with open("region_state.json") as json_file: 3    region_state = json.load(json_file) 4data = pd.read_csv('remain.csv') 5# 读取已经爬取的 6cnxn = pyodbc.connect('DRIVER={Microsoft Access Driver (*.mdb, *.accdb)};' 7                      'DBQ=./ctic_crm.accdb') 8crsr = cnxn.cursor() 9crsr.execute('select Year_, Region, State, County from ctic_crm')10done = crsr.fetchall()11done = [list(x) for x in done]12done = pd.DataFrame([list(x) for x in done], columns=['CRMSearchForm[year]',13                                                      'CRMSearchForm[region]',14                                                      'CRMSearchForm[state]',15                                                      'CRMSearchForm[county]'])16done['CRMSearchForm[year]'] = done['CRMSearchForm[year]'].astype('int64')17state2st = {y: x for z in region_state.values() for x, y in z.items()}18done['CRMSearchForm[state]'] = [state2st[x]19                                for x in done['CRMSearchForm[state]']]20# 排除已经爬取的21remain = data.append(done)22remain = remain.drop_duplicates(keep=False)23total = len(remain)24print(f'{total} left.\n')25del data2627# %%28remain['CRMSearchForm[year]'] = remain['CRMSearchForm[year]'].astype('str')29columns = ['Crop',30           'Total_Planted_Acres',31           'Conservation_Tillage_No_Till',32           'Conservation_Tillage_Ridge_Till',33           'Conservation_Tillage_Mulch_Till',34           'Conservation_Tillage_Total',35           'Other_Tillage_Practices_Reduced_Till15_30_Residue',36           'Other_Tillage_Practices_Conventional_Till0_15_Residue']37fields = ['Year_', 'Units', 'Area', 'Region', 'State', 'County'] + columns38data = {'CRMSearchForm[format]': 'Acres',39        'CRMSearchForm[area]': 'County',40        'CRMSearchForm[crop_type]': 'All',41        'summary': 'county'}42headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '43           'AppleWebKit/537.36 (KHTML, like Gecko) '44           'Chrome/74.0.3729.131 Safari/537.36',45           'Host': 'www.ctic.org',46           'Upgrade-Insecure-Requests': '1',47           'DNT': '1',48           'Connection': 'keep-alive'}49url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg'50headers2 = headers.copy()51headers2 = headers2.update({'Referer': url,52                            'Origin': 'https://www.ctic.org'})53def new():54    session = requests.Session()55    response = session.get(url=url, headers=headers)56    html = etree.HTML(response.text)57    _csrf = html.xpath('/html/head/meta[3]/@content')[0]58    return session, _csrf59session, _csrf = new()60for _, row in remain.iterrows():61    temp = dict(row)62    data.update(temp)63    data.update({'_csrf': _csrf})64    while True:65        try:66            response = session.post(url, data=data, headers=headers2, timeout=15)67            break68        except Exception as e:69            session.close()70            print(e)71            print('\nSleep 30s.\n')72            time.sleep(30)73            session, _csrf = new()74            data.update({'_csrf': _csrf})7576    df = pd.read_html(response.text)[0].dropna(how='all')77    df.columns = columns78    df['Year_'] = int(temp['CRMSearchForm[year]'])79    df['Units'] = 'Acres'80    df['Area'] = 'County'81    df['Region'] = temp['CRMSearchForm[region]']82    df['State'] = region_state[temp['CRMSearchForm[region]']][temp['CRMSearchForm[state]']]83    df['County'] = temp['CRMSearchForm[county]']84    df = df.reindex(columns=fields)85    for record in df.itertuples(index=False):86        tuple_record = tuple(record)87        sql_insert = f'INSERT INTO ctic_crm VALUES {tuple_record}'88        sql_insert = sql_insert.replace(', nan,', ', null,')89        crsr.execute(sql_insert)90        crsr.commit()91    print(total, row.to_list())92    total -= 193else:94    print('Done!')95    crsr.close()96    cnxn.close()
复制代码
注意中间有个
  1. try...except..
复制代码
语句,是因为不定时会发生
  1. Connection aborted
复制代码
的错误,有时9000次才断一次,有时一次就断,这也是我加上了
  1. 读取已经爬取的
复制代码
  1. 排除已经爬取的
复制代码
原因,而且担心被识别出爬虫,把
  1. headers
复制代码
写的丰富了一些(好像并没有什么卵用),并且每次断开都暂停个30s并重新开一个会话

aborted然后把程序开着过了一个周末,命令行里终于打出了
  1. Done!
复制代码
,到Access里一看有816288条记录,心想:下次试试多线程(进程)和代理池
周一,我把跑出来的数据发给大师兄,大师兄回我:“好的”
隔着屏幕我都能感受到滔滔不绝的敬仰和感激之情,于是淡淡地说:“师兄方便的话长按关注一下我的公众号哦,不定时有好玩的东西更新哦。”
然后一直到现在,大师兄都感动地说不出话来

分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:
帖子:
精华:
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP