爬虫学习第四部分

论坛 期权论坛 脚本     
匿名技术用户   2021-1-14 13:59   33   0

本次进行数据爬取


import time
from  selenium import webdriver
from bs4 import BeautifulSoup
import pandas as pd

driver = webdriver.Chrome('D:\ProgramData\Anaconda3\chromedriver.exe')
driver.get('')
# 将窗口调整最大
driver.maximize_window()
time.sleep(2)
current_window_1 = driver.current_window_handle
print(current_window_1)
# 向下滚动1000像素
#js = "window.scrollBy(0, 2000)"
# 滚动到当前页面底部
# js = "window.scrollTo(0,document.body.scrollHeight)" 
for i in range(1,20):
    time.sleep(3)
    driver.execute_script("window.scrollTo(window.scrollX, %d);"%(i*1000))
html=driver.page_source
time.sleep(5)
soup = BeautifulSoup(html,'html.parser')
infos=soup.find_all('li',{'class':'item cf'})
lenth=len(infos)
print(lenth)
i=0
results=[]
for c in infos:
    infoc=c.find('h3')
    title=infoc.find('a').get_text()
    url=infoc.find('a')['href']
    i=i+1
    print(i,',',title,',',url)
    results.append([i,title,url])
name=['id','titie','url']
contents=pd.DataFrame(columns=name,data=results)
contents.to_csv('d:/news.csv',encoding='utf_8_sig', index = False)

写入到csv文件用'utf-8'编码出现乱码,需将编码设置为utf-8-sig,即带有签名的 utf-8(UTF-8 with BOM),字节顺序标记,出现在文本文件头部,Unicode编码标准中用于标识文件是采用哪种格式的编码。Excel 在读取 csv 文件的时候是通过读取文件头上的 BOM 来识别编码的,用utf-8生成 csv 文件的时候,没有生成 BOM 信息,会乱码。原文链接:https://blog.csdn.net/qq_36759224/article/details/104417871

index=false,去掉csv中自带的默认索引。

分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:7942463
帖子:1588486
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP