Python爬取东方财富网资金流向数据并存入MySQL

Python之王

共 2575字,需浏览 6分钟

 ·

2021-10-23 02:52

第一步:程序及应用的准备

首先我们需要安装selenium库,使用命令pip install selenium;然后我们需要下载对应的chromedriver,,安装教程:。我们的chromedriver.exe应该是在C:\Program Files\Google\Chrome\Application中(即让它跟chrome.exe在同一个文件下)。

下载完成后,我们还需要做两件事:1.配置环境变量;

2.将chromedriver.exe拖到python文件夹里,因为我用的是anaconda,所以我直接是放入D:\Anaconda中的。

此时,我们所需的应用已经准备好了。

第二步:进入我们要爬取的网页(),按F12进入调试模式.

可定义文档中的分区或节,可以对同一个
元素应用 class 或 id 属性,但是更常见的情况是只应用其中一种。这两者的主要差异是,class 用于元素组(类似的元素,或者可以理解为某一类元素),而 id 用于标识单独的唯一的元素。

当我们依次点击右侧div时,我们可以发现,我们想要爬取的数据对应的代码为右侧蓝色部分,而下方的

表示整个表格,表示我们的表头即文字部分,表示表头下方的数据部分。

我们可以发现,

跟的每一行都是以开始,以结束的;在中,每一个格子是以中,每一个格子是以
开始,以结束的;在
开始,以结束的。至此,我们对要爬取的数据的构成有了一个大概的认知。

第三步:编写程序

etree.HTML()可以用来解析字符串格式的HTML文档对象,将传进去的字符串转变成_Element对象。作为_Element对象,可以方便的使用getparent()、remove()、xpath()等方法。

options常用属性及方法为:

  • binary_location='':指定Chrome浏览器路径- debuger_address=':指定调试路径- headless: 无界面模式- add_argument():添加启动参数- add_extension:添加本地插件- add_experimental_option:添加实验选项- to_capablilities:将options转为标准的capablitiies格式 selenium的page_source方法可以获取到页面源码,提取出我们需要的信息。

div[@class="dataview"表示我们通过class属性的值定位到我们要爬取的表格div,‘/table’则是表示

的下一级目录。

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。下面列出了最有用的路径表达式:|表达式|描述 |nodename|选取此节点的所有子节点。|/|从根节点选取(取子节点)。|//|从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置(取子孙节点)。|.|选取当前节点。|..|选取当前节点的父节点。|@|选取属性。

from selenium import webdriver  #导入模块,selenium导入浏览器驱动,用get方法打开浏览器
import time
import re
import csv  #存储数据
from lxml import etree #数据的解析

option = webdriver.ChromeOptions()   #网址获取
option.add_argument('headless')  #无界面启动,即设置浏览器静默
#等价于 options.headless=True
driver = webdriver.Chrome(options=option)  
#等价于 driver = webdriver.Chrome(desired_capabilities=options.to_capablities())
driver.get('https://data.eastmoney.com/zjlx/000040.html'#打开浏览器
time.sleep(2) #推迟调用线程的运行,可表示进程挂起的时间,这里让他推迟执行2秒

source = driver.page_source #获取页面源码
mytree = etree.HTML(source#解析网页内容
tables = mytree.xpath('//div[@class="dataview"]/table'#定位表格
for i in range(len(tables)): #循环表格
    onetable = []
    trs = tables[i].xpath('.//tr'#取出所有tr标签
    for tr in trs:
        ui = []
        for td in tr:
            texts = td.xpath(".//text()"#取出所有td标签下的文本
            mm = []
            for text in texts:
                mm.append(text.strip("")) #去掉所有空格、换行符
            ui.append(','.join(mm))
        onetable.append(ui) #整张表格

with open('data.csv''a', newline='') as file: #将数据写入文件
    csv_file = csv.writer(file)
    for i in onetable:
        csv_file.writerow(i) #按行写入

time.sleep(2)
driver.close() #关闭当前窗口

这样我们就可以把一个股票的历史资金流向的数据放在一个csv文件里了,接下去考虑到存储问题,我们可以尝试连接MySQL,将数据放入MySQL中。


浏览 14
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报