Python+Tkinter制作股票数据抓取小程序

目录
  • 程序布局
  • 抓取与保存功能
  • 添加功能
    • 个股查询按钮
    • 批量查询开关

在前面的文章中,我们一起学习了如何通过 Python 抓取东方财富网的实时股票数据,链接如下

用 Python 爬取股票实时数据

今天我们就在这个基础上,实现一个 Tkinter GUI 程序,完成无代码股票抓取!

首先对于 Tkinter 相信大家都是比较了解的,如果有小伙伴对于 Tkinter 的相关用法不是特别熟悉的话,可以看如下文章

Tkinter 入门之旅

首先我们先看一下 GUI 程序的最终效果

该程序共分三个区域:

  • 个股查询:用于查询某只股票的数据,可以查询1天或者多天数据
  • 批量查询:查询某个交易所所有股票的数据
  • 日志区域:打印抓取信息

下面我们就来看看该如何从头完成这个 GUI 程序

程序布局

首先就是程序布局,这里我们使用了 ttkbootstrap 库来美化整体程序

程序初始化部分

import ttkbootstrap as ttk
from ttkbootstrap.constants import *
import tkinter.messagebox as messbox

class MainCreator(ttk.Window):
    def __init__(self):
        super().__init__("股票抓取工具", themename="solar", resizable=(False, False))
        self.configure_frame = ttk.Frame(self, padding=(10, 10, 5, 10))
        self.configure_frame.pack(side=LEFT, fill=BOTH, expand=YES)
        self.demo_frame = ttk.Frame(self, padding=(5, 10, 10, 10))
        self.demo_frame.pack(side=LEFT, fill=BOTH, expand=YES)

程序布局部分

    def create_frame(self):
        """Create all the frame widgets"""
        container = ttk.Frame(self)
        container.pack(side=LEFT, fill=BOTH, expand=YES, padx=5)

        color_group = ttk.Labelframe(
            master=container, text="个股查询", padding=10
        )
        color_group.pack(fill=X, side=TOP)
        en_command = super().register(self.en_validate)
        self.en0 = ttk.Entry(color_group, width=5, text='', bootstyle='warning',
                             validate='key', validatecommand=(en_command, '%P'))
        self.en0.insert('0', 1)
        self.en0.config(state=DISABLED)
        ...

总体上来说,我们所有的组件都是从 ttk 当中实例化的,也就是直接复用了库 ttkbootstrap 的相关美化功能,使得我们的程序看起来更加高级美观

抓取与保存功能

下面我们编写股票抓取代码和对应的保存代码

股票抓取

def get_A_mins(code):
    if code.startswith("3") or code.startswith("0"):
        url = shang_A_url.replace("%s", code)
    elif code.startswith("6"):
        url = shen_A_url.replace("%s", code)
    else:
        return False

    res = requests.get(url)
    result = res.text.split("cb_1659146437934_51841953")[1].split("(")[1].split(");")[0]
    result_json = json.loads(result)
    stock_data = result_json['data']
    return stock_data

def get_A_days(code):
    if code.startswith("3") or code.startswith("0"):
        url = shang_A_days.replace("%s", code)
    elif code.startswith("6"):
        url = shen_A_days.replace("%s", code)
    else:
        return False

    res = requests.get(url)
    result = res.text.split("cb_1659171393020_15037673")[1].split("(")[1].split(");")[0]
    result_json = json.loads(result)
    stock_data = result_json['data']
    return stock_data

def get_hsj(date):
    total_data = []
    try:
        for i in range(1, 5):
            res = requests.get(hsj_url.replace("%s", str(i)))
            result = res.text.split("jQuery112402508937289440778_1658838703304")[1].split("(")[1].split(");")[0]
            result_json = json.loads(result)
            stock_data = result_json['data']
            if stock_data:
                total_data.append(stock_data)
                saveFunc.save_data_hsj(stock_data['diff'], date)
            else:
                return total_data
        return total_data
    except Exception as e:
        return False

def get_Center():
    total_data = []
    for i in range(1, 20):
        res = requests.get(center_url.replace("%s", str(i)))
        result = res.text.split("jQuery112404177389105264733_1659176039486")[1].split("(")[1].split(");")[0]
        result_json = json.loads(result)
        center_data = result_json['data']
        if center_data:
            total_data.append(center_data)
        else:
            return total_data

def get_shang_A():
    pass

def get_shen_A():
    pass

def get_bei_A():
    pass

股票代码分为上交所,深交所和北交所以及大盘行情数据,所以我们分别编写函数进行处理

数据保存

import os

def save_data_mins(data, date):
    Code = data['code']
    Name = data['name']
    if not os.path.exists(r"stock_data_%s_%s_%s_mins.csv" % (Code, Name, date)):
        with open("stock_data_%s_%s_%s_mins.csv" % (Code, Name, date), "a+", encoding='utf-8') as f:
            f.write("时间,最新价,成交量(手),成交额\n")
            for i in data['trends']:
                i_list = i.split(",")
                time = i_list[0]
                price = i_list[2]
                mount = i_list[5]
                count = i_list[6]
                row = '{},{},{},{}'.format(
                    time,price,mount,count)
                f.write(row)
                f.write('\n')
    else:
        ...

def save_data_days(data, days):
    print(days)
    Code = data['code']
    Name = data['name']
    if not os.path.exists(r"stock_data_%s_%s_days.csv" % (Code, Name)):
        with open("stock_data_%s_%s_days.csv" % (Code, Name), "a+", encoding='utf-8') as f:
            f.write("时间,开盘价,收盘价,最高价,最低价,成交量(手),成交额,振幅,涨跌幅,涨跌额,换手率\n")
            for i in data["klines"][::-1][:int(days)]:
                i_list = i.split(",")
                time = i_list[0]
                Open = i_list[1]
                close = i_list[2]
                heigh = i_list[3]
                low = i_list[4]
                mount = i_list[5]
                count = i_list[6]
                amplitude = i_list[7]
                changePercent = i_list[8]
                change = i_list[9]
                turnoverRate = i_list[10]
                row = '{},{},{},{},{},{},{},{},{},{},{}'.format(
                    time,Open,close,heigh,low,mount,count,amplitude,changePercent,change,turnoverRate)
                f.write(row)
                f.write('\n')
    else:
        ...

def save_data_hsj(data, date):
    if not os.path.exists(r'stock_data_%s.csv' % date):
        with open("stock_data_%s.csv" % date, "a+", encoding='utf-8') as f:
            f.write("股票代码,股票名称,最新价,涨跌幅,涨跌额,成交量(手),成交额,振幅,换手率,市盈率,量比,最高,最低,今开,昨收,市净率\n")
            for i in data:
                Code = i["f12"]
                Name = i["f14"]
                Close = i['f2']
                ChangePercent = i["f3"]
                Change = i['f4']
                Volume = i['f5']
                Amount = i['f6']
                Amplitude = i['f7']
                TurnoverRate = i['f8']
                PERation = i['f9']
                VolumeRate = i['f10']
                Hign = i['f15']
                Low = i['f16']
                Open = i['f17']
                PreviousClose = i['f18']
                PB = i['f22']
                row = '{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{}'.format(
                    Code,Name,Close,ChangePercent,Change,Volume,Amount,Amplitude,
                    TurnoverRate,PERation,VolumeRate,Hign,Low,Open,PreviousClose,PB)
                f.write(row)
                f.write('\n')
    else:
        ...

def save_data_center():
    pass

def save_data_shang_A():
    pass

添加功能

接下来就是为布局好的 GUI 程序添加各种响应功能

个股查询按钮

为个股查询的抓取按钮绑定方法catch

self.bt = ttk.Button(color_group, text='抓取', bootstyle='success', command=self.catch)

方法catch的定义如下

    def catch(self):
        self.txt.yview_moveto(1)
        now = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
        day = datetime.datetime.now().strftime('%Y-%m-%d')
        if self.cbvar.get() == 1:
            catch_day = self.en0.get()
            if self.en.get():
                code = self.en.get()
                result = catchFunc.get_A_days(code)
                if result:
                    saveFunc.save_data_days(result, catch_day)
                    self.txt.insert(ttk.INSERT, "抓取股票%s成功 %s" % (code, now))
                    self.txt.insert(ttk.INSERT, "\n")
                    self.txt.update()
                    self.txt.yview_moveto(1)
                else:
                    print("股票代码错误")
                    messbox.showerror("股票代码错误", "请输入正确的股票代码!")
            else:
                print("请输入股票代码")
                messbox.showerror("股票代码为空", "请输入股票代码!")
        else:
        ...

批量查询开关

对于批量查询,我们是通过一个多选框开关控制的

self.cb_batch = ttk.Checkbutton(cr_group, text="开启批量", variable=self.cbvar1, command=self.cb_button)

绑定的方法如下

    def cb_button(self):
        if self.cbvar1.get() == 1:
            self.bt_batch.config(state=NORMAL)
        else:
            self.bt_batch.config(state=DISABLED)

以上就是Python+Tkinter制作股票数据抓取小程序的详细内容,更多关于Python Tkinter股票数据抓取的资料请关注我们其它相关文章!

(0)

相关推荐

  • Python爬取股票信息,并可视化数据的示例

    前言 截止2019年年底我国股票投资者数量为15975.24万户, 如此多的股民热衷于炒股,首先抛开炒股技术不说, 那么多股票数据是不是非常难找, 找到之后是不是看着密密麻麻的数据是不是头都大了? 今天带大家爬取雪球平台的股票数据, 并且实现数据可视化 先看下效果图 基本环境配置 python 3.6 pycharm requests csv time 目标地址 https://xueqiu.com/hq 爬虫代码 请求网页 import requests url = 'https://xueq

  • Python股票数据可视化代码详解

    目录 数据准备 阿里巴巴 谷歌 苹果 腾讯 亚马逊 Facebook 数据可视化 查看各个公司的股价平均值 查看各公司股价分布情况 股价走势对比 总结 import numpy as np import pandas as pd from pandas_datareader import data import datetime as dt 数据准备 ''' 获取国内股票数据的方式是:"股票代码"+"对应股市"(港股为.hk,A股为.ss) 例如腾讯是港股是:070

  • python实现股票历史数据可视化分析案例

    投资有风险,选择需谨慎. 股票交易数据分析可直观股市走向,对于如何把握股票行情,快速解读股票交易数据有不可替代的作用! 1 数据预处理 1.1 股票历史数据csv文件读取 import pandas as pd import csv df = pd.read_csv("/home/kesci/input/maotai4154/maotai.csv") 1.2 关键数据--在csv文件中选择性提取"列" df_high_low = df[['date','high',

  • 利用Python 爬取股票实时数据详情

    东方财富网地址如下: http://quote.eastmoney.com/center/gridlist.html#hs_a_board 我们通过点击该网站的下一页发现,网页内容有变化,但是网站的 URL 却不变,也就是说这里使用了 Ajax 技术,动态从服务器拉取数据,这种方式的好处是可以在不重新加载整幅网页的情况下更新部分数据,减轻网络负荷,加快页面加载速度. 我们通过 F12 来查看网络请求情况,可以很容易的发现,网页上的数据都是通过如下地址请求的 http://38.push2.eas

  • 基于Python爬取股票数据过程详解

    基本环境配置 python 3.6 pycharm requests csv time 相关模块pip安装即可 目标网页 分析网页 一切的一切都在图里 找到数据了,直接请求网页,解析数据,保存数据 请求网页 import requests url = 'https://xueqiu.com/service/v5/stock/screener/quote/list' response = requests.get(url=url, params=params, headers=headers, c

  • Python爬取股票交易数据并可视化展示

    目录 开发环境 第三方模块 爬虫案例的步骤 爬虫程序全部代码 分析网页 导入模块 请求数据 解析数据 翻页 保存数据 实现效果 数据可视化全部代码 导入数据 读取数据 可视化图表 效果展示  开发环境 解释器版本: python 3.8 代码编辑器: pycharm 2021.2 第三方模块 requests: pip install requests csv 爬虫案例的步骤 1.确定url地址(链接地址) 2.发送网络请求 3.数据解析(筛选数据) 4.数据的保存(数据库(mysql\mong

  • Python+Tkinter制作股票数据抓取小程序

    目录 程序布局 抓取与保存功能 添加功能 个股查询按钮 批量查询开关 在前面的文章中,我们一起学习了如何通过 Python 抓取东方财富网的实时股票数据,链接如下 用 Python 爬取股票实时数据 今天我们就在这个基础上,实现一个 Tkinter GUI 程序,完成无代码股票抓取! 首先对于 Tkinter 相信大家都是比较了解的,如果有小伙伴对于 Tkinter 的相关用法不是特别熟悉的话,可以看如下文章 Tkinter 入门之旅 首先我们先看一下 GUI 程序的最终效果 该程序共分三个区域

  • 浅谈Python爬虫原理与数据抓取

    通用爬虫和聚焦爬虫 根据使用场景,网络爬虫可分为通用爬虫和聚焦爬虫两种. 通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu.Google.Yahoo等)的重要组成部分.主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份. 通用搜索引擎(Search Engine)工作原理 通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果. 第一步:抓取网页

  • Python 抖音评论数据抓取分析

    张同学 10.4号开始发视频,视频的点赞量一直很高,11.17 号的视频达到了顶峰,收获 250w 个赞,之后关注量也开启了暴涨. 所以挖掘 11.17 号视频的评论,更有助于我们达成目的.另外,为方便大家更好的学习爬虫技术和数据可视化分析,完整版代码我放在文末. 1. 抓取数据 抖音出了 web 版,抓取数据方便了很多. 抓评论 滑到网页评论区,在浏览器网络请求里过滤包含comment的请求,不断刷新评论就可以看到评论的接口. 有了接口,就可以写 Python 程序模拟请求,获取评论数据. 请

  • Python+Tkinter实现股票K线图的绘制

    目录 子窗口 子窗口框架 绘制K线图 在前面的文章中,我们一起学习了如何通过 Python 抓取东方财富网的实时股票数据以及如何制作成 Tkinter GUI 程序,链接如下 用 Python 爬取股票实时数据 Tkinter制作股票数据抓取小程序,有点秀! 今天我们就在这个基础上,在 Tkinter 程序中绘制 K 线图,一起来看看吧 子窗口 我们今天的整体代码还是基于上次的 Tkinter 股票程序,在主类 MainCreator 下面创建一个函数 create_subwindow     

  • Python数据抓取爬虫代理防封IP方法

    爬虫:一段自动抓取互联网信息的程序,从互联网上抓取对于我们有价值的信息,一般来说,Python爬虫程序很多时候都要使用(飞猪IP)代理的IP地址来爬取程序,但是默认的urlopen是无法使用代理的IP的,我就来分享一下Python爬虫怎样使用代理IP的经验.(推荐飞猪代理IP注册可免费使用,浏览器搜索可找到) 1.划重点,小编我用的是Python3哦,所以要导入urllib的request,然后我们调用ProxyHandler,它可以接收代理IP的参数.代理可以根据自己需要选择,当然免费的也是有

  • python+mongodb数据抓取详细介绍

    分享点干货!!! Python数据抓取分析 编程模块:requests,lxml,pymongo,time,BeautifulSoup 首先获取所有产品的分类网址: def step(): try: headers = { ..... } r = requests.get(url,headers,timeout=30) html = r.content soup = BeautifulSoup(html,"lxml") url = soup.find_all(正则表达式) for i

  • python数据抓取分析的示例代码(python + mongodb)

    本文介绍了Python数据抓取分析,分享给大家,具体如下: 编程模块:requests,lxml,pymongo,time,BeautifulSoup 首先获取所有产品的分类网址: def step(): try: headers = { ..... } r = requests.get(url,headers,timeout=30) html = r.content soup = BeautifulSoup(html,"lxml") url = soup.find_all(正则表达式

  • python数据抓取3种方法总结

    三种数据抓取的方法 正则表达式(re库) BeautifulSoup(bs4) lxml *利用之前构建的下载网页函数,获取目标网页的html,我们以https://guojiadiqu.bmcx.com/AFG__guojiayudiqu/为例,获取html. from get_html import download url = 'https://guojiadiqu.bmcx.com/AFG__guojiayudiqu/' page_content = download(url) *假设我

  • Python+Tkinter制作猜灯谜小游戏

    目录 导语 正文 1)效果展示 2)主程序 导语 元宵节,又称上元节.灯节,是春节之后的第一个重要节日. 相传,汉文帝(前179—前157年)为庆祝周勃于正月十五勘平诸吕之乱,每逢此夜,必出宫游玩,与民同乐,在古代,夜同宵,正月又称元月,汉文帝就将正月十五定为元宵节. 随着社会和时代的变迁,元宵节的风俗习惯在不断变化,但至今仍是中国的传统节日.2008年,元宵节选入第二批国家级非物质文化遗产. 对我而言,除了吃元宵.看花灯……还有一件最重要的事情…就是… 猜灯谜!猜灯谜!!猜灯谜!!!猜谜事小,

  • 在Python3中使用asyncio库进行快速数据抓取的教程

    web数据抓取是一个经常在python的讨论中出现的主题.有很多方法可以用来进行web数据抓取,然而其中好像并没有一个最好的办法.有一些如scrapy这样十分成熟的框架,更多的则是像mechanize这样的轻量级库.DIY自己的解决方案同样十分流行:你可以使用requests.beautifulsoup或者pyquery来实现. 方法如此多样的原因在于,数据"抓取"实际上包括很多问题:你不需要使用相同的工具从成千上万的页面中抓取数据,同时使一些Web工作流自动化(例如填一些表单然后取回

随机推荐