小言_互联网的博客

利用Python爬虫 爬取金融期货数据

632人阅读  评论(0)

目录

任务简介

解决步骤

代码实现

总结

大家好 我是政胤 今天教大家爬取金融期货数据

任务简介

  首先,客户原需求是获取https://hq.smm.cn/copper网站上的价格数据(注:获取的是网站上的公开数据),如下图所示:

  如果以该网站为目标,则需要解决的问题是“登录”用户,再将价格解析为表格进行输出即可。但是,实际上客户核心目标是获取“沪铜CU2206”的历史价格,虽然该网站也有提供数据,但是需要“会员”才可以访问,而会员需要氪金......

数据的价值!!!

  鉴于,客户需求仅仅是“沪铜CU2206”一项期货的历史价格,氪金会员性价比不高,因此,实际的任务目标变为如何获取的历史价格,目标变为全网有公开提供数据的网址。而最终解决该问题,是求助于万能的百度^_^。找到了合适的网站,且获取数据的难度也几乎降到了最低难度。

解决步骤

  1. 百度搜索资源:这个步骤是整个任务完整的最难点(实际不难),但这里卖个关子,全文不公布最终找到的网站,大家试试看能否搜索到,以及花费多少时间^_^。

  2. 解析网站的请求,最终找到的网站经解析后,发现获取数据是通过get的方式提交参数。而请求的参数如下:/price?starttime=1638545822&endtime=1654357022&classid=48,一看就知是开始时间、结束时间的时间戳,以及商品id。再解析headers,居然连cookie都不需要,说明没有反爬!没有反爬!没有反爬!不得不说运气爆棚!

  3. 解析响应数据:由于响应数据是规整的json格式数据,使用pandas的read_json直接能够获取dataframe格式的数据,该步骤也并无难度。

代码实现

  鉴于网站没有反爬,且参数简单,实际上的任务主要是规划一下如何设计增量更新数据信息的流程,具体代码如下:


  
  1. # @author: zheng yin
  2. # @contact: 1278420339@qq.com
  3. """
  4. 1. 这是爬取沪铜的程序
  5. 2. 该网站沪铜当月的数据实际请求地址是:'(实际网址)/price?starttime={starttime}&endtime={endtime}&classid={classid}'
  6. 2.1. starttime为起始日期的时间戳
  7. 2.2. endtime为结束日期的时间戳
  8. 2.3. classid为查询商品的id
  9. 3. 该网址可以直接发起请求获取数据
  10. 我是政胤 期待你的关注
  11. """
  12. import time
  13. from datetime import datetime
  14. import pathlib as pl
  15. import requests
  16. import pandas as pd
  17. class Spider:
  18. """
  19. 爬取网站数据的爬虫对象
  20. """
  21. def __init__( self, starttime: str = None, endtime: str = None, classid: int = 48):
  22. """
  23. 初始化对象属性
  24. :param starttime: 数据的起始日期,文本日期格式,示例 2022-1-1
  25. :param endtime: 数据的结束日期,文本日期格式,示例 2022-1-1
  26. :param classid: 商品id,默认48
  27. """
  28. self.classid = classid # 商品id
  29. self.data = pd.DataFrame() # 初始化空dataframe
  30. self.data_file = pl.Path( './data/hutong.xlsx') # 爬取的数据存储文件
  31. # 列名字典
  32. self.cols_dict = {
  33. 'createtime': '日期',
  34. 'classid': '商品',
  35. 'start': '开盘',
  36. 'end': '收盘',
  37. 'min': '最低',
  38. 'max': '最高',
  39. 'move': '涨跌',
  40. 'move_percent': '涨跌百分比'
  41. }
  42. # 商品id字典
  43. self.classid_dict = {
  44. 48: 'CU2206'
  45. }
  46. # 获取爬取的开始时间与结束时间
  47. self.starttime, self.endtime = self.make_starttime_endtime(starttime=starttime, endtime=endtime)
  48. # 初始化需要爬取的url
  49. self.url = '(实际地址)/price?starttime={starttime}&endtime={endtime}&classid={classid}'
  50. # 初始化headers
  51. self.headers = {
  52. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36',
  53. 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
  54. 'Accept-Encoding': 'gzip, deflate, br',
  55. 'Accept-Language': 'zh-CN,zh;q=0.9',
  56. }
  57. def make_starttime_endtime( self, starttime: str, endtime: str):
  58. """
  59. 制作起始日期,逻辑如下;
  60. 1.如果有传入日期,则根据传入的日期,定义起始日期与结束日期
  61. 2.如果未传入参数,则根据读取到的历史数据文件中的最大日期作为起始日期、以当前日期为结束日期
  62. 3.如果未读取到历史数据文件,或文件中的最大日期为空,则以2021-1-1作为起始日期,以当前日期作为结束日期
  63. :param starttime: 数据的起始日期,文本日期格式,示例 2022-1-1
  64. :param endtime: 数据的结束日期,文本日期格式,示例 2022-1-1
  65. :return:
  66. """
  67. self.read_data() # 读取历史爬取数据
  68. now = datetime.now() # 获取当前时间的时间戳整数部分
  69. if endtime: # 如果非空
  70. year, month, day = endtime.split( '-')
  71. endtime = int(now.replace(year= int(year), month= int(month), day= int(day)).timestamp())
  72. else:
  73. endtime = int(now.timestamp())
  74. if starttime:
  75. year, month, day = starttime.split( '-')
  76. starttime = int(now.replace(year= int(year), month= int(month), day= int(day)).timestamp())
  77. else:
  78. starttime = self.data[ '日期']. max()
  79. if pd.isnull(starttime): # 如果开始日期是空值
  80. starttime = int(now.replace(year= 2021, month= 1, day= 1).timestamp())
  81. else:
  82. starttime = int(
  83. now.replace(year=starttime.year, month=starttime.month, day=starttime.day).timestamp())
  84. return starttime, endtime
  85. def read_data( self):
  86. """
  87. 读取历史数据
  88. :return:
  89. """
  90. if self.data_file.is_file(): # 如果历史数据文件存在
  91. self.data = pd.read_excel(self.data_file)
  92. self.data[ '日期'] = self.data[ '日期']. map( lambda x: x.date())
  93. else: # 如果历史数据文件不存在,那么初始化一个只有列名的dataframe,
  94. self.data = pd.DataFrame(self.cols_dict.values()).set_index( 0).T
  95. def crawl_data( self):
  96. """
  97. 爬取数据
  98. :return:
  99. """
  100. retry_times = 0
  101. while retry_times < 10: # 重试10次
  102. try:
  103. res = requests.get(
  104. self.url. format(starttime=self.starttime, endtime=self.endtime, classid=self.classid),
  105. headers=self.headers, timeout= 30)
  106. if res.status_code == 200: # 如果返回状态至为200,进行后续数据加工
  107. data = pd.read_json(res.text) # json格式转换为dataframe
  108. data[ 'createtime'] = data[ 'createtime']. map( lambda x: datetime.fromtimestamp(x).date()) # 时间戳日期转换为日期
  109. data.rename(columns=self.cols_dict, inplace= True) # 重命名列
  110. data = data[self.cols_dict.values()] # 截取需要的列
  111. data[ '商品'] = self.classid_dict.get(self.classid, '未知商品,请维护classid_dict字典') # 转换商品名
  112. data.sort_values(by=[ '商品', '日期'], ascending= True, inplace= True) # 按日期升序排序
  113. return data
  114. else:
  115. retry_times += 1
  116. print( f'返回状态码是 {res.status_code},等待5秒后重新发起请求')
  117. time.sleep( 5)
  118. except Exception as e:
  119. retry_times += 1
  120. print( f'请求发生错误,等待5秒后重新发起请求, 错误信息: {e}')
  121. time.sleep( 5)
  122. print( '发起10次请求均未能获得数据')
  123. return pd.DataFrame()
  124. def concat_and_write_data( self, data: pd.DataFrame):
  125. """
  126. 合并数据,并将数据写入文件
  127. :param data: 传入需要合并的数据
  128. :return:
  129. """
  130. self.data = pd.concat([self.data, data]) # 合并数据
  131. self.data = self.data.drop_duplicates([ '日期', '商品'], keep= 'last') # 数据根据商品名称与日期进行去重,每次保留最新的记录
  132. if not self.data_file.parent.is_dir(): # 检查数据文件的目录是否存在,如不存在则创建新目录
  133. self.data_file.parent.mkdir()
  134. self.data.to_excel(self.data_file, index= False, encoding= 'utf-8') # 输出数据为excel格式
  135. def run( self):
  136. """
  137. 运行程序
  138. :return:
  139. """
  140. data = spider.crawl_data() # 运行爬取
  141. if len(data) > 0: # 如果爬取到的数据不为空
  142. self.concat_and_write_data(data)
  143. start = str(datetime.fromtimestamp(self.starttime))[: 10]
  144. end = str(datetime.fromtimestamp(self.endtime))[: 10]
  145. print( f'{start}{end}数据爬取任务完成')
  146. def pivot_data( self):
  147. """
  148. 将数据转换为透视表式的格式
  149. :return:
  150. """
  151. data = self.data.copy()
  152. data[ '年月'] = data[ '日期']. map( lambda x: f'{str(x)[:7]}')
  153. data[ '日'] = data[ '日期']. map( lambda x: x.day)
  154. data = data.pivot_table(values= '收盘', index= '日', columns= '年月', aggfunc= 'sum')
  155. data_mean = data.mean().to_frame().T
  156. data_mean.index = [ '平均值']
  157. data = pd.concat([data, data_mean])
  158. data.to_excel(self.data_file.parent.parent / 'data.xlsx', encoding= 'utf-8')
  159. if __name__ == '__main__':
  160. spider = Spider()
  161. spider.run()
  162. spider.pivot_data()
  163. print(spider.data)

总结

  从技术角度来看,经过一步步解析,任务是简单的,入门requests爬虫以及入门pandas数据分析就可以完成(唯一的难度在找到合适的目标)。但是换个角度,从经济价值来看,又是很有价值的,即节约了某网站高昂的年费(注:并不是说年费不值得,只是局限在需求仅仅是CU2206一项数据上时,性价比太低),同时又避免了人工操作的繁琐,以及可能产生的错误。用很小的学习成本就能解决大大的问题

所以,还等什么呢?开启Python之路吧! 

我是政胤 期待你的关注


转载:https://blog.csdn.net/m0_69043821/article/details/125416890
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场