pycharm上的代码如何保存到桌面 如何利用python获取股票行情信息?

[更新]
·
·
分类:互联网
2158 阅读

pycharm上的代码如何保存到桌面

如何利用python获取股票行情信息?

如何利用python获取股票行情信息?

可以利用tushare这个库,这个库拥有丰富的数据内容,包括股票、基金、期货、数字货币等,完成了数据从采集、清洗到存储的全过程,能够为金融分析人员提供整洁、多样、便于分析的数据,下面我简单介绍一下这个库的安装和使用过程,实验环境win10 python3.6 pycharm5.0,主要内容如下:
1.安装tushare,这个直接在cmd窗口pip install安装就行,如下:
2.新版的tushare使用,需要到官网注册,获取token后,才能使用,注册的话,直接到官网注册就行,地址,输入必要信息就行,如下:
登陆成功后,进入“个人主页”,点击TOKEN,获取token,后面的程序中都要使用到这个token,如下:
3.接着就是获取股票行情信息了,这里tushare官网提供了非常简单入门的示例,初学者很容易就能掌握,如下,这里简单介绍一下:
获取股票日线行情数据,这里主要用到daily这个函数,输入参数为ts_code股票代码、trade_date交易日期、start_date开始日期、end_date结束日期,输出为开盘价、最高价、最低价、涨跌额、成交量等,代码如下:
程序截图如下:
获取股票复权因子数据,主要用到adj_factor这个函数,输入参数与daily函数一样,输出为股票代码、交易日期、复权因子等,代码如下:
程序运行截图:
获取股票停复牌信息,主要用到suspend这个函数,输入参数ts_code股票代码、suspend_date停牌日期、resume_date复牌日期,输出为股票代码、公告日期、停牌原因等,代码如下:
程序运行截图如下:
获取股票每日指标信息,主要用到daily_basic函数,输入参数与daily函数类似,输出为当日收盘价、换手率、市盈率、市销率、总股本、总市值、流通市值等,代码如下:
程序运行截图:
目前,就介绍这几个吧,更多示例,可以看tushare官网给出的教程,非常详细,地址,我这里就不详细做介绍了,老版的tushare接口,官方不再维护了,有些还能使用,有些不能正常使用,而且不稳定,建议还是使用新的接口能更好些,至于后期的数据保存,官网也有详细介绍,像存储到csv,excel,mysql等,感兴趣的可以看看,希望以上分享的内容能对你有所帮助吧。

怎么用python实现一个页面的开发?

谢邀,去年春节期间,没事报了一个python web开发的网络课程,根据自己的学习情况来回答一下。
一个页面的开发,应该是分前端和后端的。
关于后端在python中有两个最常见的开发框架:Django,flask。
Django大而全,什么功能模块都已经封装好了,调用即可;flask小而精,没有很高的封装,但是有许多功能模块,需要我们自己去集成。
当初学习的那个网络课程是用flask框架来做的,上手很简单:
当初学习的时候能写一个小的网站,本来想转行做python后端开发的,但是后来还是接着做数据挖掘了,许久不用,倒是有点生疏了。总得来说,有几大模块:
路由
route() 装饰器把一个函数绑定到对应的 URL 上,Flask 的 URL 规则基于 Werkzeug 的路由模块。这个模块背后的思想是基于 Apache 以及更早的 HTTP 服务器主张的先例,保证优雅且唯一的 URL。
模板渲染 Jinja2
用 Python 生成 HTML 十分无趣,而且相当繁琐,因为你必须手动对 HTML 做转义来保证应用的安全。为此,Flask 配备了 Jinja2 模板引擎。当然你也可以使用其他的模板引擎,但是建议你还是使用jinja2模板
请求对象request
你可以使用全局 request 对象访问进入的请求数据。 Flask 处理进入的请求数据并允许你用这个全局对象访问它。如果你工作在多线程环境,Flask 内部保证你总会在当前线程上获取正确的数据。
数据库交互-Flask-SQLAlchemy
通过sqlalchemy对数据库增删改查,使用的是orm模式,不需要写SQL语句。
在数据库中,一个表就是一个python类,一个类的实例就是表中的行。
在开发过程中,会用到一些python的高级应用:装饰器:在权限验证的时候很需要用到
模块的导入:防止循环导入
图像处理:验证码生成
property使用:密码加密时使用
关于前端如果对前端不熟,想做一个小网站练练手,推荐你使用Bootstrap
里面有各种的CSS样式,各种组件,JS插件,还有一些网站实例供你参考,对前端HTML,CSS 不是很熟悉的,可以通过这略微修改快速搭建一个前端页面。
后记:
将来的数据挖掘工作者可能也需要懂网站后端开发,因为以后建模不会一直都是在单机中,可能会集成到网站中,实时数据流入模型,结果展示在网站上。