【转】用Python写了个金融数据爬虫,半小时干了全组一周的工作量
用Python写了个金融数据爬虫,半小时干了全组一周的工作量
原创kk12345677 最后发布于2019-08-21 16:59:54 阅读数 1652 收藏
展开
最近,越来越多的研究员、基金经理甚至财务会计领域的朋友,向小编咨询:金融人需要学Python么?
事实上在2019年,这已经不是一个问题了。Python已成为国内很多顶级投行、基金、咨询等泛金融、商科领域的必备技能。中金公司、银河证券、南方基金、银华基金在招聘分析师岗位时,纷纷要求熟练掌握Python数据分析技能。
Excel我已经用的很好了,为什么还要学Python?
我们都知道,无论是行业研究员、基金经理还是审计人员,工作的核心基本都是频繁处理大量数据。之前,分析师们依赖的武器就是Excel。但随着数据量的增多和更易用更强大工具的出现,Excel越来越跟不上时代了。
正如小编的一个研究员朋友所说:Excel当然非常强大,并且适合新手入门理解数据。但后期有很大的缺陷。**数据量较大时,Excel处理数据效率低、容易死,往往一等就是半个小时
更重要的是,Excel做复杂的数据处理和计算时,需要手工操作、费时费力,而且**不能复用,下次用还得重新做一遍!,极大浪费了时间。Excel当然也有VBA这样的数据处理工具,但其语言晦涩难懂,身边没有一个人会用。
你能看懂这个公式的意思么,Excel编程晦涩难懂可见一斑
Python正是新一代的数据处理工具,对于每天都需要处理海量数据的分析师,Python简直就是解放生产力的救命稻草。
而且,运用Python强大的网页处理能力进行爬虫,可以为我们的数据研究提供很多便捷。
比如,我们想从中债登官网获取某债券借券存量的数据,然而,这个数在中债登上只能按日查询。如果我们想获取这只债券近一年的数据,必须重复打开中债登网、选券、改日期、点击查询、记录下结果这个操作200多次。
很过机构之前这样的工作都是交给实习生干,但是现在,只需要一个Python爬虫,十几分钟就可以解决这个问题。
不仅分析师们纷纷用上Python,现在大所的审计师在处理大量审计底稿的时候,也会使用Python 实现底稿的批量化自动处理。
审计师在处理底稿时经常面临这样的问题:客户企业不同部门财务软件版本各异,导致会计科目设置及会计处理方式不一致,此时如果用Excel人工修改,则需要耗费大量的时间。而如果用Python批量处理,基本上都是十几分钟的事。
Python强大的绘图功能,让数据导入、分析、出结果、绘图可以一次性在程序里完成,可以直接把分析/回测结果视觉化呈现出来。
正因为如此,现在国内很多金融机构在招聘中已经添加了对Python能力的要求。我们也从各大招聘网站,摘录了一些金融行业核心热门职位的技能要求:
事实上,无论是Python还是量化、大数据、Fintech,这些关键词在过去几年中热度不断提升,网络上各种资源也是层出不穷。
————————————————
版权声明:本文为CSDN博主「kk12345677」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/KK12345677/article/details/99975389