
互联网
你既然提到是
互联网公司,那对数据库产品肯定不陌生,应该比较了解SQL吧。若
公司给你提供了一些数据分析库以供使用,你可以考虑将相关数据维护进数据库。由于数据量不大,你也能够在本地安装数据库,像
MySQL和
PostgreSQL数据库就很不错。这两种数据库不存在数据库授权的麻烦,在本地自行安装也较为便捷。我自己就是
公司的业务数据分析师,每个月甚至每周出分析报告是工作中的常事。你说的问题我在工作中也碰到过,工作这一年也积累了些经验。
公司有BI产品,可一线人员不乐意用,
公司领导和主管也不例外,他们平时更习惯邮件交流。因此,
excel版的周报、月报在工作里是很重要的部分。常态化工作的数据可维护到数据库(
公司提供数据计算库,早期是本地维护)。由于周报、月报较多且版式固定,数据库承担大体量计算任务,像月报,常以SQL脚本进行数据的第一阶段聚合,将百万行记录聚合成几百条,使其能被
excel处理。然后把结果作为
excel明细数据,用公式进一步计算统计、排版,再结合调度工具。这样既能集合数据库处理大量数据的能力,又能发挥
excel的灵活优势。对于临时的数据分析任务,我一般会用
Python处理,重点借助EFunction插件工具,发挥将jupyter嵌入
excel的优势,构建起数据库、jupyter notebook、
excel之间的快速数据链路,从而加快分析报告的撰写速度。若数据源为本地的csv格式文件,除用
Python分析数据之外,也能借助EFunction插件工具里的内存库工具,以函数形式统计分析数据,像使用ET_load_csv函数把外部数据导入
excel内存库便是如此。接下来利用ETTable_query函数结合SQL来进行复杂数据的查询与统计,直接把查询结果返回到
excel单元格中,效率十分显著,只要
电脑内存充足,千万行数据也可尝试运行。并且工具预先设置了一些便捷函数,若数据统计工作不太复杂,直接用预设函数就能完成部分简单统计。