4008-443757
数据分析
面试数据分析师时一般会问什么问题
发布时间:2019-12-04    信息来源:未知    浏览次数:

  包括规定动作和自选动作两类。目前我所在的组不需要关心数据来源和结构化的问题,有专门的工程师团队写爬虫、做清洗、维护计算集群和数据库。所以主要考察点在于查询和衍生指标的计算方面。SQL查询:JOIN ON、DISTINCT、GROUP BY、ORDER BY等等。从数据库中提取数据是数据分析的第一步。另外我们的数据规模是TB级的,所以还要能使用SQL让集群做一些简单的计算,不然都下载到本地的话运算资源是肯定不够的。可能还会问一些非常基础的问题,比如PRIMARY KEY、int、str、double之类。Excel:数据透视表、VLOOKUP、COUNTIFS、SUMIFS、VAR.P、条件格式等等,可能会涉及到诸如VLOOKUP中的TRUE和FALSE参数有什么区别,VAR.P和VAR.S有什么区别等细节问题。

  根据简历来问,简历上写什么就问什么,会问得比较深入。简历作为敲门砖,撰写也是非常重要的,切不可写的过于夸张和造假,奉劝各位不要作死,毕竟不作死都有可能会死。Python、Stata、R、SPSS、SAS、EViews都算比较常见的数据分析工具。比如简历上写“精通Python”,虽然hr知道简历注水是常态,但既然都“精通”了,那问到pandas,regular expression,DataFrame.iterrows()返回的是Series还是dictionary还是listoftuples,tuple和list的区别的时候好歹都得答出来吧……

  虽然一个业务看似流程简单清晰,但产生数据的复杂程度往往超过大多数人的想象。对业务逻辑的考察主要通过相关项目经历。如果是典型的学校项目,我会比较关心指标设计选取、代理变量选择、误差分析、因果性解释等。这里小编告诫大家一句,写在简历上的项目经历起码自己要非常熟悉,对答如流。以我家hr为例,每天接触的是700多张表,每张表的字段往往超过200个。这些表和字段往往还有关联。面对这么多业务指标,能否迅速理解它们之间的联系 面对新的数据需求,能否逻辑清晰地将它拆分成指标、二级指标并进行各种计算 面对复杂的局部最优化和全局最优化需求,能否“抓大放小”,能否迅速找到关键控制点、关键影响因素并加以优化思维不敏捷,逻辑不清晰的话,是很难做好这份工作的。

  毕竟最终产出是一份份报告,可能是HTML邮件也能是PDF。文章结构还是很重要的。这里不展开说了,不过关键的几点是先说结论,先写摘要。

  主要是基础的统计学理论,如方差、协方差、算数平均数、几何平均数、中位数、众数、分位值、双峰数据、长尾数据、假设检验、期望迭代法则、贝叶斯原理等。

  根据简历来问,简历上写什么hr一定会问什么。第三次奉劝各位不要作死,写的检验也好机器学习算法也好好歹自己要知道原理、适用条件、局限性。不然跟你聊起Pearson distance、K-means cluster的随机性问题的时候你接不上来也是很尴尬的。

  作为数据分析师,每天要关注大量数据指标。对细节的敏感度是非常必要的。这主要分为两方面,对统计口径的敏感度和对数据的敏感度。

  统计口径一致是确保数据可比性的基础,这非常考验数据分析师的敏感度和行业经验。比如转化率,是点击算转化还是注册算转化还是购买算转化?配送时间,是从用户下单开始计时还是从订单确认开始计时还是从商品出库开始计时?客单价包不包括配送费、打包费、代金券形式的折扣优惠?

  面试者对数据异常波动、离群值、平均数没有代表意义等情况的迅速识别能力。比如已知然寿司套餐单价1,500,酒水单价300,平均客单价2,500,能不能马上想到这可能是双峰数据或者长尾数据,抑或既双峰又长尾的数据?

  互联网行业瞬息万变,光数据的存储就有Oracle、MySQL、Hadoop、Spark、Hive、Impala、等一大堆奇奇怪怪的东西。互联网行业的从业者经常要面对新需求、新工具、新方法。能否迅速掌握新知识,解决新问题面试者必须证明给hr看。主要考察的方式是了解过往项目经历,或者出作业题(比如Sci-Hub)。

  数据分析报告必须简洁、清晰、重点突出。主要考察方式是出作业题让面试者限时交一份slides(就是PPT啦)出来。能掌握标准的Microsoft DesignLanguage是大大的加分项。

  面试也是一门学历,失败的面试经历未必是坏事,积累面试经验是一种进步,祝各位找工作的数据分析师们的求职成功!

分享到:
您使用的浏览器版本过低,不仅存在较多的安全漏洞,也无法完美支持最新的web技术和标准,请更新高版本浏览器!!