大数据工程工程技术人员工作任务职责取决于工作在数据流的哪一个环节。从数据上游到数据下游,大致工作内容就是使用工具组件(Spark、Flume、Kafka等)或者代码(Java、Scala等)来实现数据采集-数据清洗-数据存储-数据分析统计-数据可视化等几个方面的功能。
1、数据采集:
数据采集是指从传感器和智能设备、企业在线系统、企业离线系统、社交网络和互联网平台等获取数据的过程。数据包括RFID数据、传感器数据、用户行为数据、社交网络交互数据及移动互联网数据等各种类型的结构化、半结构化及非结构化的海量数据。
2、数据清洗:
一些字段可能会有异常取值,即脏数据。为了保证数据下游的"数据分析统计"能拿到比较高质量的数据,需要对这些记录进行过滤或者字段数据回填;一些日志的字段信息可能是多余的,下游不需要使用到这些字段做分析,同时也为了节省存储开销,需要删除这些多余的字段信息;.一些日志的字段信息可能包含用户敏感信息,需要做脱敏处理。
3、数据存储:
清洗后的数据可以落地入到数据仓库(Hive),供下游做离线分析。如果下游的"数据分析统计"对实时性要求比较高,则可以把日志记录入到kafka。
4、数据分析统计:
数据分析是数据流的下游,消费来自上游的数据。其实就是从日志记录里头统计出各种各样的报表数据,简单的报表统计可以用sql在kylin或者hive统计,复杂的报表就需要在代码层面用Spark、Storm做统计分析。
5、数据可视化:
用数据表格、数据图等直观的形式展示上游"数据分析统计"的数据。
大数据的就业范围广,可以选择岗位很多。
如:大数据发展工程师,操作工程师、大数据架构师、工程师、BI工程师、数据挖掘工程师、ETL开发工程师、Spark开发工程师等等。
虽然大数据的就业前景很好,但掌握大数据开发技术也是前提。否则,不管这个行业发展得多好,有多少工作机会,都和你没有关系。