您当前的位置: 首页 > 职位列表 > 职位详情

大数据开发工程师

1.8-2.1万元/月
投递简历
广东-深圳-福田区
5-10年 非外包类 要求数据开发经验 实时数仓开发经验 · 计算机相关专业 大数据引擎开发经验 Java · Python · Shell Spark · Hive · Flink · HBase · Kafka 银行经验
2025-12-18 15:51:12 更新 被浏览:132 次
北京汉克时代科技有限公司
最近在线时间:2025-12-18 15:51:12
电话:133********
地址:北京市海淀区西北旺东路10号院东区10号楼3层101
职位描述

基本要求
负责基于Hadoop、Spark、Flink等技术的金融级数据平台的规划、建设和持续迭代。
主导数据仓库、数据湖/湖仓一体等数据体系的设计与实施,包括ODS、DWD、DWS、ADS等数据分层建模,并熟悉Iceberg、Hudi等表格式。
负责数据采集、集成、清洗、加工的全链路开发,确保数据的准确性、完整性和时效性。
实时与离线计算
精通SparkStreaming/StructuredStreaming、Flink等实时计算框架,构建低延迟、高可用的实时数据处理管道。
优化HiveonTez/Spark、Impala等离线数据处理作业,保障大规模数据计算任务的效率和稳定性。
熟练运用Kafka、Flume等组件,解决数据接入与集成问题。
性能优化与治理
持续对Hive/Spark作业进行性能调优,具备解决数据倾斜、GC(垃圾回收)问题、SQL优化等复杂技术难题的能力。
业务赋能与协作
深入理解金融业务(如风控、交易、资产、营销等),能将业务需求转化为清晰的技术方案和数据模型。
与业务部门、数据分析师紧密协作,提供高质量的数据支持和服务。


必备条件
-学历与经验:统招本科及以上学历,计算机相关专业,7年及以上大数据开发经验,至少3年银行业(背景。
-技术栈:精通Hadoop(HDFS/YARN)、Hive(尤其熟悉HiveonTez)、Spark、Kafka、Flink。熟练使用Impala,Hue等Cloudera数据平台组件。
-数据架构:深刻理解数据仓库建模理论(如维度建模),具备大型数仓或指标体系建设经验。有数据湖/湖仓一体项目经验者更佳。
-编程能力:熟练掌握Python和Shell脚本编程,能够进行自动化脚本开发和任务调度。


优先考虑
-具备Hive/Spark作业性能调优实战经验,能独立解决数据倾斜等疑难杂症。
-拥有SparkStreaming/StructuredStreaming或Flink实时计算项目经验。
-熟悉HBase,impala,Sqoop等Hadoop生态其他组件,了解Kerberos、Ranger等安全认证与权限管理机制。

求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。
该公司的其他职位
技术经理(金融多地点)
1.8-2.4万元/月
北京-石景山区
2025-12-25 06:56:40
投递简历
java技术支撑
1-1.4万元/月
浙江-杭州
2025-12-25 06:56:29
投递简历
重庆前端开发
1-1.1万元/月
重庆-渝北区
2025-12-25 06:56:29
投递简历
杭州急招技术支持
1-1.4万元/月
浙江-杭州
2025-12-25 06:56:28
投递简历
游戏测试员
1.3-1.8万元/月
广东-广州
2025-12-25 06:56:28
投递简历
大数据运维(会粤语优先)
1.8-2.1万元/月
广东-深圳
2025-12-17 16:06:26
投递简历
Java开发(会粤语优先)
1.6-1.8万元/月
广东-深圳
2025-12-17 16:04:55
投递简历
深圳福田区急聘数据开发
1.5-1.8万元/月
广东-深圳
2025-12-17 15:57:42
投递简历
您可能感兴趣的职位 搜索更多相似职位 >
推荐企业 职位专题
北京汉克时代科技有限公司
公司主页 >
微信求职找工作
手机扫一扫
手机扫一扫
随时随地找工作

海量高薪岗位在线免费直招 招聘者/求职者电话直聊

微信小程序
手机也能找工作