招聘人数:1-3人
到岗时间:不限
年龄要求:不限
性别要求:不限
婚况要求:不限
岗位职责:1、计算机及其相关专业,本科及以上学历。两年以上大规模分布式程序开发的项目经验;2、熟悉Hadoop/Spark生态系统组件的使用,至少有1年的Spark(Core/Streaming/SQL)开发经验3、熟悉Scala/Java语言,对Scala/Java原理、底层技术有深入研究者优先4、有优良的Trouble Shooting能力,对新技术有孜孜不倦的热情,具有良好的学习能力、团队协作能力和沟通能力5、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
岗位职责:1、负责基于Spark技术的海量数据的处理、分析、统计、挖掘工作2、能够独立发现和解决现存在的技术瓶颈及相关问题;
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。