
工作职责:
-直接为人工智能相关项目提供数据与技术支持,打造面向海量数据,每日传输P级数据量
的分布式传输服务。
-面向实时计算需求,提供低延时高可用的实时数据流传输引擎。
-结合spark生态,打造传输 计算的实时化产品服务,提供秒级延迟的数据实时分析能力。
-加入大数据平台,打造业界一流的分布式日志服务。
职责要求:
-具有大数据开发经验,了解分布式传输系统的基本原理,有spark, kafka, scribe, flu
me, chukwa, datax, sqoop一个或者多个系统经验者优先
-熟练使用C 、Java、Python中至少一门语言;熟练使用基础数据结构和算法;熟悉网络
编程、多线程编程技术
-善于学习新知识,乐于挑战新高度;脚踏实地做事情,一点一滴靠耕耘;
期望实时地点在北京,实时时间每周不低于3个工作日,连续实习时长大于3个月,实习达
标发校招offer
请发送邮箱:pengxiangyu@baidu.com
正在阅读:
2017北京百度大数据部招聘实习生05-28
幼儿园托班生活活动教案大全_幼儿园托班生活活动教案五篇04-16
我长大了作文600字06-27
中国地质调查局2023年考试录用国家公务员面试时间:4月9日03-23
2019年重庆南岸中考数学真题及答案B卷(Word版)07-17
2016年江西社会工作师考试成绩查询网站:中国人事考试网02-14
我这个人作文400字06-14
山东临沂2017成人高考报名时间02-06
晒一晒我们班的牛人作文600字05-30
2018天津大港中考英语试题I(已公布)05-25