
工作职责:
-直接为人工智能相关项目提供数据与技术支持,打造面向海量数据,每日传输P级数据量
的分布式传输服务。
-面向实时计算需求,提供低延时高可用的实时数据流传输引擎。
-结合spark生态,打造传输 计算的实时化产品服务,提供秒级延迟的数据实时分析能力。
-加入大数据平台,打造业界一流的分布式日志服务。
职责要求:
-具有大数据开发经验,了解分布式传输系统的基本原理,有spark, kafka, scribe, flu
me, chukwa, datax, sqoop一个或者多个系统经验者优先
-熟练使用C 、Java、Python中至少一门语言;熟练使用基础数据结构和算法;熟悉网络
编程、多线程编程技术
-善于学习新知识,乐于挑战新高度;脚踏实地做事情,一点一滴靠耕耘;
期望实时地点在北京,实时时间每周不低于3个工作日,连续实习时长大于3个月,实习达
标发校招offer
请发送邮箱:pengxiangyu@baidu.com
正在阅读:
2017北京百度大数据部招聘实习生05-28
有你真的很幸福作文600字11-09
小学生五年级汉字真有趣作文300字07-01
我想当一回爸爸作文500字11-03
2019年送好朋友的春节祝福语摘抄09-26
研学之行作文400字05-10
山东临沂2017成人高考报名时间02-06
万圣节经典祝福句子精选02-13
2017年计算机二级C++实例编程:打造Windows信使服务程序10-02
如何保护海洋的初中英语作文10-12
小学教师求职工作简历08-05