工作职责:
-直接为人工智能相关项目提供数据与技术支持,打造面向海量数据,每日传输P级数据量
的分布式传输服务。
-面向实时计算需求,提供低延时高可用的实时数据流传输引擎。
-结合spark生态,打造传输 计算的实时化产品服务,提供秒级延迟的数据实时分析能力。
-加入大数据平台,打造业界一流的分布式日志服务。
职责要求:
-具有大数据开发经验,了解分布式传输系统的基本原理,有spark, kafka, scribe, flu
me, chukwa, datax, sqoop一个或者多个系统经验者优先
-熟练使用C 、Java、Python中至少一门语言;熟练使用基础数据结构和算法;熟悉网络
编程、多线程编程技术
-善于学习新知识,乐于挑战新高度;脚踏实地做事情,一点一滴靠耕耘;
期望实时地点在北京,实时时间每周不低于3个工作日,连续实习时长大于3个月,实习达
标发校招offer
请发送邮箱:pengxiangyu@baidu.com