Big Data & AI - Desenvolvedor(a) de Software Sênior - RJ

Rio de Janeiro Full-time

Procuramos pessoas para trabalhar no time de engenharia de dados da Globo (um dos maiores cases de Big Data do Brasil) que gostem de criar softwares escaláveis e performáticos, altamente resilientes, tolerantes a falhas; Que gostem de trabalhar com grande volumes de acessos e dados e de estudar os dados para extrair deles o maior valor possível para o negócio.

Nesse papel você irá trabalhar junto a um time de engenheiros de software e especialistas em Machine Learning e Data Science criando e evoluindo os sistemas de captura, armazenamento, processamento e visualização de dados usados pelas equipes de produtos para geração de conhecimento e insights para melhoria das ofertas.

Também atuará no desenvolvimento de soluções de dados para uso em diversas áreas de aplicação: experimentação, recomendação de conteúdo, segmentação e profiling de usuários, extração de informação em conteúdo e análises preditivas.

Além disso, nesta posição você terá a oportunidade para trabalhar com as principais ferramentas do ecossistema Hadoop (YARN, HDFS, HBase, Kafka, Zookeeper, Parquet, Spark, Scala, etc).

Pelos nossos produtos passam mais de 85 milhões de usuários únicos e são produzidos centenas de milhares de conteúdos novos todos os meses. Se você gosta de gerar impacto positivo na vida de milhões de usuário essa vaga é pra você!

Conhecimentos específicos necessários

  • Graduação completa em cursos de Exatas (Ciência da Computação, Engenharias, Estatística, Matemática, Física, etc) ou experiência equivalente;
  • Experiência com Python, Scala ou Java;
  • Experiência com Javascript;
  • Experiência sólida em design e arquitetura de software;
  • Conhecimento de bancos de dados (SQL ou NoSQL);
  • Proficiência no uso de um sistema operacional base Unix (Linux ou Mac OS);
  • Domínio das boas práticas de engenharia de software.

Conhecimentos complementares desejáveis

  • Mestrado, e/ou Doutorado em computação, matemática, estatística ou área técnica relevante;
  • Experiência no processamento e análise de grandes bases de dados (Big Data);
  • Experiência com Hadoop;
  • Experiência com Spark, Sklearn ou TensorFlow;
  • Experiência com processamento de stream usando Spark Streaming ou Storm;
  • Experiência com sistemas de mensagens como Kafka ou ActiveMQ;
  • Experiência com Python, Pandas.
  • Experiência em sistemas de recomendação;