Track: Armazenamento e Processamento de Big Data

Sala: Sala 02

Dia da semana: Segunda-feira

A Engenharia de Dados é uma disciplina que ganha relevância em um mundo onde as decisões baseadas em dados e inteligência artificial são cada vez mais frequentes. À medida que a quantidade de dados aumenta, novas técnicas e ferramentas para armazenamento e processamento surgem para resolver problemas típicos dessa nova era. A Engenharia de Dados traz mecanismos de armazenamento de dados especializados (baseados em grafos, otimizados para consultas, filas distribuídas, etc), ferramentas para processamento de streams (Spark, Beam, Flink, etc) e arquiteturas de dados que usam todas estas ferramentas para criar soluções escaláveis.

Esta trilha irá explorar quais são as tendências nessa área, quais são as tecnologias emergentes e como algumas das empresas mais avançadas em Engenharia de Dados estão resolvendo seus problemas.

Track Host: Fabiane Nardon

Chief Scientist na Tail

Fabiane Bizinella Nardon é mestre em Ciência da Computação pela UFRGS e Doutora em Engenharia Elétrica pela USP. Liderou e lidera várias comunidades, incluindo a JavaTools Community no java.net, onde nasceram mais de 800 projetos open source. Palestrante frequente em conferências no Brasil e exterior, foi autora de diversos artigos técnicos e membro dos comitês de programa de conferências como JavaOne, OSCON, TDC, QConSP. Foi escolhida Java Champion pela Sun Microsystem, como reconhecimento de sua contribuição para o ecosistema Java. Atualmente é Chief Data Scientist da Tail, empresa que produz soluções baseadas em Data Science para o mercado publicitário e que ganhou o Duke’s Choice Award 2015.

10:50am - 11:35am

Acelerando a construção de Data Pipelines em Apache Spark: segredos arquiteturais para hackers de engenharia de dados

A resolução de problemas de Data Science tipicamente passa pela construção de Data Pipelines que agregam diversas operações sobre uma ou mais fontes de dados. Em escala de Big Data, estes pipelines são tipicamente executados utilizando processamento distribuído em ferramentas como o Apache Spark.
A construção de um Data Pipeline, no entanto, é muitas vezes trabalhosa e pouco produtiva porque, em geral, um pipeline precisa passar por uma fase de experimentação, onde são prototipados em ferramentas interativas como Spark Shell ou Notebooks. Estes experimentos dependem da construção de uma base de dados amostral que é difícil de versionar e compartilhar durante o desenvolvimento., Quando a experimentação do Pipeline é concluída, ele ainda precisa ser finalmente codificado para execução em produção, onde os volumes de dados serão diferentes e ele será executado de forma agendada e não interativa.
Nesta palestra serão discutidos segredos arquiteturais para permitir acelerar a construção de Data Pipelines em Apache Spark em larga escala, mostrando como eliminar o gap entre experimentação e produção; como resolver problemas de segurança no acesso a dados e como escalar a execução de Pipelines. Também será apresentado como utilizar um sistema baseado em plugins com o Spark SQL para aumentar a produtividade; como projetar Data Lakes para utilização com Data Pipelines; como guardar históricos da execução dos Pipelines para análise e detecção de anomalias, além de diversas outras técnicas.

Fabiane Nardon, Chief Scientist na Tail

11:50am - 12:35pm

Automating Machine Learning and Deep Learning Workflows

Machine Learning services are quickly becoming a big part of the software developer’s toolbox, in any domain. Databases or web development frameworks are a standard component of almost any non-trivial application, they integrate with not much special expertise. We expect to see similar layers for Machine Learning and Deep Learning in the near future with the same maturity.
Machine learning workflows are most of the time iterative, and typically involve several steps, i.g. creation of many intermediate datasets, modeling, evaluations, predictions, and deployment. These workflows tend to be repetitive and in some cases manual. In this presentation I will cover some of these workflows and how to automate them with the help of Polyaxon, an open source platform built on Kubenernetes to make machine learning, reproducible, scalable, and portable. We will be covering different workflows, from basic ones that automate repetitive tasks (e.g., create a dataset, post-process it, do augmentation, and finally model the result and make predictions) to sophisticated algorithms that enhance our machine learning arsenal (e.g., feature selection or hyperparameter optimization techniques).

Mourad Mourafiq, Author / Founder at Polyaxon

5:20pm - 6:05pm

Demystifying the AutoML Black Box: Monitoring and developing an Automated Machine Learning Pipeline at Scale

The Einstein Prediction Builder modeling pipeline automates all steps of the end-to-end modeling process, from data auditing and feature engineering to model selection, for thousands of models. Although powerful, automated machine learning pipelines are inherently a black box that can be notoriously difficult to troubleshoot. This talk walks through a Data Science perspective of using monitoring and alerting, well-established practices in traditional engineering, to develop our modeling pipeline. We will discuss how we track data and modeling metrics at each stage in the pipeline to identify data and modeling issues and to raise alerts for issues affecting models running production. Furthermore, we will cover how this metrics framework is instrumental in helping to develop new features in a data-driven manner.

Eric Wayman, Senior Data Scientist at Salesforce

Tracks

Segunda-feira, 6 de maio

Terça-feira, 7 de maio

Quarta-feira, 8 de maio