A ciência de dados tem se mostrado uma abordagem alternativa aos negócios, onde a lógica pode superar a criatividade e os fatos superam as crenças. Esta trilha vai mostrar como grandes empresas do Brasil e do mundo tem melhorado seus indicadores, dando um propósito aos dados que coletam, analisam e compreendem, possibilitando, em alguns casos, automatizar tarefas com machine learning.
Track: Data Science Aplicada
Sala: 3 Pequim
Dia da semana: Quarta-feira

Track Host: Everton Gago
Everton é Head of Data Science na Dextra, tem doutorado em Engenharia Elétrica na Unicamp e pesquisa algoritmos matemáticos que reproduzem de forma artificial aspectos biológicos de auto-organização.
10:50am - 11:35am
Machine Learning - Abrindo a Caixa de Pandora
Introduzir Machine Learning em um produto é como abrir uma Caixa de Pandora - revela importantes problemas nos dados, métricas, experiência do usuário e integração entre sistemas. Para enfrentar esta complexidade, são necessárias práticas pragmáticas para se obter resultados confiáveis.
Nesta palestra, serão abordados aprendizados obtidos ao introduzir Machine Learning em diferentes contextos, desde academia, start-ups, consultoria, a gigantes de tecnologia - incluindo práticas de instrumentação, experimentação, infraestrutura, planejamento, avaliação de performance e visão de produto no contexto de aplicações usando Machine Learning.
11:50am - 12:35pm
Os Desafios na Construção de Agentes Virtuais com Inteligência Artificial
Agentes Virtuais são sistemas autônomos capazes de interagir com outros sistemas e com humanos. Os agentes virtuais têm sido utilizados com o objetivo de interagirem com pessoas na busca de resolução de problemas, esclarecimento de dúvidas, vendas de produtos ou serviços e cobrança. Existem muitos desafios na construção de agentes virtuais, dentre eles podemos destacar a dificuldade em criar agentes cada vez mais humanizados. Nessa palestra vamos falar sobre a aplicação de inteligência artificial em agentes virtuais e o que é possível fazer com as tecnologias atuais. Ao final da palestra vamos apresentar alguns cases de sucesso e os principais desafios enfrentados durante todo o processo.
2:05pm - 2:50pm
Bayesian Optimization of Gaussian Processes with Applications to Performance Tuning
In 1951, Daniel Krige, a mining engineer in South Africa, invented a statistical technique for finding minerals with the fewest holes drilled for prospecting. Since drilling and sample analysis is expensive, he wanted to find the place where most minerals existed with minimal drilling and analysis effort. Over the years this method has been refined, most notably by Matheron, Mockus and Jones, with more modern statistical techniques. Today, Bayesian Optimization of Gaussian Processes is used in many engineering disciplines to efficiently explore vast design spaces. It is also used for hyperparameter optimization of neural networks.
After a brief description of the technique, we show how it can be applied to a modern microservices architecture to optimize its performance. We motivate why this is an important but difficult problem, and why Bayesian Optimization is well-suited to solving this problem. We describe our implementation of a service, called Autotune, for this purpose, what issues we had to address when applying this technique, and how it will be used at Twitter to continuously optimize performance in the data-center. Some recent wins from Autotune will be highlighted.
No prior background in Bayesian Optimization, Gaussian Processes, Statistics, or Performance Tuning is needed to attend this presentation.
3:05pm - 3:50pm
Corrida do ouro moderna: como usar Deep Learning para prever o volume de vendas de mais de 100 mil lojas
O Shopify abriga mais de 800 mil lojas no mundo todo. O Shopify Capital tem como objetivo financiar estas lojas para ajudá-las a crescerem. Com nosso grande volume de dados, é possível oferecer financiamentos relevantes, considerando vários atributos que ajudam a predizer o quão boa será a performance das lojas, permitindo assim que sejam oferecidos montantes acessíveis e coerentes com a saúde do negócio.
Nesta palestra, apresentaremos os desafios enfrentados ao longo dessa jornada, acompanhados de informações técnicas de como exploramos, selecionamos e fazemos ajuste-fino dos modelos fim-a-fim: desde um modelo de gradient boosting trees totalmente isolado operacionalmente, até um modelo de deep learning com atenção desacoplado mandando predições por streaming de dados. Mergulharemos ainda nas técnicas de modelagem, organização, arquitetura e otimização de modelos focados em solucionar problemas de negócio.
4:05pm - 4:50pm
Quando robôs surgem na redação
Grandes corporações de notícias estão sendo pressionadas a fornecer conteúdo que tenha valor para seus leitores em um mercado cada vez mais competitivo. No entanto, os jornalistas temem que seus empregos tornem-se obsoletos com o advento da IA. Seria a redação do futuro comandado por robôs? Trabalhando junto com jornalistas, descobrimos que na verdade a convivência tende a ser pacífica. Muitos deles ficariam felizes em deixar a maior parte do processamento estatístico e da narrativa orientada a dados para os robôs, enquanto se concentram em adicionar criatividade e percepção humana às histórias.
Neste trabalho, mostraremos como alcançamos fluxos de trabalho mais eficientes usando técnicas de Automated Journalism na Globo por meio de dois projetos. O primeiro chama-se Numerólogos e automatiza o trabalho de criar uma matéria com os principais destaques da rodada do Brasileirão a partir de eventos de cada partida. O sistema funciona com um pipeline simplificado de NLG (Natural Language Generation) e uma ontologia de um campeonato de futebol. Na fase de planejamento, eventos são agrupados e sequenciados de acordo com um modelo de otimização. Na fase de realização, o sistema seleciona templates de forma inteligente para descrever os eventos naturalmente com uma busca Branch-and-Bound. A matéria final é revisada e publicada em um blog com 800 mil visualizações anuais.
O outro projeto, chamado Aida, foi usado para criar resumos dos resultados das pesquisas durante as Eleições Presidenciais de 2018. O sistema calcula precisamente a evolução dos candidatos e empates entre eles e gera o texto para ser lido em telejornais automaticamente. Nossas estimativas mostram que o projeto poderia economizar até 370 horas de trabalho por ano eleitoral. Através deste projeto, estamos desenvolvendo uma linguagem de templates para que os desenvolvedores possam usar em seus projetos.
5:20pm - 6:05pm
Painel: Ask Me Anything about Data Science
Gerar resultados com Ciência de Dados requer a aplicação de um conjunto de habilidades complementares, como Engenharia de Dados, Visualização Aprendizado de Máquina e Engenharia de Software.
Durante os 3 dias da conferência, as trilhas de Machine Learning, Engenharia de Dados e Data Science Aplicada trouxeram pessoas que aplicam estas habilidades no seu dia-a-dia.
Esta sessão é uma oportunidade para você, que ficou curioso por algum aspecto das palestras ( ou da área de Ciência de Dados no geral ) conversar diretamente com alguns dos palestrantes, fazendo perguntas que podem enriquecer ainda mais a troca de conhecimento promovida pela conferência.
Convidamos um painel representativo das principais empresas do mercado, com palestrantes do Brasil e do exterior para tirar suas dúvidas em tempo real.
Thierry Silbermann, Senior Data Scientist at Nubank
Chakri Cherukuri, Senior Quantitative Researcher at Bloomberg LP
Dhiana Deva, Machine Learning Engineer at Spotify
Eric Wayman, Senior Data Scientist at Salesforce
Tracks 2019
Segunda-feira, 6 de maio
-
Microservices: Melhores Práticas e Padrões
Frameworks modernos e os desafios de implantação, gestão e pós-produção.
-
Armazenamento e Processamento de Big Data
As últimas tendências, arquiteturas e ferramentas para armazenar e processar o seu Big Data.
-
Java e JVM: Inovações no Ecossistema e Linguagem
Performance, maturidade e novidades da principal plataforma de desenvolvimento no Brasil e no mundo.
-
Front-end Moderno
Conheça as tendências e ecossistema da web moderna.
-
Solutions Track
Conheça soluções, ferramentas e técnicas de empresas parceiras do QCon São Paulo.
Terça-feira, 7 de maio
-
Arquiteturas que Você Sempre Quis Conhecer
Segredos arquiteturais de aplicações populares, com milhões de pessoas usuárias e que nunca saem do ar.
-
Machine Learning e Inteligência Artificial
Algoritmos, técnicas e ferramentas: o que está por trás de sistemas e soluções cada vez mais assertivas.
-
Construindo Culturas de Desenvolvimento Duradouras
Criando e evoluindo a cultura de empresas: novas formas de organizar times com foco em produtividade.
-
Ciência da Computação no Mundo Real
Temas avançados em computação. Técnicas clássicas e modernas direto da academia para o seu código.
-
Solutions Track
Conheça soluções, ferramentas e técnicas de empresas parceiras do QCon São Paulo.
Quarta-feira, 8 de maio
-
Arquiteturas de Vanguarda
Conheça as técnicas e tecnologias modernas que dominarão as arquiteturas em 2020.
-
Data Science Aplicada
Tecnologias e as boas práticas da ciência de dados trazendo ganho e diferencial competitivo para grandes empresas.
-
Atingindo Todo o Potencial de Containers
Técnicas modernas de DevOps, Containers e Continuous Delivery para explorar o potencial da conteinerização de aplicações.
-
Linguagens do Século 21
Linguagens e plataformas emergentes, com ênfase em linguagens projetadas para alta concorrência e sistemas distribuídos.
-
Levando Sua Carreira Para o Próximo Nível
Habilidades e estratégias para destravar sua carreira e potencializar seu desenvolvimento profissional.
-
Solutions Track
Conheça soluções, ferramentas e técnicas de empresas parceiras do QCon São Paulo.