10:50am - 11:35am
It’s now possible to automate the development of software with deep learning (gradient-based learning of non-linear functions). In areas such as image classification, speech recognition, and self-driving, Deep Learning already generates the majority of the new software. Now it is also starting to make early progress in replacing traditional software, turning design mockups and project descriptions into code. In this presentation I'll cover the state of the art in software development automation, it's current weaknesses, and areas that are ready for production.
11:50am - 12:35pm
Machine Learning is impacting a lot of aspect of society and people often forget how their choices are impacting the lives of people on the other end of the prediction. Today, more and more tools are available to help data scientists do their jobs.
In this talk, we will explore some examples where machine learning fails and/or is making a negative impact. We will look at some of the tools available today to try checking if the model we create are discriminatory. Being fair shouldn’t mean losing value, on the contrary.
2:05pm - 2:50pm
Deep Learning é uma técnica de Aprendizado de Máquina baseada na aplicação de redes neurais. Com o advento da Redes Neurais Convolucionais (CNN), Deep Learning tem sido aplicada com sucesso em diferentes domínios para resolver problemas de Visão Computacional. Na Medicina em particular vem sendo cada vez mais utilizada, devido aos benefícios que a técnica pode trazer, como: aumentar a quantidade de exames avaliados, indicando possíveis doenças, em lugares com poucos médicos disponíveis; acelerar e melhorar a acurácia do diagnóstico.
Faremos um passo a passo de como construir uma CNN usando Keras e TensorFlow, aplicando num problema para detectar a orientação (frente ou lateral) de um raio-x, informação nem sempre disponível nos datasets. Utilizaremos um Jupyter notebook para apresentar o pipeline de criação e treinamento de uma rede, desde o pré-processamento da imagem até a avaliação dos resultados.
3:05pm - 3:50pm
Jupyter Notebooks are becoming the IDE of choice for data scientists and researchers. They provide the users with a nice exploratory environment where they can quickly research and prototype different models and visualize the results all in one place.
With widget libraries like ipywidgets and bqplot, users can now create rich applications, dashboards and tools by just using python code.
In this talk, we will see how we can build advanced data visualization applications and interactive plots in Jupyter notebooks. We'll look at use-cases including time series analysis using interval selectors, visualizations of machine learning models, analysis of equity markets and finally tools for building, training and diagnosing deep learning models.
4:05pm - 4:50pm
Em 2012, um grupo do MIT divulgou a primeira versão da linguagem Julia, motivados por eliminar o trade-off entre produtividade e performance existente nas linguagens voltadas para computação técnica/científica.
Como resultado, a linguagem Julia possui as seguintes características:
- Projeto open-source com licença liberal (MIT License).
- Tipagem dinâmica e de uso interativo como uma linguagem de script.
- Performance comparável à linguagem C.
- Sintaxe simples.
- Seleção de código com base em multiple-dispatch.
- Geração dinâmica de código de máquina com base em compilação Just-In-Time (JIT) e uso de funções genéricas.
- Suporte para metaprogramação com macros similares à linguagem Lisp.
- Suporte para computação distribuída (multi-core/cluster).
Em 2018 a linguagem atingiu a versão 1.0, o que significa que este é o melhor momento para conhecer e começar a aplicar a linguagem em projetos sérios.
O objetivo da palestra é explorar as principais características da linguagem Julia, analisando suas vantagens e desvantagens, de forma a motivar sua utilização em projetos de Data-Science e Big Data.
5:20pm - 6:05pm
Nesta palestra vou apresentar como criar um chatbot generativo utilizando Deep Learning e NLP, com Tensorflow.
Vou utilizar um dataset de falas de filmes e veremos como fazer o pré processamento textual para utilizar uma rede LSTM Dual Encoder. Diferente de um chatbot de recuperação (retrieval), os chatbots generativos não possuem um dataset de respostas prontas e quando recebem uma pergunta, geram a resposta palavra por palavra.
Ao final da palestra veremos adaptações que podem ser feitas para utilizar essa arquitetura com um dataset em português.