Conteúdo | |
---|---|
08:00 às 09:00 |
Credenciamento e recepção dos participantes
Todas as pessoas inscritas, palestrantes, coordenadores e de imprensa, devem retirar seus crachás e kit do congressista nos balcões de credenciamento localizados na entrada do evento, para obterem acesso às salas e Auditório Principal. |
09:00 às 10:00 |
Abertura do evento no Auditório Principal
Após o credenciamento, convidamos os participantes a comparecerem ao auditório para receberem as boas vindas por parte dos realizadores e patrocinadores. Neste keynote de abertura, todos serão orientados sobre o funcionamento do evento, destaques e outras novidades. |
10:10 às 11:00 |
Apache Flink a Quarta Geração do Big Data
Marcio Junior Vieira Será apresentada uma visão geral do Apache Flink e suas características , assim como uma comparação com apache Spark e Map Reduce e como montar um cluster com Flink. |
11:10 às 12:00 |
A construção de um datalake e um datawarehouse - Acertos, erros e lições aprendidas, direto das trincheiras
Tiago de Freitas Lima / Renato Sardinha Dados relevantes podem vir de qualquer lugar e qualquer aplicação. Esse cenário traz alguns desafios: como analisar todas essas informações, de maneira que façam sentido juntas? Como padronizar o formato, sem adicionar complexidade? Como disponibilizar dados em um modelo consistente e útil para análise/exploração por engenheiros e áreas de negócio? Quais ferramentas podemos utilizar? Nesta palestra, apresentaremos os desafios e lições aprendidas na construção de um datalake e um datawarehouse. Nosso modelo de coleta de dados e processamento de grandes volumes, como garantimos consistência de dados entre eventos e como armazenamos as informações para análise exploratória. |
12:10 às 13:00 |
Processando dados de acidentes de trânsito em streaming com PySpark
Isadora Barros Processar dados em streaming, ou, em bom português, processar dados que chegam num fluxo contínuo, muitas vezes demanda uma ação imediata sobre os dados que traga resultados em tempo real. Essa palestra vai utilizar a API Python do Spark, o PySpark, para mostrar a construção de uma aplicação simples que recebe dados de acidentes de trânsito ocorridos em Recife e realiza seu processamento em tempo real, mostrando como fazer isso mirando a resiliência e robustez da aplicação. Igor Coutinho / Priscilla Lusie Nos últimos anos a convergência de plataformas digitais se tornou realidade. Além disso, com disponibilidade massiva de conteúdo, torna-se obrigatório oferecer sempre o conteúdo mais relevante. Este trabalho demonstra um método que introduz a dinamicidade de comentários das redes sociais em algoritmos de recomendação de vídeo usando técnicas de Motores de Busca e Processamento de Linguagem Natural. Essa abordagem foi criada e desenvolvida na TV Globo na área de Pesquisa e Desenvolvimento e aplicada na plataforma do GloboPlay, no início de 2017. O resultado da recomendação tem se provado muito acurado e o trilho de vídeos recomendados está constantemente entre os mais acessados do aplicativo. |
13:10 às 14:00 |
Intervalo para Almoço
Uma excelente oportunidade de todas as pessoas no evento
interagirem e trocarem ideias, colaboradores, empresas
patrocinadoras e apoiadoras, palestrantes e coordenadores.
|
14:10 às 15:00 |
Big Data Governance - Como estabelecer uma Governança de Dados em Big Data
Bergson Lopes Para ter sucesso em sua adoção o BIG DATA não deve ser encarado somente dentro de um viés tecnológico. Pessoas e Processos também são fundamentais para alcançar os objetivos de uma iniciativa analítica. Para isto, é fundamental estabelecer uma Governança sobre os dados, a fim de garantir qualidade, disponibilidade, privacidade e alinhamento com a estratégia corporativa. |
15:10 às 16:00 |
Experimentação na OLX Brasil: Desafios na construção de uma plataforma de teste A/B em grande escala.
VITOR VINICIUS DA SILVA CASSIANO / Felipe Leite Há um anos atrás a OLX Brasil começou a construir sua própria plataforma de experimentação para facilitar o processo de validação de mudanças no produto. Nesta palestra mostraremos o que motivou e como foi o processo de criação e evolução da plataforma de experimentação, mostrando alguns dos maiores desafios técnicos e culturais para a segmentação, tracking e análise dos dados e as soluções encontradas para dar a escala e agilidade necessárias à OLX |
16:00 às 16:30 |
Coffee-break e Networking
Durante o intervalo de coffee-break, serão entregues kits contendo suco e biscoitos. Um delicioso intervalo para relaxar, conhecer novas pessoas e estreitar contatos. Neste tempo, também surge a oportunidade de todas as pessoas no evento interagirem entre sí, participantes das trilhas, empresas patrocinadoras e apoiadoras, palestrantes e coordenadores. |
16:40 às 17:30 |
Arquitetura Flafka: Ingestão de dados de forma robusta e flexível
Enrique Sampaio dos Santos A palestra apresenta uma arquitetura capaz de processar dados em near real-time de forma robusta e confiável através da combinação Apache Flume + Apache Kafka, que permite criar um pipeline de ingestão de dados completo apenas realizando as devidas configurações e combiná-las de diversas formas de acordo com a necessidade do usuário. Durante a apresentação serão exibidos alguns exemplos de aplicações, assim como as formas nas quais essas duas tecnologias podem ser combinadas no pipeline para satisfazer tais casos. |
17:40 às 18:30 |
7 passos para DataOps
Rafael Barbosa Vivemos na era do Big Data, mas você já entende quais os controles que fazem tudo isso possivel e escalável? Venha ver quais são os passos que permitem você e sua empresa a ficarem sempre a frente da evolução garantindo bons resultados. E ainda por cima tem uma demo live no final. Thaisa Mirely Barbosa da Silva Com o passar do tempo as ferramentas, técnicas, carga de dados e requisitos não funcionais, vem mudando no mundo de processamento em larga escala. Precisamos garantir além de tudo a resiliência a perda de dados e resiliência no processamento. O objetivo dessa conversa é compartilhar um pouco da vivência de projeto(aprendizados técnicos e não técnicos) sobre o que foi considerado para garantir o suporte de processamento de dados em streaming em um curto período de implementação, em um pipeline que anteriormente realizava apenas processamento em batch. |
18:40 às 19:00 |
Encerramento e Sorteios
No horário de encerramento, todas as trilhas serão direcionadas de suas salas para o Auditório Principal, mesmo local da abertura. Após a apresentação de resultados do dia muitos sorteios fecharão o dia. |
Quinta-feira, 19 de Julho de 2018
10 às 19h
Rua Casa do Ator, 275
Vila Olímpia | São Paulo - SP
DBAs, Cientistas de Dados, entusiasmados pela área de dados, pessoas que trabalhem com big data ou inteligência artificial.
presencial:R$ 265,00
Fazendo sua inscrição presencial, você terá acesso a esta
trilha e no mesmo dia também:
TDC Expo: Venha conversar com pessoas e conhecer empresas incríveis.
Trilha Stadium: Você poderá assistir às palestras da trilha Stadium do mesmo dia.