Trilha I.A. GENERATIVA

De prompts a produtos: domine a arte e a ciência de gerar o futuro.

O que é uma trilha?

A trilha é um evento híbrido, presencial em São Paulo e remoto na sua casa, que tem a duração de um dia inteiro com sete palestras e um painel de discussão.

Date and Place

Thursday, September 18, 2025

09h às 19h

ProMagno
Avenida Professora Ida Kolb - 513 /
Jardim das Laranjeiras São Paulo - SP
IN-PERSON OR REMOTE ACCESS WITH ONLINE BROADCAST

Inscreva-se e ganhe

Faça sua inscrição em qualquer trilha Premium presencial e ganhe um workshop Bônus e uma mentoria bônus no mesmo dia! Mas não perca tempo pois as vagas são limitadas.

Confira a lista completa de workshops.

Inscreva-se na trilha e ganhe um workshop bônus

Confira a lista completa de mentorias.

Inscreva-se na trilha e ganhe uma mentoria bônus

Você também ganha acesso Premium à TDC Community por um ano, com acesso a workshops e mentorias semanais.

Inscreva-se na trilha e ganhe um ano de acesso Premium à comunidade

Investment

Inscrição online
1 track: R$ 305 for R$ 186

Inscrição online
1 track: R$ 305 for R$ 275

Inscrição online
1 track: R$ 305

Inscrição híbrida (presencial + online)
1 track: R$ 490 for R$ 310
2 tracks: R$ 840 for R$ 560
3 tracks: R$ 1.180 for R$ 790

* enjoy bigger discount until JUL/21, see full table

Inscrição híbrida (presencial + online)
1 track: R$ 490 for R$ 420
2 tracks: R$ 840 for R$ 730
3 tracks: R$ 1.180 for R$ 1.070

* price valid until AUG/26, see full table

Inscrição híbrida (presencial + online)
1 track: R$ 490
2 tracks: R$ 840
3 tracks: R$ 1.180

* price valid until SEP/19, see full table

Schedule / Talks Time Zone: GMT-3 Inscreva-se!

Programação Stadium:

08:00 to 08:55

Credenciamento

09:00 to 10:00

Opening of the event and mini keynotes
Programação desta Trilha:

Track opening by coordination

10:10 to 10:25

Here the coordinators introduce themselves and make an introduction to the track.

Uma IA LLM para chamar de sua e "de graça"

Rodrigo Tavares (Santander)

10:30 às 11:05

Somos bombardeados diariamente com "IA isso, IA aquilo", e, quando vamos consultar os preços das super IAs como GPT, Meta ou qualquer outra, percebemos que customizar esses modelos para nossas aplicações pode sair bem caro.

Nessa apresentação, vou mostrar que, na maioria das vezes, o volume de conteúdo que usamos como base de conhecimento é relativamente pequeno ? e que é totalmente possível, com Kubernetes e modelos LLM open source, montar uma solução robusta para suas necessidades, sem se preocupar com limite de tokens ou com a fatura da nuvem no fim do mês.

Finetuning vs. Engenharia de Prompt: O Veredito de 50+ Apps Após 1 Ano em Produção

Anna C S Medeiros (Airia)

11:15 às 11:50

O investimento em fine-tuning de LLMs se paga a longo prazo ou a engenharia de prompt avançada é uma alternativa mais sustentável? Baseado na análise de mais de 50 aplicações no ar, esta sessão oferece uma visão sobre o tradeoff real entre essas duas abordagens. Vamos olhar os aprendizados de um ano de operação, quantificando os resultados e respondendo: Quando o custo computacional do fine-tuning foi justificado pela performance? Como a complexidade da engenharia de prompt evoluiu e impactou a manutenção? Dos nossos mais de 50 modelos, quantos precisaram ser atualizados e por quê? Esta não é uma palestra sobre "como" fazer fine-tuning, mas sobre "quando" e "se" você deve fazê-lo.

DeepEval na prática: avaliação de LLMs com LLMs-as-a-judge

Kelvin Pacheco Pacheco ()

13:30 às 14:05

Você, desenvolvedor, já domina a criação de aplicações com LLMs, mas como garantir que as respostas geradas estão realmente adequadas? Métricas tradicionais como BLEU e ROUGE têm limitações importantes, e a avaliação manual não é escalável. Uma alternativa é o LLM-as-a-Judge, onde um modelo de linguagem avalia as respostas de outro. Com mais de 80% de concordância com avaliadores humanos (comprovado em estudos científicos), essa abordagem está transformando a forma como avaliamos qualidade em IA. Vamos explorar o uso do DeepEval: criação de métricas personalizadas e teste das respostas do seu chatbot. Uma solução moderna, escalável e confiável para avaliar seus modelos.

Intervalo para almoço

12:35 às 14:00

Jailbreakers in the Wall ? Offensive Prompt Engineering & Defensive Guardrails for LLM

Mateus Fernandes (BTG Pactual)

14:10 às 15:10

A palestra apresenta ataques de prompt injection e jailbreaks, que extraem conteúdos ilegais, instruções de hacking e dados sensíveis, e demonstra, como eles burlam filtros em arquiteturas reais. Em seguida, aborda técnicas de defesa que combinam políticas de moderação, fine-tuning adversário, detecção de anomalias em tempo real e técnicas de manipulação de codificações.

RAG + Rerankers: Contexto Mais Relevante, Respostas Mais Acuradas

Samuel Matioli (DataStax)

15:50 às 16:25

Desenvolvedores e arquitetos de GenAI vão entender, na prática, como sistemas RAG podem ser aprimorados com rerankers que selecionam os trechos mais relevantes antes da geração de respostas. Vamos discutir abordagens de reranking baseadas em embeddings, modelos supervisionados e arquiteturas híbridas, além de demonstrar como isso impacta diretamente a qualidade das respostas e a confiança do usuário final.

Painel de Discussão

15:30 às 16:30

Painel desta Trilha

Networking e Visitação a Stands

16:35 às 17:05

GraphRAG: Chega de mentiras, IA com evidências

Eliézer Zarpelão (Neo4j)

16:30 às 17:05

LLMs são poderosos, mas ainda alucinam e misturam fatos. Nesta palestra, apresento o GraphRAG: uma evolução do RAG (Retrieval-Augmented Generation) que incorpora grafos para dar contexto, precisão e rastreabilidade às respostas da IA.

Na apresentação mostrarei como conectar LLMs a bases de conhecimento estruturadas para combater alucinações e aumentar a explicabilidade de seus modelos.

Vamos explorar arquitetura, ferramentas e uma demo prática unindo IA generativa e grafos, rumo a uma IA mais confiável.

Como o Sem Parar Criou seu Próprio Copiloto de Atendimento com IA Generativa

Pedro C. Pimentel (Sem Parar) / Fernando Soares (Sem Parar)

17:10 às 17:45

Nesta sessão, vamos apresentar a jornada técnica do Sem Parar na criação do Copiloto de Atendimento ? um assistente virtual desenvolvido internamente para apoiar operadores de call center com respostas inteligentes, ações recomendadas e scripts personalizados. A solução foi construída com tecnologias da Microsoft, como Azure OpenAI Service (com modelos GPT), Azure AI Search com RAG e integração com plataformas de CRM. Também abordaremos o ciclo completo de desenvolvimento, desde a arquitetura, testes e validação até a governança de IA, além dos ganhos operacionais como a redução de 9,3% no TMA e mais de 35 mil recomendações geradas com alta taxa de acerto.

Programação no final do dia:

18:30 to 18:35

Encerramento da trilha

Os coordenadores fazem um breve encerramento com agradecimentos.

Schedule subject to change

Technical Committee Trilha I.A. GENERATIVA

Sponsors