Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Um evento digital gratuito, organizado pelo NVIDIA Deep Learning Institute.
17 de Novembro, 12h (horário de Brasília)
Junte-se a nós para um dia emocionante e interativo mergulhando em técnicas de ponta no desenvolvimento de aplicações de grandes modelos de linguagem (LLM).
O LLM Day oferecerá orientação prática e prática de profissionais de LLM, que compartilharão seus insights e práticas recomendadas para começar e avançar no desenvolvimento de aplicações de LLM.
Aprenda métodos práticos para projetar e implementar sistemas com tecnologia LLM em dados de negócios do mundo real usando APIs LLM populares e prontas para uso, sem necessidade de hardware especializado, treinamento de modelo ou implantação complicada. Mostraremos técnicas para projetar entradas eficazes para os modelos ("prompts") e como combinar LLMs com outros sistemas, incluindo bancos de dados de negócios, com kits de ferramentas como LangChain. Junte-se a nós e aprenda a construir sistemas LLM para gerar resultados de negócios tangíveis.
Empurre os LLMs além dos limites de qualidade de modelos e APIs prontos para uso, personalizando-os para aplicações específicas do domínio. Discutiremos estratégias para preparar conjuntos de dados e mostrar ganhos de diferentes formas de personalização usando exemplos práticos do mundo real. Junte-se a nós e aprenda sobre técnicas de ajuste de modelo aplicáveis a LLMs baseados em API e autogerenciados.
Nesta sessão, exploraremos modelos fundamentais de IA na biologia, bem como aplicações práticas de engenharia e design de proteínas apoiadas por exemplos do mundo real. Discutiremos os recentes avanços da biologia e aplicaremos isso a como você pode usar LLMs para prever a estrutura e a função de proteínas e codificar dados de proteínas computacionalmente. Os participantes aprenderão técnicas de como usar o NVIDIA BioNeMo™, uma plataforma de IA generativa para descoberta de medicamentos, para simplificar e acelerar o treinamento de modelos em seus próprios dados, garantindo a implantação fácil e escalável de modelos para aplicações de descoberta de medicamentos.
A cibersegurança é um problema de dados, e uma das formas mais eficazes de contextualizar dados é por meio de linguagem natural. Com o avanço dos LLMs e da computação acelerada, podemos representar dados de segurança de maneiras que expandem nossas técnicas de detecção e geração de dados. Nesta sessão, discutiremos os avanços em LLMs, incluindo como aproveitá-los em todo o stack cibersegurança, desde copilots até geração de dados sintéticos.
A otimização e a implantação de LLMs em hardware autogerenciado, seja na nuvem ou no local, podem produzir eficiência tangível, governança de dados e melhorias de custo para organizações que operam em escala. Discutiremos LLMs abertos e licenciados comercialmente que são executados em hardware comumente disponível e mostraremos como usar otimizadores para obter inferência de menor latência e maior taxa de transferência para reduzir as necessidades de computação. Junte-se a nós e saiba como expandir LLMs autogerenciados para acomodar requisitos exclusivos de negócios e aplicações.
Nesta sessão, responderemos a quaisquer perguntas adicionais que os participantes possam ter, além daquelas discutidas durante as sessões.
Gerente Sênior de Arquitetura de Soluções
Diretor de Engenharia de Cibersegurança
Líder de Startups de IA para Área da Saúde
Arquiteto de Soluções Sênior
Engenheiro de Soluções Sênior
Cientista de Dados de Deep Learning Sênior
Gerente Técnico Sênior de Engenharia de Marketing
Cientista de Dados Sênior de Deep Learning
Diretor de Engenharia de Soluções
Líder de Serviços Empresariais, EMEA
Aproveite nosso abrangente caminho de aprendizado de LLM, cobrindo tópicos fundamentais a avançados, com treinamento prático desenvolvido e ministrado por especialistas da NVIDIA. Você pode optar pela flexibilidade de cursos personalizados ou se inscrever em workshops ministrados por instrutores para ganhar um certificado de competência.