Concorso per sviluppatori di operatori di IA generativa di NVIDIA e LangChain

Partecipa per vincere una GPU NVIDIA® GeForce RTX™ 4090, premi LangChain e non solo. 

Unisciti agli innovatori in ambito IA che superano i confini delle applicazioni generative basate su IA utilizzando le tecnologie NVIDIA e LangChain. Partecipa al nostro concorso per sviluppare operatori testuali e multimodali pratici, efficienti e creativi in un'area a tua scelta e potrai vincere uno dei tanti fantastici premi. Per iniziare, dai un'occhiata alle nostre risorse dettagliate per sviluppatori ed entra in contatto con gli esperti tecnici di NVIDIA, LangChain e la più ampia community di IA su Discord per affrontare le sfide durante il tuo percorso di sviluppo. 

Il concorso si terrà dal 15 maggio al 17 giugno negli Stati Uniti, nel Regno Unito, in Giappone, in Germania e non solo. 

Cosa sviluppare

Crea il tuo prossimo progetto di operatore IA generativo accelerato da GPU in una delle seguenti categorie.

Modelli linguistici di grandi dimensioni (oltre 8 miliardi di parametri)

I modelli linguistici di grandi dimensioni (LLM, con oltre 8 miliardi di parametri) si stanno evolvendo rapidamente, da modelli basati su GPT a Llama, Gemma e Mixtral. Gli sviluppatori possono sfruttare questi grandi modelli per creare operatori diversificati per attività come rispondere alle domande, generare sintesi e generare contenuti.

Modelli linguistici piccoli (fino a 8 miliardi di parametri)

Con l'aumentare delle dimensioni dei modelli, una nuova ondata sta favorendo lo sviluppo di modelli linguistici più piccoli (SLM), con 8 miliardi di parametri o meno). Per questa opzione, gli sviluppatori sono incoraggiati a utilizzare tali modelli linguistici più piccoli per creare applicazioni come copiloti locali o applicazioni sul dispositivo.  

Come iniziare

Esistono diversi modi per creare app di IA generativa basate su LLM e SLM. Di seguito sono riportati alcuni esempi, insieme alle risorse, per guidarti nel tuo percorso creativo.

Operatori basati su LLM

Crea potenti applicazioni basate su LLM con LangChain, un framework leader per la creazione di operatori.

È possibile utilizzare i più diffusi modelli open-source e NVIDIA Foundation tramite le API NVIDIA NIM o utilizzando NVIDIA AI Foundation Endpoints nel framework LangChain. Dopo aver sviluppato l'app, è possibile aggiungere NeMo Guardrails per controllare l'output dell'LLM in base al caso d'uso.

Se desideri sviluppare operatori avanzati, puoi iniziare con LangGraph, un framework multi-operatore basato su LangChain.

Operatori personalizzati

Per personalizzare un operatore per un'attività specifica, puoi calibrare i modelli in base al set di dati. A questo scopo, è possibile iniziare perfezionando il set di dati con NeMo Curator e calibrare il modello con il set di dati utilizzando il framework NeMo o i trasformatori HuggingFace.

Una volta creato il modello LLM personalizzato, è possibile utilizzare il modello nel framework LangChain per sviluppare l'operatore.

Copiloti locali

Per tutti gli operatori da eseguire  a livello locale per motivi di privacy e sicurezza, è possibile iniziare a sviluppare un operatore simile a quelli basati su LLM.

Ma invece di utilizzare LLM, è possibile sfruttare modelli linguistici più piccoli con 8 miliardi di parametri o meno e quantizzarli con NVIDIA TensorRT™-LLM per ridurre le dimensioni del modello e adattarlo alla GPU.

NVIDIA, insieme al framework LangChain, consente di creare operatori eseguibili su risorse di calcolo locali. 

Enter the Contest

1. Inizia ora

Registrati per partecipare al concorso e inizia a utilizzare le nostre risorse.

Entra in contatto con la community di sviluppatori LLM e gli esperti tecnici di NVIDIA e LangChain sul canale YouTube di NVIDIA per sviluppatori e nei forum per sviluppatori NVIDIA.

2. Crea il tuo progetto

Configura l'ambiente di sviluppo e crea il tuo progetto. Usa una delle seguenti tecnologie NVIDIA insieme al framework LangChain/LangGraph per sviluppare la tua app agente.

3. Condividi sui social

Pubblica il video di una demo di 45-90 secondi del tuo progetto di IA generativa su X (Twitter), LinkedIn o Instagram utilizzando gli hashtag  #NVIDIADevContest e #LangChain. E tagga uno di questi handle social di NVIDIA: 

X (Twitter): @NVIDIAAIDev
LinkedIn: @NVIDIAAI
Instagram: @NVIDIAAI

4. Invia il tuo contributo

Terminati i passaggi precedenti, invia tutte le tue risorse, inclusi i link al codice sorgente, il video della demo, il post sui social e qualsiasi ed eventuali materiali aggiuntivi. 

Premi

I partecipanti avranno la possibilità di vincere GPU e centinaia di dollari in premi da LangChain per continuare il loro percorso di formazione:

  • I due vincitori riceveranno una GPU NVIDIA GeForce RTX 4090 ciascuno.
  • Una menzione speciale riceverà una scheda NVIDIA GeForce RTX 4080 SUPER.
  • I primi 10 progetti riceveranno 200 dollari in crediti LangSmith e merchandising LangChain
  • I primi 100 progetti riceveranno un corso su LLM presso NVIDIA Deep Learning Institute.
  • Tutti i partecipanti idonei riceveranno un certificato di partecipazione digitale firmato dal CEO di NVIDIA, Jensen Huang.

Criteri di selezione dei vincitori

I contributi idonei verranno giudicati per:

  • Applicazione reale: si valuta l'impatto e la novità del progetto nell'affrontare le sfide del mondo reale e la facilità d'uso per il pubblico di destinazione
  • Integrazione tecnologica: si valuta l'efficacia con cui lo sviluppatore ha utilizzato lo stack LLM di NVIDIA e le tecnologie LangChain nel progetto
  • Qualità del contributo: si valuta la completezza e la chiarezza dei dettagli del progetto, delle istruzioni e della demo

Altre risorse

Esplora gli esempi di IA generativa

Scopri gli esempi iniziali di IA generativa che utilizzano modelli all'avanguardia come Mixtral, Llama e Gemma, oltre a framework e librerie accelerati di NVIDIA e LangChain.

Risorse essenziali su NVIDIA e LangChain

Inizia subito con i modelli di base dalle API NVIDIA NIM, verifica l'output del modello LLM con NeMo Guardrails, crea set di dati di alta qualità con NeMo Curator e ottimizza l'inferenza con TensorRT-LLM

Acquisisci familiarità con i framework LangChain e LangGraph con la documentazione di Python JavaScript . Guarda i tutorial su YouTube.

Supporto di esperti e risorse della community

Ricevi assistenza dagli esperti tecnici di NVIDIA e LangChain. Unisciti alla nostra community LLM sul canale Discord NVIDIA Developer e nei forum per sviluppatori NVIDIA per porre le tue domande e accelerare il processo di sviluppo per il concorso.