IA Confiável

Acreditamos que a IA deve respeitar os regulamentos de privacidade e proteção de dados, operar de forma segura e protegida, funcionar de forma transparente e responsável e evitar preconceitos e discriminação indesejados. Estamos comprometidos com uma IA segura e confiável, em linha com os Compromissos Voluntários da Casa Branca e outras iniciativas globais de segurança de IA.

Nossos Princípios Orientadores para uma IA Confiável

Decorative image of a lock representing privacy

Privacidade

A IA deve cumprir as leis e regulamentos de privacidade e cumprir as normas sociais relativas à privacidade de dados pessoais e informações.

Decorative image of a lock and shield representing safety and security

Segurança e Proteção

Garanta que os sistemas de IA funcionem conforme esperado e evite danos não intencionais e ameaças maliciosas.

Decorative image of a document representing Transparency

Transparência

Torne a tecnologia de IA compreensível para as pessoas. Explique, em linguagem não técnica, como um sistema de IA chegou ao seu resultado.

Decorative image of a balance scale representing nondiscrimination

Não Discriminação

Minimizar o preconceito nos nossos sistemas de IA e dar a todos os grupos oportunidades iguais de beneficiar da IA.

Métodos e Tecnologias

Princípios confiáveis de IA são fundamentais para nosso desenvolvimento de ponta a ponta e essenciais para a excelência técnica que permite que parceiros, clientes e desenvolvedores façam seu melhor trabalho. Estamos construindo fábricas de dados para serviços de IA generativa, ferramentas para selecionar e validar conjuntos de dados imparciais para visão computacional, bibliotecas para dimensionar dados de processamento de linguagem natural para grandes modelos de linguagem, recursos de segurança inovadores como computação confidencial e inovações como técnicas de código aberto para alinhamento de modelos com feedback humano.

Nossas Soluções de IA Confiável

Enhancing AI Transparency and Ethical Considerations with Model Card++

Cartão Modelo++

Um cartão de modelo de IA é um documento que fornece informações detalhadas sobre como funcionam os modelos de machine learning, incentivando a transparência e a confiabilidade.

Generate accurate 3D synthetic data for faster perception network training.

NVIDIA Omniverse Blueprint para Simulação de AV

A NVIDIA está reduzindo preconceitos indesejados e protegendo a privacidade ao gerar diversos conjuntos de dados sintéticos para replicar casos de uso do mundo real em veículos autônomos, inspeção industrial e simulação robótica.

NeMo Guardrails, a modeling language and runtime developed by NVIDIA

NeMo Guardrails

NVIDIA NeMo Guardrails ajuda a garantir que aplicações inteligentes com tecnologia de grandes modelos de linguagem (LLM) sejam precisos, apropriados, relevantes e seguros.

Parceria para Tecnologia de IA Confiável

Natural Language Processing tools for te reo Māori

Te Hiku Media

O membro do NVIDIA Inception, Te Hiku Media, criou um sistema de reconhecimento de fala bilíngue altamente preciso para o idioma maori e o inglês da Nova Zelândia, desenvolvido e de propriedade de sua própria comunidade linguística.

Generative AI by Getty Images is trained with NVIDIA Picasso

Getty Images

A IA generativa da Getty Images é treinada com o NVIDIA Picasso em dados responsáveis, limpos e totalmente licenciados, abrindo inúmeras oportunidades para empreendimentos criativos.

Firefly is Adobe’s family of creative generative AI models

Adobe Firefly

Usando GPUs NVIDIA, o Adobe Firefly é a família de modelos criativos de IA generativa da Adobe, projetados para gerar conteúdo seguro para uso comercial e, ao mesmo tempo, melhorar significativamente os workflows criativos.

IA Confiável nas Notícias

It’s a Sign: AI Platform for Teaching American Sign Language Aims to Bridge Communication Gaps
February 20, 2025
American Sign Language is the third most prevalent language in the United States — but there are vastly fewer AI tools developed with ASL data than data representing the country’s most common languages, English and Spanish. NVIDIA, the American Society for Deaf Children and creative agency Hello Monday are helping close this gap with Signs, Read Article
What Is Retrieval-Augmented Generation, aka RAG?
January 31, 2025
Editor’s note: This article, originally published on Nov. 15, 2023, has been updated. To understand the latest advancements in generative AI, imagine a courtroom. Judges hear and decide cases based on their general understanding of the law. Sometimes a case — like a malpractice suit or a labor dispute — requires special expertise, so judges Read Article
How AI Is Enhancing Surgical Safety and Education
January 15, 2025
Troves of unwatched surgical video footage are finding new life, fueling AI tools that help make surgery safer and enhance surgical education. The Surgical Data Science Collective (SDSC) is transforming global surgery through AI-driven video analysis, helping to close the gaps in surgical training and practice. In this episode of the NVIDIA AI Podcast, Margaux Read Article

Veja Todas as Histórias de IA Confiáveis

Um Compromisso com a Pesquisa

Nossa pesquisa em IA está focada no desenvolvimento de algoritmos e sistemas que possam aumentar as capacidades humanas, resolver problemas complexos e melhorar a eficiência em todos os setores. Trabalhamos para manter nossos princípios orientadores de privacidade, transparência, não discriminação e segurança e proteção em todas as práticas e metodologias de pesquisa.

Publicações e artigos em destaque:

Descubra Mais na Conferência GTC de IA

Ouça os especialistas e líderes governamentais que estão abrindo caminho para a regulamentação e confiabilidade da IA. Explore as sessões de IA Confiável no NVIDIA GTC selecionadas para ajudar as empresas a identificar e lidar com potenciais obstáculos ao desenvolvimento de suas próprias iniciativas.

Select Location
Middle East