IA fiable

Creemos que la IA debe respetar las regulaciones de privacidad y protección de datos, operar de forma segura y protegida, funcionar con transparencia y responsabilidad, y evitar sesgos y discriminaciones no deseados. Estamos comprometidos con una IA segura y fiable, en línea con los Compromisos voluntarios de la Casa Blanca y otras iniciativas globales de seguridad de la IA.

Nuestros principios rectores para una IA fiable

Privacidad

La IA debe cumplir con las leyes y regulaciones de privacidad, además de las normas de la empresa para la privacidad de los datos personales y la información.

Seguridad y protección

Asegúrese de que los sistemas de IA funcionen según lo previsto y eviten daños no intencionados y amenazas maliciosas.

Transparencia

Haga que la tecnología de IA sea comprensible para las personas. Explique, en lenguaje no técnico, cómo llega un sistema de IA al resultado que ofrece.

No discriminación

Minimice los sesgos en nuestros sistemas de IA y ofrezca a todos los grupos igualdad de oportunidades para beneficiarse de esta tecnología.

Métodos y tecnologías

Los principios de la IA fiable son fundamentales para nuestro desarrollo integral y esenciales para la excelencia técnica que permite a partners, clientes y desarrolladores hacer su mejor trabajo. Estamos construyendo fábricas de datos para servicios de IA generativa, herramientas para organizar y validar conjuntos de datos no sesgados para la visión computarizada, bibliotecas para escalar datos de procesamiento de lenguaje natural para modelos de lenguaje de gran tamaño, características de seguridad innovadoras como la computación confidenciale innovaciones como técnicas de código abierto para la alineación de modelos con retroalimentación humana.

Nuestras soluciones de IA fiables

Model Card++

Una tarjeta modelo de IA es un documento que proporciona información detallada sobre cómo funcionan los modelos de aprendizaje automático, lo que fomenta la transparencia y la fiabilidad.

NVIDIA Omniverse Replicator

NVIDIA está reduciendo los sesgos no deseados y protegiendo la privacidad mediante la generación de conjuntos de datos sintéticos variados para replicar casos de uso reales en vehículos autónomos, inspección industrial y simulación robótica.

NeMo Guardrails

NVIDIA NeMo Guardrails ayuda a garantizar que las aplicaciones inteligentes con tecnología de modelos de lenguaje de gran tamaño (LLM) sean precisas, adecuadas, relevantes y seguras.

Asociaciones para una tecnología de IA fiable

Te Hiku Media

Te Hiku Media, miembro de NVIDIA Inception, creó un sistema de reconocimiento de voz bilingüe de alta precisión para el idioma maorí y el inglés de Nueva Zelanda, elaborado por su propia comunidad lingüística y propiedad de esta.

Getty Images

La IA generativa de Getty Images se entrena con NVIDIA Picasso usando datos de forma responsable y limpia, y con plena autorización, lo que ofrece innumerables oportunidades para los proyectos creativos.

Adobe Firefly

Adobe Firefly utiliza GPU de NVIDIA y es la familia de modelos de IA generativa y creativa de Adobe, diseñada para generar contenido de forma segura para su uso comercial, al tiempo que se mejoran significativamente los flujos de trabajo creativos.

IA fiable en las noticias

Vea todas las historias sobre IA fiable

Un compromiso con la investigación

Nuestra investigación sobre la IA se centra en el desarrollo de algoritmos y sistemas que puedan aumentar las capacidades humanas, resolver problemas complejos y mejorar la eficiencia en todos los sectores. Trabajamos para mantener nuestros principios rectores de privacidad, transparencia, no discriminación y seguridad en todas las prácticas y metodologías de investigación.

Publicaciones y artículos destacados:

Descubra más con lo mejor de GTC

Escuche a expertos y líderes gubernamentales allanar el camino para la regulación y la fiabilidad de la IA. Descubra sesiones sobre IA fiable de NVIDIA GTC organizadas para ayudar a las empresas a identificar y abordar posibles obstáculos para desarrollar sus propias iniciativas.