Grandes corporaciones se unieron para luchar contra el sesgo de la IA

To fight AI bias

Las corporaciones estadounidenses se han unido para formar el Data & Alianza de confianza, que ha desarrollado un sistema de evaluación de software para combatir el sesgo de la IA.

Al contratar empleados, Los departamentos de RR.HH. recurren cada vez más a la inteligencia artificial (AI) tecnologías para ayudar. con su ayuda, Se analizan los CV, Se realizan entrevistas en vídeo y se evalúa el estado mental de los solicitantes..

Las grandes corporaciones estadounidenses han decidido unir fuerzas para evitar que estas tecnologías produzcan resultados sesgados que puedan perpetuar o incluso exacerbar la discriminación..

Según Los New York Times, la semana pasada lanzaron el Data & Alianza de confianza, que incluye representantes de diversas industrias, en particular CVS Salud, Deloitte, Motores generales, humana, IBM, Tarjeta MasterCard, Meta (empresa matriz de facebook), Nike y Walmart.

La organización no participa en actividades de lobby o investigación.. Con la participación de expertos corporativos y externos., los datos & Trust Alliance ha desarrollado un sistema para evaluar software que utiliza IA. El sistema consta de 55 preguntas que cubren 13 temas, y su propósito es combatir el sesgo algorítmico.

Esto no es sólo una aceptación de principios., sino una implementación real de medidas concretas.dijo el ex director ejecutivo de American Express y copresidente de Data & Alianza de confianza Kenneth Chenault.

El software de IA actual se basa en datos, Por eso importa qué datos se utilizan y cómo se utilizan.. Si los datos para entrenar los algoritmos son en su mayoría hombres blancos, entonces es probable que los resultados producidos por estos algoritmos discriminen a los negros y a las mujeres.. Si, Por ejemplo, Los datos para predecir el éxito en una empresa se refieren a los empleados que se han desempeñado bien en el pasado., Los resultados producidos por el algoritmo pueden reforzar el sesgo preexistente..

Conjuntos de datos aparentemente neutrales, cuando se usa con otros, puede conducir a resultados que discriminen a los solicitantes por motivos de raza, género, o edad.

Investigación interna de Datos & Las empresas de Trust Alliance han demostrado que sus departamentos de RRHH utilizan software basado en IA, a menudo provienen de proveedores externos. Los usuarios empresariales generalmente no saben qué datos utilizó el proveedor para entrenar los modelos de IA., y cómo funcionan esos modelos.

Para desarrollar la solución, la alianza reclutó a sus empleados de RR.HH., análisis de los datos, departamentos jurídico y de adquisiciones, así como proveedores de software y expertos externos.. Esta colaboración resultó en una detección de sesgos., Sistema de medición y mitigación para aprender prácticas de procesamiento de datos y desarrollar software de recursos humanos..

Déjame recordarte que yo también escribí eso. Científico descubrió una vulnerabilidad en la máquina universal de Turing.

Por Vladimir Krasnogolovy

Vladimir es un especialista técnico al que le encanta dar consejos y sugerencias cualificados sobre los productos de GridinSoft. Está disponible las 24 horas del día, los 7 días de la semana para ayudarte con cualquier pregunta relacionada con la seguridad en Internet.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *