adam121 - Fotolia

Resolver Problemas Consiga ayuda para problemas específicos con sus proyectos, procesos y tecnologías.

Desarrollar apps de AI libres de sesgo es crucial para evitar errores analíticos

Las muestras de datos o las prácticas de desarrollo de modelos sesgadas pueden descarrilar a cualquier empresa interesada en usar inteligencia artificial y disminuir el retorno de la inversión de la tecnología.

Cuando se habla sobre inteligencia artificial, se debe hablar de sesgos y de cómo pueden afectar a un modelo.

Los sesgos pueden afectar el uso de AI de una empresa de dos maneras distintas. La primera forma se relaciona con la efectividad de los modelos. Tal vez un científico de datos tiene un modelo mental de cómo él o ella piensa que el mundo funciona, pero el modelo resulta ser inválido. El desarrollo de aplicaciones de AI alrededor de ello dará lugar a resultados decepcionantes.

"Hay muchas maneras en que AI puede reflejar los prejuicios de quienes recolectaron los datos, así que tenemos que pensar críticamente sobre cómo se recogen los conjuntos de datos", dijo Madeleine Clare Elish, investigadora del Data & Society Research Institute, en una presentación en la reciente Conferencia O'Reilly AI en Nueva York.

Ella dijo que cuando la AI se aplica a áreas como marketing dirigido o servicio al cliente, este tipo de sesgo es esencialmente un inconveniente. Los modelos no darán buenos resultados, pero al final del día nadie se lastima.

El segundo tipo de sesgo, sin embargo, puede ser más impactante para las personas. Elish habló sobre cómo la AI está creciendo cada vez más en áreas como seguros, puntuación de crédito y justicia criminal. Aquí, los prejuicios, ya sean resultantes de muestras de datos no representativas o de parcialidades inconscientes de desarrolladores, pueden tener efectos mucho más graves.

Uso de AI para abordar una forma de sesgo

Otra área en la que los sistemas de AI sesgados pueden perjudicar a la gente es la contratación. Pero, en este ámbito, la AI también puede ser una herramienta para luchar contra los prejuicios. Lindsey Zuloaga es una científico de datos en HireVue, una empresa en South Jordan, Utah, que busca aplicar AI para reducir el impacto de los sesgos al tomar decisiones de contratación. En una entrevista en la conferencia, dijo que la AI puede ayudar a evaluar a los candidatos de una manera más objetiva al reducir la dependencia inconsciente que los entrevistadores humanos podrían tener en cosas como el tono de la voz o la apariencia.

"Creo que es importante que la gente sea juzgada por sus méritos", dijo Zuloaga. "Quieres que las cosas sean justas, pero en el proceso de contratación, las cosas son realmente injustas".

La plataforma de HireVue trabaja grabando videos de los candidatos que contestan preguntas de la entrevista de trabajo en su propio tiempo. Los algoritmos de AI luego evalúan a los candidatos en criterios predefinidos. A las empresas que utilizan la plataforma se les pregunta después del hecho cómo van las cosas con los trabajadores contratados a través de ella, con el fin de mejorar las recomendaciones con el tiempo.

Teóricamente, el sesgo podría entrar en este proceso. Por ejemplo, los contratadores pueden enviar una calificación de retroalimentación como positiva solo para las contrataciones que encajan en una organización, lo que podría ser otra forma de expresar sesgos raciales o de género.

Pero Zuloaga dijo que ella y otros científicos de datos de la compañía intentan evitar este tipo de situación haciendo que los algoritmos de aprendizaje profundo que sustentan el sistema sean interpretables. La mayoría de las redes neuronales funcionan como una caja negra. Las razones de sus recomendaciones no son claras para los usuarios. Sin embargo, mediante la ingeniería en las explicaciones de estos modelos en el desarrollo de aplicaciones de AI, Zuloaga y su equipo puede volver atrás y asegurarse de que el algoritmo solo está recomendando a los candidatos estrictamente sobre la base de su desempeño laboral esperado.

"Todos tenemos estos sesgos, por lo que sirve como una gran fuente de inspiración", dijo Zuloaga. "Creo que hay mucho poder en la diversidad solo por tener el poder de diferentes opiniones".

Desarrollar bien AI empieza con buenos datos

A menudo, los modelos de AI sesgados no son problemáticos debido a algo que un ingeniero pone en el modelo. El problema puede provenir de los propios datos. AI y los modelos de aprendizaje profundo son realmente buenos en la inferencia de las relaciones entre las variables que pueden ser sutiles. Pero, en algunos casos, esto es indeseable. Por ejemplo, dónde vive una persona se puede utilizar a menudo como un proxy para inferir su raza.

Por eso es tan importante asegurarse de que los datos de entrenamiento sean representativos de la población que se está modelando, e incluye solo campos de datos necesarios, dijo Lashon Booker, científico principal senior de MITER Corp., en una presentación en la conferencia. Esto puede sonar obvio, pero es realmente un desafío enorme. Dado que big data entró en boga hace unos años, las empresas han acumulado grandes tesoros de datos. Cuando se trata de la formación de modelos de aprendizaje profundo, esto es generalmente algo bueno.

Sin embargo, la cuestión de eliminar potenciales fuentes de sesgo de grandes conjuntos de datos puede ser difícil cuando usted no sabe realmente alrededor de qué características del conjunto de datos el algoritmo de aprendizaje profundo construirá un modelo. Garantizar que los datos se recopilan de una manera que represente a la población que se está modelando y eliminar cualquier fuente conocida de sesgo inmediatamente puede ayudar. "Los datos que usted tiene disponibles para el entrenamiento podrían hacer esto más difícil de lo que usted esperaría", dijo Booker. "Big data podría no ser su amigo".

Este artículo se actualizó por última vez en julio 2017

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Enviando esta solicitud usted acepta recibir correos electrónicos de TechTarget y sus socios. Si usted reside afuera de Estados Unidos, esta dando autorización para que transfiramos y procesemos su información personal en Estados Unidos.Privacidad

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close