hfng - Fotolia

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

Modelos de aprendizaje profundo obstaculizados por la funcionalidad de caja negra

La falta de transparencia en cómo funcionan los modelos de aprendizaje profundo está evitando que algunas empresas las adopten por completo, pero hay formas alrededor del problema de la interpretabilidad.

Los modelos de aprendizaje profundo tienen un problema potencialmente grande –una falta de interpretabilidad– que podría impedir que algunas empresas obtengan mucho valor de ellas.

Una de las grandes cosas sobre el aprendizaje profundo es que los usuarios esencialmente solo pueden alimentar datos a una red neuronal, o a algún otro tipo de modelo de aprendizaje, y el modelo eventualmente ofrece una respuesta o recomendación. El usuario no tiene que entender cómo o por qué el modelo entrega sus resultados; simplemente lo hace.

Pero algunas empresas están descubriendo que la naturaleza de caja negra de algunos modelos de aprendizaje profundo –donde su funcionalidad no es vista o entendida por el usuario– no es lo suficientemente buena cuando se trata de sus decisiones empresariales más importantes.

"Cuando estás en una caja negra, no sabes lo que va a pasar. No puedes tener eso", dijo Peter Maynard, vicepresidente senior de analítica empresarial de la compañía de calificación crediticia Equifax.

Regulaciones dejan de lado los modelos de aprendizaje profundo

La industria de los servicios financieros ha tardado en adoptar el aprendizaje profundo por temor a esta caja negra, dijo Maynard. Nadie duda que las técnicas avanzadas, como las redes neuronales, podrían ayudar a las compañías financieras a tomar mejores decisiones. Pero, para Equifax, las regulaciones los obligan a dar explicaciones verbales de por qué las personas reciben las calificaciones de crédito que hacen. Simplemente decir: "porque una red neural lo dijo," no es lo suficientemente bueno.

Así que Maynard y su equipo han desarrollado un nuevo tipo de modelo de red neural que da códigos de razón junto con las puntuaciones. Se necesitó algo de ingeniería para que funcionara; obviamente, el equipo no podía simplemente sacar algún código Python de internet, pero el modelo está ahora en el punto de proporcionar buenos resultados y razones para sus determinaciones.

"Si eres Amazon, no te importa por qué funciona tu modelo", dijo Maynard. "Ellos se preocupan por que funcione. En el marketing y en la internet de las cosas, no les importan las razones. Pero, para nosotros, todo tiene que ser transparente".

Las cuestiones reguladoras también están manteniendo a la empresa farmacéutica Biogen de utilizar algunos de los más comunes y menos interpretables métodos de aprendizaje profundo. Las decisiones sobre cómo se comercializan los medicamentos y cómo se llevan a cabo los ensayos con fármacos deben ser auditables, de acuerdo con las normas de la Administración de Alimentos y Medicamentos de los Estados Unidos. Esto significa que las cajas negras no funcionarán.

"No somos Google, donde se puede tomar cualquier tipo de conjunto de datos, poner un algoritmo en él y sacarlo al mundo", dijo Adam Jenkins, científico de datos en Biogen, en una presentación en la reciente conferencia Open Data Science en Boston. "Para nosotros, es realmente vida o muerte".

Esto no significa que el aprendizaje profundo esté fuera de la cuestión para Biogen; solo toma otra capa de análisis. Jenkins dijo que él y sus compañeros de trabajo seguirán utilizando cosas como las redes neuronales, y luego tomarán los resultados y tratarán de recrearlos usando métodos analíticos más tradicionales, como el modelado de la propensión. El aprendizaje profundo los señala en la dirección correcta, y los análisis tradicionales sirven como prueba interpretable.

Seres humanos y modelos de aprendizaje profundo están mejor juntos

Pero las cuestiones reglamentarias no son la única razón por la que el resultado de los modelos de aprendizaje profundo debe ser interpretable. En una presentación aparte en la conferencia, el ingeniero de software de Google, Jesse Johnson, dijo que los modelos solo funcionan mejor cuando son interpretables, especialmente si están destinados a ayudar a una persona a tomar una decisión.

"Si el aprendizaje profundo va a cambiar el mundo, necesitamos tener una interpretación correcta", dijo. "Lo que va a ser importante para la adopción no es solo lo exacto que es, sino cómo interactúa con los seres humanos".

Como ejemplo, dijo que cuando alguien le dice a un amigo que les gusta cierta película, y ese amigo hace una recomendación basada en esa información, la persona va a preguntar por qué el amigo hizo esa recomendación. Pero interactuamos con algoritmos de aprendizaje profundo haciendo recomendaciones para películas todo el tiempo, sin saber por qué el algoritmo hizo su recomendación. A muchos de nosotros nos gustaría saber de dónde provienen estas recomendaciones.

Esto va a ser aún más importante en el futuro, conforme los algoritmos de aprendizaje profundo invaden aún más el césped de toma de decisiones. Ya están empezando a aparecer en nuestras calles en forma de automóviles autodirigidos, y Johnson señaló que están empezando a aparecer en software médico, legal y financiero.

Para utilizar eficazmente estos modelos, la gente tendrá que confiar en ellos, y para confiar en ellos, tendrán que entenderlos.

"Si los modelos de aprendizaje profundo no le cuentan sobre el contexto, entonces no interactúan con sus modelos mentales", dijo Johnson. "La interpretabilidad construye una interfaz entre los modelos estadísticos que les permite interactuar con los modelos mentales. Ahora, en lugar de tomar una decisión binaria –¿confiamos en el modelo de aprendizaje profundo o confiamos en nosotros mismos?– puede obtener algo que es mejor que [lo que] el humano o la computadora podrían haber hecho por su cuenta".

Este artículo se actualizó por última vez en agosto 2017

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Enviando esta solicitud usted acepta recibir correos electrónicos de TechTarget y sus socios. Si usted reside afuera de Estados Unidos, esta dando autorización para que transfiramos y procesemos su información personal en Estados Unidos.Privacidad

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close