Guía Esencial

Navegue en las secciones

BACKGROUND IMAGE: iSTOCK/GETTY IMAGES

Gestionar Aprenda a aplicar las mejores prácticas y optimizar sus operaciones.

Proyectos de aprendizaje profundo: ¿inteligencia artificial basada en la nube o hardware dedicado?

¿Los proyectos de aprendizaje profundo son parte de su agenda de IA este año? A continuación, le mostramos cómo evaluar las ventajas y desventajas entre usar una infraestructura de inteligencia artificial basada en la nube o hardware dedicado.

Los proveedores de chips y sistemas están desarrollando, e innovando rápidamente, nuevos procesadores de inteligencia artificial (IA) diseñados para proyectos de aprendizaje profundo que usan redes neuronales, los sistemas de computación diseñados para aproximarse a cómo funcionan los cerebros humanos.

Al mismo tiempo, muchos vendedores en la nube también han introducido estas capacidades de procesamiento a través de GPU dedicadas y arreglos de compuertas programables en campo (FPGA), los circuitos integrados diseñados para personalizarse después de la fabricación. Google, que ha declarado que la IA es estratégica en todos sus negocios, ofrece servicios de IA dedicados basados en su unidad de procesamiento de tensor (TPU) personalizada, el circuito integrado específico de la aplicación de la compañía, desarrollado específicamente para proyectos de aprendizaje profundo de redes neuronales.

"Los proveedores de la nube están apostando a que, con el tiempo, todas las empresas utilizarán el aprendizaje profundo y quieren tener una ventaja", dijo Sid J. Reddy, científico jefe de Conversica, que desarrolla software de inteligencia artificial para marketing y ventas.

A medida que los CIOs comiencen a trazar sus estrategias de IA, en particular, su necesidad y capacidad de realizar proyectos de aprendizaje profundo deben considerar una variedad de ventajas y desventajas entre el uso de una infraestructura de IA privada más rápida y eficiente, las eficiencias operativas de la nube y sus anticipado ciclo de vida de desarrollo de IA.

En general, la infraestructura privada de inteligencia artificial es rentable para las empresas que realizan proyectos múltiples de IA altamente personalizados. Sin embargo, si esas compañías están usando datos de aplicaciones que se ejecutan en la nube, el costo de mover datos a un sistema de inteligencia de host local puede compensar el valor de tener hardware dedicado, lo que hace que la IA basada en la nube sea más económica. Pero, para muchos proyectos de aprendizaje profundo en este increíble campo de rápido movimiento, la economía podría cambiar rápidamente. Aquí hay un desglose.

Tome pequeños pasos

La infraestructura de IA privada requiere una gran inversión en costos fijos y costos de mantenimiento continuos. Debido a los gastos de capital relacionados con la construcción y el mantenimiento de la infraestructura de IA privada, los servicios de inteligencia artificial basados en la nube –incluso cuando cuestan más que la infraestructura privada– pueden ser la opción económica inteligente a medida que las empresas desarrollan su estrategia de IA antes de hacer un mayor compromiso.

Sid Reddy

Para las pequeñas empresas, los temores sobre el alto precio del uso de esta nueva infraestructura de inteligencia artificial no deberían ser la razón para no intentar proyectos de aprendizaje profundo, dijo Reddy. A medida que el aprendizaje profundo se vuelve más aceptado como la tendencia para una amplia gama de tareas, él cree que más algoritmos de IA irán hacia allá. Esto se debe a que el aprendizaje profundo promete reducir algunos de los gastos generales al preparar los datos y optimizar los nuevos modelos de inteligencia artificial.

Los corporativos y las pequeñas empresas, por igual, también deben determinar si tienen suficientes datos para capacitar a los modelos para sus proyectos de aprendizaje profundo sin "sobreajuste", o crear un modelo que no haga predicciones precisas para nuevos datos. Reddy dijo que esto es más fácil para una startup como Conversica que tiene datos de cientos de millones de conversaciones para trabajar. "Puede que no sea el caso con otras startups que tienen datos agregados limitados para empezar", dijo.

Yendo más allá de lo básico

Algunos proveedores de la nube, como Microsoft con sus Servicios Cognitivos en Azure, usan chips FPGA bajo el capó para mejorar los servicios específicos de IA. Este enfoque oculta la complejidad del FPGA del cliente, al tiempo que proporciona algunos de los ahorros de costos que los chips FPGA proporcionan en el back-end. AWS ha adoptado un enfoque diferente, convirtiéndose en el primer proveedor que permite a las empresas acceder directamente a los FPGA para algunas aplicaciones. Y las empresas están empezando a experimentar con estos.

Por ejemplo, Understory, un servicio de pronóstico del tiempo, ha comenzado a trasladar algunos de sus algoritmos más pesados de aprendizaje automático a la nube utilizando el nuevo servicio FPGA de AWS para ayudar con el análisis.

Eric Hewitt

"Dada nuestra expansión de estaciones y nuestro plan de crecimiento, necesitaremos ser más inteligentes sobre los tipos de procesadores y metales en los que ejecutamos nuestros análisis y algoritmos", dijo Eric Hewitt, vicepresidente de tecnología en Understory. "No aplicaríamos este tipo de potencia a nuestra capa informática, pero para los algoritmos en tiempo real que se ejecutan en una red de datos, es factible que los usemos".

IA privada, buena para necesidades especializadas

Algunos ejecutivos de TI creen que se pueden cosechar importantes ahorros de costos y mejoras en el rendimiento al personalizar el hardware relacionado con la inteligencia artificial.

Rix Ryskamp

"Utilizo una infraestructura privada porque mis necesidades más específicas se venden a un alto precio en la nube", dijo Rix Ryskamp, CEO de UseAIble, un proveedor de algoritmos de inteligencia artificial. "Si tuviera más necesidades generales (por lo general, no aprendizaje automático), usaría soluciones solo en la nube para simplificar".

Los CIOs también deben pensar en los diferentes componentes en el ciclo de vida del desarrollo de la IA cuando decidan cómo diseñar sus proyectos de aprendizaje profundo. En las primeras etapas de investigación y desarrollo de un ciclo de vida de IA, las empresas analizan grandes conjuntos de datos para optimizar un conjunto listo para la producción de modelos de inteligencia artificial. Estos modelos requieren menos potencia de procesamiento cuando se realizan en un sistema de producción local que cuando lo hacen en una infraestructura de inteligencia artificial basada en la nube. Por lo tanto, Ryskamp recomendó que las empresas usen infraestructura privada para investigación y desarrollo (I+D).

La nube, por otro lado, a menudo es una mejor opción para las aplicaciones de producción siempre que los requisitos, como el poder de procesamiento intensivo, no hagan que el costo sea un problema.

"Los CIOs que ya prefieran la nube deberían usarla siempre que sus cargas de trabajo de IA/aprendizaje automático (machine learning) no requieran tanto hardware personalizado como para que los proveedores de la nube no puedan ser competitivos", dijo Ryskamp.

¿La eficiencia energética es una pista falsa en los proyectos de aprendizaje profundo?

Robert Lee

"En general, la economía de hacer proyectos de aprendizaje profundo a gran escala en la nube pública no es favorable", dijo Robert Lee, arquitecto jefe de FlashBlade en Pure Storage, un proveedor de almacenamiento de datos.

Por otro lado, Lee estuvo de acuerdo en que la capacitación es más rentable cuando se recopilan o ubican los datos. Por lo tanto, si una empresa utiliza un gran conjunto de datos de software como servicio (SaaS), o utiliza un lago de datos basado en la nube, entonces tiene más sentido implementar el proyecto de aprendizaje profundo en la nube, dijo.

De hecho, el cálculo económico de las instalaciones frente a la utilización de la infraestructura de inteligencia artificial basada en la nube también variará de acuerdo con los recursos y el calendario de una empresa. La atracción de implementar infraestructura privada, para que pueda aprovechar la mayor eficiencia energética de los FPGA y los nuevos chips de IA, es solo un beneficio, argumentó Lee.

"La mayor palanca de Opex es hacer que los equipos de ciencia de datos sean más productivos al optimizar y agilizar el proceso de recopilación de datos, conservación, transformación y capacitación", argumentó.

A menudo se gasta mucho tiempo y esfuerzo en las fases de extracción, transformación y carga de los proyectos de aprendizaje profundo, lo que crea retrasos para los equipos de ciencia de datos, en lugar de ejecutar los algoritmos de IA por sí mismos.

El aprendizaje continuo difumina la elección entre la IA basada en la nube y la privada

La otra consideración es que a medida que los sistemas de IA maduran y evolucionan, el aprendizaje continuo o activo será más importante. Los enfoques iniciales de la inteligencia artificial se han centrado en los modelos de capacitación para hacer predicción/clasificación, y luego desplegarlos en producción para analizar los datos a medida que se generan.

"Estamos empezando a darnos cuenta de que en la mayoría de los casos de uso, en realidad nunca terminamos el entrenamiento y que no hay una ruptura clara entre aprender y practicar", dijo Lee.

A largo plazo, los CIOs necesitarán ver que los modelos de IA en proyectos de aprendizaje profundo son muy parecidos a los humanos que aprenden continuamente. Un buen modelo es como un estudiante universitario con un título de ingeniería que fue entrenado en conceptos básicos y tiene una buena comprensión básica sobre cómo pensar acerca de la ingeniería. Pero la experiencia se desarrolla con el tiempo y con experiencia, mientras se aprende en el trabajo. La implementación de este tipo de bucles de aprendizaje desdibujará las líneas alrededor de las distinciones, como realizar la I+D en la infraestructura privada en comparación con la infraestructura de inteligencia artificial basada en la nube.

"Al igual que sus contrapartes humanas, los sistemas de inteligencia artificial deben aprender continuamente: necesitan alimentarse constantemente de recopilación de datos/inferencia/evaluación/volver a entrenar siempre que sea posible", dijo Lee.

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close