NicoElNino - Fotolia

Gestionar Aprenda a aplicar las mejores prácticas y optimizar sus operaciones.

ISACA: Construyan la seguridad sobre hardware de inteligencia artificial

Un nuevo documento sobre cómo combatir la IA maliciosa recomienda agregar características de seguridad a los chips de inteligencia artificial. Rob Clyde de ISACA explica por qué es una buena idea.

Rob Clyde, vicepresidente de la junta directiva de ISACA, una organización de gobierno de TI, comentó sobre un informe reciente, titulado "El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación" para nuestra publicación hermana SearchCIO. El informe completo, escrito por 26 académicos, expertos de la industria y de políticas, da la voz de alarma sobre la naturaleza de doble filo de las tecnologías de inteligencia artificial que evolucionan rápidamente.

Los avances de la IA han llevado a maravillas como un programa de computadora que puede superar a los campeones en el juego de Go y los autos que pueden manejarse por sí mismos, así como el potencial para que los piratas informáticos utilicen aplicaciones de inteligencia artificial y superen las mejores defensas cibernéticas de la empresa.

Aquí, Clyde analiza varios de los puntos de discusión del documento sobre cómo la empresa puede frustrar los ataques cibernéticos inducidos por la IA, agregando esta sombría advertencia: los hackers más emprendedores se pararán "sobre los hombros de los buenos" para soñar con otra forma de atacar.

Nota del editor: esta entrevista ha sido editada para mayor claridad.

Uno de los puntos de discusión del informe "Uso malintencionado de la inteligencia artificial" fue la necesidad de crear seguridad en el hardware de la inteligencia artificial.

Rob Clyde: Me gusta la idea, y considero que es una evolución muy natural de lo que estamos tratando de hacer con la IA. Cuanto más bajo pueda crearse la seguridad en la pila, con el hardware como el último nivel, más difícil será encontrar una vulnerabilidad y salir adelante. Por lo tanto, tiene sentido conectar algunas funciones de seguridad en el hardware. No podremos hacer todo. Será demasiado para empujarlo todo el camino. Pero habrá algunas cosas que podríamos hacer.

Entonces, construir seguridad en el hardware de inteligencia artificial ayudará. ¿Qué impide que eso suceda?

Rob Clyde

Clyde: Uno, va a agregar costos. Y va a agregar complejidad. Y podría disminuir la flexibilidad, la naturaleza en la que escribimos el software de inteligencia artificial. Podemos encontrar que gran parte del software que hemos escrito no se ejecutará realmente [en ese hardware asegurado] y que habrá que realizar cambios. Todo lo cual creo que se puede superar.

Quiero enfatizar: Esto no solucionará todo. Solo tratará algunas de las preocupaciones. Todavía podría tener fácilmente una inteligencia artificial construida para un buen uso, para detectar vulnerabilidades en los sistemas, y una mala persona podría usar inteligencia artificial para encontrar vulnerabilidades y construir otra pieza para explotarlas. Y ahora, tienes un cyberhacking, y en realidad estuvieron sobre los hombros de los buenos.

Los autores proporcionaron varias formas de implementar la seguridad en el hardware de inteligencia artificial, como las funciones que evitan la copia, restringen el acceso, etc. ¿Qué le llamó la atención?

Clyde: Algo que se destaca es una característica que permitiría la auditoría, porque este es uno de los problemas con IA. La gente pregunta, '¿Por qué hizo lo que hizo? ¿Alguien entró y se metió con algo? ¿Aprendió algo? ¿Cómo sabemos esto?' Cualquier cosa que pueda permitir una auditoría, es decir, mantener un rastro, puede permitir una mejor comprensión de lo que se está haciendo.

El punto de discusión para copiar es algo interesante.

Eso se destacó para mí también. Los autores explican que es necesario "evitar que se copie un modelo de IA entrenado de un chip sin borrar primero la copia original". ¿Pero cómo actuaría esto como una característica de seguridad?

Clyde: Creo que la idea es tratar de evitar este problema de doble uso del que estábamos hablando. Entonces, tal vez si los malos no pueden simplemente levantar a la IA entrenada que sabe cómo detectar vulnerabilidades, entonces no pueden usarla maliciosamente para encontrar las vulnerabilidades y poner los exploits.

La lucha que tengo con eso es: ¿por qué no podrían simplemente usar el mismo código de IA, porque muchas de estas cosas tienden a terminar en código abierto? Es por eso que la IA ha podido crecer tan rápido [porque] los investigadores han estado muy dispuestos a compartir, lo que creo que es algo bueno. Pero las personas podrían elegir fácilmente el mismo y decir: "Bien, lo entreno yo mismo". Y tal vez el suyo está mejor entrenado, pero tal vez el mío es lo suficientemente bueno.

Usted trae a colación un punto de discusión que parece estar levantando algunas cejas. Fue la recomendación de retrasar la publicación de la investigación sobre nuevas tecnologías de IA hasta que los resultados puedan ser investigados por el potencial uso malicioso de la IA.

Clyde: Un ligero retraso no me molesta. Si alguien aún no ha terminado su trabajo en la IA, podría haber una buena razón para retrasarlo por un corto período de tiempo. Y quiero enfatizar corto. Es realmente difícil mantener un secreto, especialmente en un campo como la IA, y se va a filtrar. Y el peligro es que no se filtre a las personas que necesitan saber para poder protegerse.

Pero hay un intercambio intelectual que ocurre una vez que se publican los resultados. Y cuando se demoran, ¿retrasan el progreso?

Clyde: si observas algunos de los trabajos de IA de código abierto más recientes publicados, dicen que comparten todas las capacidades y algoritmos por defecto. Las capacidades y los algoritmos no me parecen vulnerabilidades. Por lo tanto, me preocupa menos el hecho de compartirlos, y la historia ha sido compartirlos. Creo que el problema más importante es: si esas capacidades y algoritmos llevan a alguien a entrar en sistemas o si encuentra vulnerabilidades en una inteligencia artificial, entonces creo que la demora tiene mucho sentido. No estoy demasiado preocupado por esto porque puedo decirles que la naturaleza de este campo es que la mayoría de la gente va a estar predispuesta a ser abierta.

¿Tiene un umbral en mente? ¿De cuánto tiempo debería ser la demora?

Clyde: Creo que es de uno a tres meses. Ciertamente no son años. Una vez que se pasa ese período de tiempo, se filtra, especialmente si es grande. Y publicar es mejor que filtrarlo deliberadamente.

 

Este artículo se actualizó por última vez en abril 2018

Profundice más

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Enviando esta solicitud usted acepta recibir correos electrónicos de TechTarget y sus socios. Si usted reside afuera de Estados Unidos, esta dando autorización para que transfiramos y procesemos su información personal en Estados Unidos.Privacidad

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close