Guía Esencial

Navegue en las secciones

BACKGROUND IMAGE: iSTOCK/GETTY IMAGES

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

La inteligencia artificial puede usarse maliciosamente contra las empresas

A medida que las herramientas sofisticadas se vuelven más fáciles de usar, las empresas deben protegerse contra las amenazas de IA para garantizar que no se conviertan en víctimas de ataques maliciosos.

Conforme la IA y el aprendizaje automático aumentan su presencia en la empresa, las empresas comienzan a preocuparse por su exposición a nuevas amenazas de la IA. Del mismo modo, surgen nuevas amenazas a partir de los usos maliciosos de la inteligencia artificial y el aprendizaje automático, desde actos traviesos y actividades delictivas hasta nuevas formas de ataques patrocinados por estados y guerra cibernética.

Un informe sobre IA maliciosa, "El uso malicioso de la inteligencia artificial: Previsión, prevención y mitigación", producido por un grupo de 26 expertos de 14 diferentes organizaciones académicas, gubernamentales y de la industria, advierte sobre tres categorías principales de amenazas impulsadas por inteligencia artificial que están ganando tracción: bots automatizados, convincentes medios falsos y prevención de detección de amenazas. Los autores del informe ven que la IA y el aprendizaje automático están expandiendo el panorama de las amenazas existentes al aumentar la escala y disminuir el costo de los ataques que, de otra manera, requerirían un trabajo humano o un costo más sustancial.

Aumento de los bots deletrea problemas para las empresas

El ejemplo más notable de estas amenazas expandidas de IA es el uso de bots para interferir con las redes sociales. Los bots habilitados para IA se están infiltrando en grupos de redes sociales y cuentas para influenciar las percepciones o extraer información personal para uso criminal. Según la firma de tecnología Distil Networks, más del 25% del tráfico de internet en 2017 fue el resultado de la actividad de bots, y esa tasa ha aumentado marcadamente en los últimos años.

El anuncio de Google Duplex, un asistente de voz que puede hacer llamadas para que los usuarios reserven citas o hagan reservas en restaurantes, aumenta el espectro de criminales y personas malintencionadas que utilizan servicios de voz para interferir con las operaciones de negocios y la seguridad personal. El uso de sistemas basados en voz introduce la amenaza de denegación de servicio minorista en el que se programan citas falsas y luego se cancelan, lo que causa un daño comercial significativo.

Aspectos adicionales de la automatización del comportamiento delictivo incluyen el uso de texto e interacciones de voz para escalar masivamente los ataques de ingeniería social. La combinación de phishing y robollamadas, junto con los datos personales que ya han sido expuestos en la industria, es una perspectiva realmente aterradora.

IA facilita nuevos tipos de amenazas

El informe de IA maliciosa también llama la atención sobre las formas en que las nuevas tecnologías pueden explotar la vulnerabilidad de los sistemas que dependen de la IA y las tecnologías de aprendizaje automático. Por ejemplo, la actividad reciente de Deepfakes en la que las caras de las celebridades se superpusieron en videos explícitos ha causado gran preocupación.

La capacidad de los sistemas de IA para crear fácilmente fotos, audio y video falsos o engañosos son señales de que, pronto, tendremos problemas para confiar en lo que leemos, vemos o escuchamos. Los delincuentes y los actores estatales pueden usar imágenes falsas o audio para causar daños personales o comerciales, o interferir con operaciones del gobierno.

Además, el uso creciente de la inteligencia artificial para una amplia gama de tareas, desde el reconocimiento de imágenes y el funcionamiento autónomo de vehículos, hasta la inteligencia aumentada, la operación de hogares inteligentes y el análisis predictivo, está proporcionando nuevas vías de ataque para aquellos que buscan causar daño.

Las empresas de hardware de vehículos autónomos buscan proteger sus sistemas de los ataques adversos a sus sistemas de reconocimiento de imágenes. Las empresas que utilizan chatbots están descubriendo que necesitan evitar que malos actores interfieran con los sistemas de aprendizaje y los datos de capacitación, y los especialistas en marketing están encontrando formas de evitar que los competidores contaminen sus sistemas de aprendizaje automático. Los proveedores de IoT están descubriendo que sus sistemas son un modo de ataque cada vez más común contra redes y sistemas individuales y empresariales.

Las amenazas de IA se vuelven más difíciles de ver

Además, el informe malicioso de IA identifica formas en que la IA y el aprendizaje automático cambian la naturaleza de las amenazas, haciéndolas más difíciles de detectar, más aleatorias en apariencia, más adaptativas a sistemas y entornos, y más eficientes en identificar y atacar vulnerabilidades en sistemas.

Los criminales utilizan la misma infraestructura basada en la nube que utilizan las empresas para permitir que sus plataformas de inteligencia artificial creen ataques en constante evolución y altamente dirigidos contra sistemas empresariales. La simple inclusión de una dirección IP o de correo electrónico en una lista negra se vuelve difícil cuando se utilizan las infraestructuras de Amazon, Google, IBM y Microsoft para llevar a cabo ataques altamente personalizados de día cero.

Una perspectiva más aterradora es la idea de que los criminales usarán tecnología de drones combinada con reconocimiento facial y capacidades autónomas para infligir daño físico a personas, edificios e infraestructura. El año pasado, el profesor Stuart Russell de la Universidad de California en Berkeley produjo un video en asociación con el Future of Life Institute que fue presentado en la Convención de las Naciones Unidas sobre ciertas armas convencionales, para llamar la atención sobre el potencial de daño significativo del dron y la tecnología de IA. El video tiene como objetivo crear conciencia sobre los peligros de las armas autónomas habilitadas por IA.

El informe concluye: "El uso malicioso de la IA tendrá un impacto en la forma en que construimos y gestionamos nuestra infraestructura digital, así como en la forma en que diseñamos y distribuimos los sistemas de IA, y es probable que requiera políticas y otras respuestas institucionales". Claramente, el trabajo solo ha comenzado en esta área.

Si bien la IA sin duda permite a las empresas realizar tareas y proporcionar valor, también permite comportamientos criminales y maliciosos nuevos y más peligrosos. A medida que las amenazas de IA afectan la ciberseguridad, están creando oportunidades tanto para las empresas de ciberseguridad como para los delincuentes que las atacan.

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close