La IA y la posibilidad de automatizar procesos resulta esencial para las empresas.Pero todo lo bueno siempre conlleva una serie de desafíos, y esta no es la excepción. Al hablar de adopción de IA en áreas clave, como el sector financiero, la ciberseguridad y protección de datos es un ítem que sobresale. Veamos las dos caras de la moneda.
El uso de tecnología, específicamente de Inteligencia Artificial (IA), ya no es indiferente para ningún tipo de industria, o casi ninguna. Y es que las empresas y entidades han entendido que deben sumarse al carro de la modernización para, de esta manera, innovar y poder ofrecer nuevas soluciones y más eficientes.
Los últimos años se puede evidenciar una mayor apertura por parte de compañías ligadas al sector financiero en relación al uso de este tipo de tecnología, dado que los usuarios esperan experiencias digitales que les permitan ahorrar tiempo. Aquí la IA y la posibilidad de automatizar procesos resulta esencial.
Pero todo lo bueno siempre conlleva una serie de desafíos, y esta no es la excepción. Al hablar de adopción de IA en áreas clave, como el sector financiero, la ciberseguridad y protección de datos es un ítem que sobresale. Veamos las dos caras de la moneda.
No cabe duda de que la ciberseguridad se beneficia del uso de la IA. Su correcto uso permite detectar comportamientos anómalos de usuarios, dispositivos o aplicaciones de forma proactiva, con el fin de mitigar riesgos de incidentes de seguridad como fugas, robos, secuestro de datos e impacto operativo en el negocio.
Además, el uso de la IA también permite a los equipos de seguridad ser más rápidos, eficaces y eficientes cuando se produce un incidente, ya que mejora su trabajo, dando visibilidad a lo que a menudo era un punto ciego, pues los algoritmos son capaces de evaluar un gran número de variables simultáneamente.
Sin embargo, existe la otra cara de la moneda. La IA también se utiliza para atacar a empresas y usuarios. Los usuarios malintencionados, conocidos como hackers, ya utilizan esta tecnología para crear ataques más elaborados. Por ejemplo, a través de la IA hacen que un correo electrónico falso parezca más “auténtico”, pueden crear videos con caras falsas (deep fake), clonar voces y crear códigos maliciosos o incluso encontrar y explotar vulnerabilidades.
Estamos hablando de una guerra virtual. La buena noticia es que los profesionales de la ciberseguridad somos cada vez más conscientes de este tipo de amenazas y es nuestro papel crear el conocimiento necesario para mitigar el mal uso de esta tecnología, la que, asimismo, se debe adoptar de forma segura.
De hecho, el Equipo de Respuesta ante Incidentes de Seguridad Informática del Gobierno de Chile, CSIRT, dio a conocer el Boletín de Seguridad Cibernética Nº 236, donde se reportaron las vulnerabilidades registradas entre el 5 y 11 de enero de este año. Aquí se informó de tres nuevas campañas de phishing: una que suplanta al Banco de Chile por medio de mensajes de texto SMS y otras dos que suplantan al Banco Estado por un correo electrónico falso, con el objetivo de llevar a los usuarios a un sitio falso.
Estamos hablando de una guerra virtual. La buena noticia es que los profesionales de la ciberseguridad somos cada vez más conscientes de este tipo de amenazas y es nuestro papel crear el conocimiento necesario para mitigar el mal uso de esta tecnología, la que, asimismo, se debe adoptar de forma segura.
Una vez que se haya determinado el desafío que se resolverá con el uso de IA, se deben considerar algunas medidas relacionadas con la seguridad. La primera de ellas pasa por entender dónde están sus datos y cómo se están utilizando para entrenar o interactuar con las IA.
Muchas veces, cuando se quiere adoptar rápidamente la tecnología para agilizar procesos, se acaban enviando datos e información confidenciales para entrenar o personalizar modelos sin pensar en la protección de datos o la privacidad.
Asimismo, se debe entender qué ocurre con las preguntas que se formulan en el prompt durante la interacción con la IA y con los datos asociados a las preguntas; además de validar si los resultados presentados por los modelos son fiables.
Un aspecto clave al hablar de IA y seguridad es el control de datos, es decir, controlar cómo y cuándo se utilizarán, tanto los de entrada como los de respuesta de la IA. Es fundamental que estén cifrados, ya sea durante el envío y la recepción de datos (en tránsito) o cuando se almacenan (en reposo).
Con el paso del tiempo, inevitablemente, las empresas aumentarán el uso de IA generativa con el objetivo de volver sus trabajos más eficientes y eficaces. De esta manera se puede utilizar esta herramienta como un complemento, inclinando la balanza hacia un lado y usando los beneficios que ofrece para enfrentar los desafíos sin comprometer la seguridad.
notiveraz