Portada » Blog » Seguridad y privacidad: 7 buenos hábitos al usar IA

Seguridad y privacidad: 7 buenos hábitos al usar IA

ESET advierte que el uso creciente y masivo de la inteligencia artificial abre la puerta a nuevos desafíos, como el de implementar acciones concretas que preserven la seguridad y privacidad cuando se emplea esta nueva tecnología.

por Agencia RRPP
Seguridad y privacidad

La inteligencia artificial sigue en pleno auge y su crecimiento parecería no tener un techo definido. Pero en medio de esta vorágine desde ESET, compañía líder en detección proactiva de amenazas, también enfatizan que es necesario prestar atención y poner el foco en dos aspectos tan importantes como sensibles: la seguridad y la privacidad.

A continuación, ESET explora 7 hábitos de seguridad y privacidad para que poder disfrutar de la Inteligencia Artificial, sin exponer datos e información privada:

Configurar correctamente la seguridad y privacidad

Antes de compartir información en cualquier herramienta de Inteligencia Artificial, las personas deben conocer todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si los comparten con terceros y cómo pueden utilizarlos en el futuro. Además, se recomienda revisar periódicamente términos y políticas de la aplicación, por cualquier cambio o nueva opción de seguridad y privacidad que esté disponible.

Evitar compartir datos personales y sensibles

Una de las medidas más importantes que se pueden implementar es no ingresar proactivamente información personal, como por ejemplo contraseñas o datos bancarios, en cualquier chat de IA. Estas herramientas pueden procesar esta información e incluso utilizarla para entrenar futuros modelos. Es necesario minimizar el riesgo de que se almacenen y expongan esos datos en el futuro.

Seguridad y privacidad

Proteger las cuentas

Para proteger una cuenta de ChatGPT o de cualquier otra herramienta de Inteligencia Artificial, es importante utilizar contraseñas robustas y, de ser posible, también agregar una capa de protección extra activando el doble factor de autenticación (2FA) cuando estuviera disponible.

El acceso a una cuenta de ChatGPT, por ejemplo, podría exponer al historial de conversaciones y la información almacenada en estos chats. Esta información podría luego utilizarse para realizar ataques de ingeniería social sofisticados basados en información de la cuenta o incluso para comercializar la información.

Desactivar el historial de los chats

Si bien las herramientas de Inteligencia Artificial habitualmente mantienen almacenados los historiales de conversaciones, existen algunas que permiten elegir y desactivar esta opción. Entonces, si se busca tener mayor privacidad, se aconseja explorar esta alternativa. Además, de esta manera se estaría a salvo en caso de alguna posible filtración, como la ocurrida en 2023 con ChatGPT, cuando un fallo en el cliente de la librería de código abierto Redis permitió que por un lapso de tiempo usuarios pudieran ver preguntas del historial de búsqueda de otros usuarios de ChatGPT. Además, el fallo expuso información personal de un pequeño porcentaje de suscriptores al plan pago de ChatGPT, como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.

No confiar completamente en las respuestas recibidas

Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Para garantizar la seguridad, sobre todo en temas sensibles como los legales, financieros o médicos, verifica y contrasta siempre la información obtenida con fuentes oficiales.

Por otra parte, los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. De esta manera un atacante podría inducir a la IA a responder brindando instrucciones erróneas, proporcionar información falsa o extraer datos sensibles de una conversación.

Prestar atención a los enlaces y archivos generados

Algunas herramientas de IA pueden ser manipuladas mediante la técnica ya mencionada prompt injection, o el envenenamiento de datos, para generar enlaces, archivos o códigos con vulnerabilidades o contenido malicioso. Además, es posible que una IA incluya enlaces maliciosos que provienen de fuentes indexadas y que podrían no haber sido adecuadamente verificadas. En estos casos, un cibercriminal podría aprovechar estas vulnerabilidades para redirigir a un usuario a un sitio web falso o fraudulento con el fin de realizar ataques de phishing o distribuir malware. La solución, en primer término, es verificar la dirección compartida por la IA antes de hacer clic, y también analizar los archivos generados con una solución de seguridad antes de descargarlos.

Tener cuidado con la instalación de extensiones y Plugins

Existen una infinidad de extensiones y complementos para el navegador que ofrecen funcionalidades basadas en IA. También plugins para gestores de contenido y otras plataformas. La descarga de fuentes no confiables puede aumentar el riesgo de infección con programas maliciosos.

“Para disfrutar de todo el potencial de la inteligencia artificial, es importante contemplar el papel que juegan tanto la seguridad como la privacidad. Una correcta gestión de ambos permitirá utilizar esta nueva tecnología, pero sin poner en riesgo la información ni lo que cada persona elija mantener para su intimidad”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de investigación de ESET Latinoamérica.

Agrega que, para las empresas, la adopción de herramientas de Inteligencia Artificial supone el desafío de integrarlas de manera segura para reducir los riesgos que representa como superficie de ataque. “La creación de políticas o normas de control y uso se tornan cada vez más importantes y necesarias para prevenir riesgos, así como la capacitación continua para educar y concientizar sobre el uso y riesgos que conlleva el uso de herramientas de IA”, sugiere el experto.

Notas relacionadas

Deje un Comentario

Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Aceptar Leer Más