Servicios de IA generativa exponen los datos de millones de usuarios

Publicado el 19 Jul 2023

20230720p2

Check Point Research identificó una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.

“Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas”, señala Eusebio Nieva, director técnico de Check Point Software para España y Portugal.

El uso de IA en el desarrollo de código de software puede ser una fuente inadvertida de filtraciones de datos.

Check Point Research ha ayudado a evitar la filtración de datos confidenciales de las decenas de millones de usuarios que utilizan aplicaciones de IA Generativa de ChatGPT, Google y Microsoft.

Los ciberdelincuentes aprovechan la combinación de una gran cantidad de información y usuarios descuidados para obtener datos sensibles, como números de tarjetas de crédito y registros de consultas realizadas en estos chats.

Es por eso que Check Point Software ofrece a las empresas una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa, con una nueva categoría agregada a su conjunto de controles de gestión de tráfico. Además, sus soluciones de firewall y firewall as-a-service incluyen también la prevención de pérdida de datos (DLP), lo que permite a los administradores de seguridad de red bloquear la carga de ciertos tipos de datos específicos (código de software, información personal identificable, información confidencial, etc.) al utilizar aplicaciones de IA generativa.

¿Qué te ha parecido este artículo?

¡Síguenos en nuestras redes sociales!

Redacción

Artículos relacionados

Artículo 1 de 4