Gracias por su interés, por favor complete sus datos le estaremos contactando a la brevedad

GoUP

¿Cómo puede la automatización ayudar a reducir el riesgo de seguridad de los datos con ChatGPT?

Siguenos en

Linkedin DJCS

Puedes suscribirte para recibir nuestro Blog por email. Dejanos saber tu opinión para mejorar y/o los temas que te interesaría encontratar acá. Gracias!

Suscribirme

ChatGPT es una de las innovaciones notables de la Inteligencia Artificial (IA) Generativa de Open.AI capaz de generar respuestas en cuestión de segundos para una variedad de temas y tan semejantes a una respuesta humana, sin errores, gramaticalmente correctas, que alrededor del 53% de las personas no puede decir que el contenido de ChatGPT es generado por la IA. En GPT-4, La disrupción de la disrupción! hacemos una introducción a esta tecnología.

ChatGPT está ganando terreno en todo el mundo y si bien los beneficios son innumerables y con el potencial de ser cada vez de mayor impacto en todos los ámbitos de la vida y de los negocios, la realidad es que igualmente existen importantes riesgos que deben ser conocidos antes de su adopción en la empresa a efectos de estar preparados y minimizar el impacto negativo de éstos.

Principales riesgos de seguridad con ChatGPT

Hemos visto en las noticias que Verizon bloqueó a sus empleados para que no accedieran a ChatGPT en el trabajo citando las preocupaciones de los ejecutivos sobre los riesgos de seguridad de ChatGPT. Y, según The Wall Street Journal, JPMorgan Chase & Co. también restringió al personal el uso debido a problemas de cumplimiento. Forbes informó que muchas otras organizaciones, incluidas Amazon, Bank of America, Citigroup, Deutsche Bank, Goldman Sachs y Wells Fargo, han seguido su ejemplo para limitar el uso de ChatGPT por parte de los empleados. Otras referencias a lo delicado del tema de la seguridad con ChatGPT son las demandas legales iniciadas por el gobierno de Italia, apoyada por otros países y la iniciada por Clarkson Law Firm en California, USA.

Top 5 AI Risks In The Era Of ChatGPT and Generative AI , artículo publicado por Forbes, describe los 5 principales riesgos de la IA generativa: riesgo de disrupción, riesgos de seguridad, riesgos a la reputación, riesgos legales y riesgos operacionales; en el presente artículo hablaremos de los riesgos de seguridad, no para desestimular la adopción de la tecnología sino para impulsar la preparación y la implementación de medidas que minimicen los riesgos implícitos.

Se anticipa que con la IA sigan en aumento la cantidad y la sofisticación de los ataques cibernéticos; los delincuentes informáticos han encontrado en la IA un aliado para facilitar y diversificar su “trabajo”, por lo que el riesgo cibernético y el costo de proteger los datos para mantenerlos a salvo irá igualmente en aumento.

Veamos algunos de los riesgos de seguridad de ChatGPT

Seguridad de los datos

ChatGPT está respaldado por un modelo Large Language Model  (LLM) que comprende una cantidad masiva de datos para su funcionamiento y mejoramiento constante. La versión pública disponible de ChatGPT utiliza la data intercambiada en la sesión con el usuario para aprender y responder a futuras solicitudes, por lo que la privacidad está comprometida, además, ChatGPT no pide permiso para usar la información y tampoco permite a los usuarios decidir si almacenan sus datos o si se eliminan sus solicitudes, a diferencia de las integraciones de la API de ChatGPT de nivel empresarial  que si mantienen la privacidad de los datos. La reciente revisión de los términos de uso de ChatGPT de Marzo 2023, ofrece la posibilidad de llenado de una forma para que el usuario solicite explícitamente que sus datos no sean usados para el entrenamiento del modelo.  

La protección de datos es esencial para mantener su negocio y mejorar el valor de su marca, sin la educación y capacitación de seguridad adecuadas, los usuarios de ChatGPT pueden poner en riesgo inadvertidamente información confidencial del negocio. Los investigadores de Cyberhaven sugirieron el siguiente escenario como ejemplo: Imagine que un ejecutivo le pide a ChatGPT que cree diapositivas de PowerPoint para una presentación interna y copia y pega un documento de estrategia corporativa en la aplicación como referencia. Las futuras consultas a ChatGPT sobre las prioridades estratégicas de la compañía, posiblemente incluso de usuarios de empresas rivales, podrían obtener detalles directamente del documento de estrategia corporativa privada que compartió el ejecutivo.

Generación de código malicioso

Una de las capacidades ofrecidas por ChatGPT es la generación de código de programación, e igual que genera código ético también en malas manos, puede generar código de virus, troyanos u otros tipos de malware o para encontrar y explotar vulnerabilidades en sistemas informáticos o aplicaciones que permitiría a los hackers tomar el control de sistemas o acceder a información confidencial.

Si bien ChatGPT rechaza las peticiones que reconoce como explícitamente ilegales o nefastas, los hackers han descubierto como pasar y obviar los controles y protecciones (jailbreak) para pedirle, por ejemplo, que genere código para pruebas de penetración, solo para luego modificarlo y reutilizarlo para su uso en ataques cibernéticos.

Los hackers sin duda seguirán insistiendo y encontrando nuevas formas de violentar la seguridad de ChatGPT para que haga cosas que por sus políticas no debería.  

Riesgo de autenticidad

El alto volumen de datos utilizados para entrenar a ChatGPT y otras herramientas de lenguaje puede estar sesgado, y por ello, el modelo puede producir respuestas injustas o prejuiciadas que pueden ser ofensivas, discriminatorias o perjudicial para ciertos grupos de personas, también se podría usar para por ejemplo: generar desinformación generalizada, para recopilar información personal y confidencial sobre empresas y personas con el fin de dañar su reputación o manipular el mercado (Doxing), para suplantar la identidad de otra persona o engañar a menores, para crear videos falsos que parecen reales (deepfakes),  generar contenido que promueva servicios fraudulentos, como ofertas de inversión falsas, esquemas piramidales o ventas engañosas.

Phishing y otros ataques de ingeniería social

Una de cada cinco violaciones de datos involucra ingeniería social, según el "Informe de investigaciones de violación de datos 2022" de Verizon y, con la IA generativa es lógico esperar que este número vaya en ascenso.

Con la IA generativa los hackers, a través de correo electrónico, mensajes directos, chatbots, redes sociales y sitios web falsos pueden generar textos muy convincentes instantáneamente y personalizarlos según la persona para obtener de ésta datos confidenciales, podrían incluso usar la salida de ChatGPT, junto con el software de suplantación de voz y generación de imágenes basado en IA, para crear sofisticadas campañas de phishing deepfake.

Alucinaciones

Las alucinaciones de ChatGPT ocurren cuando genera respuestas que, aunque parecen precisas y coherentes, no se basan en hechos reales o conocimiento verificable, resultando en respuestas irrelevantes, sin sentido o incorrectas, que pueden incluir información inexacta sobre personas, lugares o hechos, lo cual sin la correcta verificación o criterio del usuario que recibe y utiliza la respuesta, puede ser altamente peligroso.

¿Cómo mitigar el riesgo de seguridad de los datos con la automatización?

Detección de fraude

La automatización puede monitorear el tráfico de red, identificar y aislar sistemas comprometidos y bloquear direcciones IP maliciosas en tiempo real. La detección y respuesta automatizadas a las amenazas puede ayudar a las organizaciones a prevenir o mitigar el impacto de los incidentes de seguridad

Gestión de accesos

Con la automatización, las organizaciones pueden administrar el control de acceso de manera más efectiva y garantizar que solo los usuarios autorizados tengan acceso a datos confidenciales. También pueden administrar y monitorear el acceso de los usuarios, registrar la actividad del usuario y proporcionar alertas si se detecta actividad de acceso inusual

Conformidad

Aprovechar la tecnología de automatización RPA (Robotic Process Automation) puede garantizar el cumplimiento normativo mediante comprobaciones de cumplimiento e informes a intervalos regulares. Esto incluye la automatización de las regulaciones de privacidad de datos como GDPR, CCPA, HIPAA, etc.

Respuesta a incidentes

La automatización puede ayudar en la respuesta a incidentes mediante la automatización de tareas rutinarias como el aislamiento del sistema, la eliminación de malware y la recuperación. Esto puede ayudar a minimizar el tiempo de inactividad y reducir el impacto de los incidentes de seguridad.  

Auditorías de seguridad

Mediante la automatización, los datos de seguridad se pueden recopilar, analizar y presentar en un formato fácil de revisar. También se pueden proporcionar informes, alertas y paneles en tiempo real para que los equipos de seguridad y auditores estén en alerta a los primeros intentos que cualquier intruso.

Otras medidas a considerar

Necesidad regulatoria

Ya son varias las voces de creadores y CEOs de empresas de IA, instituciones privadas y públicas alrededor del mundo que promueven la necesidad inmediata de regulación de la inteligencia artificial; el propio Sam Altman, creador de ChatGPT, hizo un llamado a los legisladores estadounidenses para que regulen la inteligencia artificial (IA) buscando minimizar los potenciales riesgos.  

Sin duda que son inmensos los beneficios que ofrece y lamentablemente los riesgos que la IA generativa nos plantea y, siendo que está en su etapa inicial, aún nos falta mucho por conocer, lo que si desde ya podemos asegurar es que el impacto en todos los ámbitos de las operaciones del negocio será importante.

Si le interesa aprovechar los beneficios que la IA generativa puede ofrecer a su negocio y minimizar los riesgos de su adopción, es importante no solo mantenerse al día de los avances en la tecnología, sino también en las medidas de seguridad y políticas de uso que los fabricantes de IA manejan en sus productos, incluyendo la dependencia en servicios de terceros, el rendimiento del modelo, el cumplimiento legal, la protección de datos y la seguridad, así como de los avances en la definición de las regulaciones;  y por supuesto, definir una estrategia y plan de adopción para su empresa, incluyendo la actualización y fortalecimiento del equipo, de las políticas, procedimientos e infraestructura de gestión de la ciberseguridad, para lo cual, la automatización robótica de procesos es un aliado clave para ayudarle a agilizar y optimizar sus procesos y liberar tiempo valioso que su personal puede estar ocupando en tareas manuales y repetitivas, para que sea invertido en el análisis, entendimiento y actividades de mayor valor para la gestión de la ciberseguridad.

DJCS es una empresa que apoya a las organizaciones en su camino a la Automatización Inteligente, identificando los procesos, de TI y del negocio, cuya automatización ofrecerá resultados tangibles al negocio y diseñando y construyendo con tecnología de avanzada, las soluciones automatizadas específicas para que cada cliente obtenga los beneficios esperados. Que cada proceso automatizado se transforme en una ganancia a corto y largo plazo

Interesado en conocer más sobre la seguridad de ChatGPT, le dejo estas sugerencias:

How can Automation Help to Reduce Data Security Risk with ChatGPT?

Gartner Identifies Six ChatGPT Risks Legal and Compliance Leaders Must Evaluate

ChatGPT security risks, data protection and developments in the cybercrime landscape

5 ChatGPT security risks in the enterprise

Descargar
Archivo

Coordinar una reunión para conocer más...

Suscribirse a nuestro Blog

Volver al Blog ...

De Jongh Computing Systems, C. A.  RIF. J-00316879-3 Todos los Derechos Reservados