Problemas de ciberseguridad al usar ChatGPT

Problemas de ciberseguridad al usar ChatGPT y las IA generativas

HIXSA

23 mayo, 2023

Desde el lanzamiento de ChatGPT en noviembre 2022, el mundo tecnologíco y de generación de contenido ha abierto una serie de debates sobre las impresionantes habilidades del chatbot generativo de IA, las limitaciones evidentes y el potencial para ser utilizado para el bien y el mal. En esta edición especial, destacamos seis consideraciones acerca de ChatGPT que son importantes en este momento para los profesionales de la ciberseguridad.

6 consideracionse que los profesionales de ciberseguridad deben saber sobre ChatGPT

1. No uses ChatGPT para ningún trabajo crítico de ciberseguridad todavía

A pesar de las emocionantes pruebas de ChatGPT para tareas como encontrar errores de codificación y vulnerabilidades de software, el rendimiento del chatbot puede ser impredecible y su uso como asistente de seguridad cibernética debe, como mínimo, revisarse de forma manual y cuidadosa.

Por ejemplo, Chris Anley, científico jefe de NCC Group, lo utilizó para realizar revisiones de códigos de seguridad y concluyó que “realmente no funciona”.

ChatGPT no está listo para tareas de ciberseguridad empresarial

Las herramientas de IA generativa, en el mejor de los casos, producen información útil que es precisa entre el 50 y  70% de las veces, según Jeff Hancock, miembro de la facultad del Instituto Stanford para la IA centrada en el ser humano. También inventan cosas, o “alucinan”, dijo en la publicación del blog “¿Cómo cambiará ChatGPT la forma en que pensamos y trabajamos? ”

Curiosamente, un estudio reciente de Stanford descubrió que los usuarios con acceso a un asistente de código de IA “escribían un código significativamente menos seguro que los que no tenían acceso”, mientras que, irónicamente, se sentían más seguros en su trabajo. Mientras tanto, en diciembre, Stack Overflow, el sitio web de preguntas y respuestas para programadores, prohibió las respuestas de ChatGPT porque encontró que demasiadas eran incorrectas.

De hecho, OpenAI, el creador de ChatGPT, ha dejado claro que aún es pronto y que queda mucho trabajo por delante.”Es un error confiar en él para algo importante en este momento, tuiteó el CEO de OpenAI, Sam Altman, en diciembre, un pensamiento que ha reiterado continuamente.

2. Por todos los medios echa un vistazo al potencial de ChatGPT

Si bien ChatGPT aún no está listo para el horario de máxima audiencia como una herramienta confiable para los profesionales de ciberseguridad, su potencial es atractivo. Aquí hay algunas áreas en las que ChatGPT y la tecnología de IA generativa en general han mostrado un potencial temprano, aunque a menudo defectuoso.

  • Respuesta de incidentes
  • Formación/educación
  • Detección de vulnerabilidades
  • Prueba de código
  • Análisis de malware
  • Reporte escrito
  • Operaciones de seguridad

“Estoy realmente entusiasmado con lo que creo que es en términos de ChatGPT como una especie de nueva interfaz”, dijo recientemente a Axios el CISO de Resilience Insurance, Justin Shattuck.

ChatGPT se muestra prometedor como herramienta de ciberdefensa

Sin embargo, una advertencia: si estás ingresando datos de trabajo, verifica primero con tu empleador que todo este correcto y la información no se comparta. Las empresas han comenzado a emitir pautas que restringen y controlan la forma en que los empleados usan las herramientas de IA generativa. ¿Por qué? Existe preocupación e incertidumbre sobre lo que estas herramientas podrían hacer con los datos ingresados ​​en ellas: ¿A dónde van esos datos? ¿Dónde se almacena y por cuánto tiempo? ¿Cómo se podría usar? ¿Cómo se protegerán?

3. Los atacantes usarán ChatGPT en tu contra, o tal vez ya lo hayan hecho

Aunque ChatGPT es un trabajo en progreso, es lo suficientemente bueno para los delincuentes, quienes, según se informa, ya lo están aprovechando para mejorar el contenido de sus correos electrónicos de phishing y generar código malicioso, entre otras actividades.

“La aparición y el abuso de los modelos de IA generativa, como ChatGPT, aumentarán el riesgo a otro nivel en 2023”, dijo Matthew Ball, analista jefe de la firma de investigación de mercado Canalys.

Los malos actores usarán ChatGPT en ciberataques

Las ciberamenazas potenciales o reales relacionadas con el abuso de ChatGPT incluyen:

  • Ayudando a crear correos electrónicos de phishing más efectivos
  • Aprovecharlo para generar contenido odioso, difamatorio y falso
  • Reducir la barrera de entrada para los atacantes menos sofisticados
  • Usarlo para crear malware
  • Dirigir a las personas a sitios web maliciosos desde un chatbot de IA secuestrado

4. Espera que los motores regulatorios del gobierno se aceleren

Es probable que veamos un flujo constante de nuevas regulaciones a medida que los gobiernos intentan reducir los abusos y usos indebidos de ChatGPT y herramientas de inteligencia artificial similares, así como establecer barreras legales para su uso.

Se espera nueva regulación para productos de IA generativa

Eso significa que los equipos de seguridad y cumplimiento deben estar al tanto de cómo se forma el panorama regulatorio en torno a ChatGPT y la IA generativa en general, y cómo eso afectará la forma en que se diseñan, configuran y utilizan estos productos.

“También necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. La regulación será crítica y llevará tiempo descubrirla”, tuiteó Altman de OpenAI a mediados de febrero.

5. ¿Viene ChatGPT por tu trabajo?

No te preocupes si ChatGPT te quitará el trabajo. En cambio, las herramientas de IA generativa te ayudarán a hacer mejor trabajo, más rápido, con mayor precisión y de manera diferente.

Después de todo, independientemente de cuán sofisticadas se vuelvan estas herramientas, es posible que siempre necesiten cierto grado de supervisión humana, según Seth Robinson, vicepresidente de investigación de la industria en Computing Technology Industry Association (CompTIA).

“Entonces, cuando hablamos de ‘habilidades de IA’, no solo nos referimos a la capacidad de codificar un algoritmo, construir un modelo estadístico o extraer grandes conjuntos de datos. Estamos hablando de trabajar junto con la IA dondequiera que esté integrada en la tecnología”

ChatGPT no aceptará trabajos de ciberseguridad

Mientras tanto, el banco de inversión UBS dijo en una nota reciente: “Creemos que las herramientas de inteligencia artificial en general terminarán como parte de la solución en una economía que tiene más vacantes que trabajadores disponibles”.

Específicamente para los profesionales cibernéticos, el conjunto de habilidades deseado implicará saber cómo contrarrestar las amenazas y los ataques asistidos por IA, lo que requiere comprender “la intersección de la IA y la ciberseguridad”, se lee en una publicación de blog del sitio web de carreras tecnológicas Dice.com.

6. Mantente al tanto de la IA generativa: no va a desaparecer

ChatGPT alcanzó los 100 millones de usuarios activos mensuales apenas dos meses después de su lanzamiento, convirtiéndose en la aplicación de consumo de más rápido crecimiento de la historia, según los investigadores de UBS.

Meses que tardó en llegar a 1 millón de usuarios para cada aplicación

ChatGPT y la IA generativa llegaron para quedarse

ChatGPT y la IA generativa llegaron para quedarse

Y no es solo OpenAI. La financiación de capital de riesgo para nuevas empresas de IA generativa en general se disparó en 2022, según CB Insights, que ha identificado 250 jugadores en este mercado.

Las empresas ya están incorporando la tecnología OpenAI en sus productos y operaciones. Por ejemplo, Microsoft, que realizó una inversión multimillonaria en OpenAI, está incorporando la tecnología de IA generativa de la startup en sus productos, incluido el motor de búsqueda Bing . Mientras tanto, Bain & Co usa la tecnología OpenAI internamente y también trabaja con clientes interesados ​​en adoptar herramientas OpenAI como ChatGPT, incluida The Coca-Cola Company.

En resumen, ChatGPT y las herramientas de IA generativa en general llegaron para quedarse y tendrán un amplio impacto en nuestra vida personal y profesional. Es cuestión de tiempo hasta que la tecnología similar a ChatGPT se incorpore a las herramientas de seguridad cibernética de los defensores en las que se puede confiar para que funcionen de manera consistente con un nivel aceptable de exactitud y precisión.

También te puede interesar: Los nuevos riesgos (y oportunidades) de ciberseguridad en el metaverso

Tenable One para enfrentar el panorama actual de ciberseguridad

Hoy, aproximadamente 40 mil organizaciones en todo el mundo confían en Tenable para comprender y reducir el riesgo de ciberseguridad. En HIXSA, nuestro objetivo es brindarle a cada organización, sin importar lo grande o pequeña que sea, la visibilidad y la perspectiva para responder cuatro preguntas fundamentales en todo momento: ¿Dónde estamos expuestos? ¿Dónde debemos priorizar en función del riesgo? ¿Estamos reduciendo la exposición con el tiempo? ¿Qué resultado obtenemos si nos comparamos con nuestros pares?

Agenda una llamada y descubre por qué los líderes de la ciberseguridad recurren a Tenable para integrar las pruebas de seguridad en los procesos en desarrollo, mejorar la productividad de los desarrolladores y eliminar los riesgos de seguridad.

Guía del CIO para la evaluación de soluciones RPA

En esta guía para CIO’s compartimos las claves para evaluar soluciones de RPA para tu negocio.

Guía de AI Service Desk y Automatización

En este documento te compartimos un modelo probado de automatización de la mesa de servicio de TI, que ayuda a analizar desafíos, evaluar soluciones y elegir el mejor enfoque de automatización.

10 consejos de lectura obligada para seleccionar un sistema ECM

En este eBook te mostramos cómo un sistema ECM y la gestión inteligente de la información puede hacer tu negocio más competitivo

Business Case para la Gestión de Contenido Empresarial

En este eBook te compartimos como la afluencia de contenido muy diverso de una variedad de sistemas y repositorios apunta a la urgente necesidad de las empresas invertir en la gestión de contenidos para tomar control de su contenido.