Código Fuente

Código Fuente: es el dato sensible más común compartido en 2023 en ChatGPT

Una investigación de Netskope revela que los datos confidenciales se comparten con aplicaciones de IA generativa cada hora en las grandes empresas. Esto podría poner en riesgo el código fuente y otros datos sensibles.

Netskope, líder en Secure Access Service Edge (SASE), ha publicado una nueva investigación que muestra cómo las empresas están compartiendo datos confidenciales con aplicaciones de IA generativa. El estudio encontró que por cada 10.000 usuarios empresariales, una organización experimenta aproximadamente 183 incidentes de datos sensibles que se publican en la aplicación por mes. El código fuente representa la mayor parte de los datos sensibles expuestos.

Código Fuente a la vista de ChatGPT

La investigación de Netskope muestra que las empresas están utilizando cada vez más aplicaciones de IA generativa para crear contenido creativo, como imágenes, videos y texto. Sin embargo, las empresas no siempre son conscientes de los riesgos de seguridad asociados con el uso de estas aplicaciones.

Las aplicaciones de IA generativa pueden acceder y procesar datos confidenciales de los usuarios, como su nombre, dirección de correo electrónico y número de teléfono.

Estos datos pueden utilizarse para fines maliciosos, como el robo de identidad o el chantaje.

Netskope recomienda a las empresas que tomen medidas para proteger sus datos confidenciales cuando utilizan aplicaciones de IA generativa.

Estas medidas incluyen:

Habilitar la autenticación multifactor (MFA) para las aplicaciones de IA generativa

Código Fuente y ChatGPT

La autenticación multifactor (MFA) es una forma de agregar una capa adicional de seguridad a las aplicaciones de IA generativa.

Requiere que los usuarios proporcionen dos factores de autenticación, como una contraseña y un código de verificación enviado a su teléfono, para acceder a la aplicación. Esto hace que sea más difícil para los atacantes robar las contraseñas de los usuarios y acceder a las aplicaciones.

Para habilitar MFA para una aplicación de IA generativa, deberá seguir los siguientes pasos:

  1. Acceda a la configuración de la aplicación.
  2. Busque la opción de autenticación multifactor.
  3. Active la autenticación multifactor.
  4. Siga las instrucciones para configurar MFA.

Una vez que MFA esté habilitado, los usuarios deberán proporcionar dos factores de autenticación para acceder a la aplicación. Este es un paso adicional que ayudará a proteger sus aplicaciones de IA generativa de los atacantes.

Aquí hay algunos consejos adicionales para habilitar MFA para aplicaciones de IA generativa:

  • Utilice un generador de contraseñas fuerte para crear contraseñas únicas para cada aplicación.
  • Guarde sus contraseñas en un administrador de contraseñas seguro.
  • Habilite la autenticación multifactor para todas las aplicaciones que lo admitan.
  • Mantenga su software actualizado.
  • Esté atento a las señales de actividad sospechosa.

Al seguir estos consejos, puede ayudar a proteger sus aplicaciones de IA generativa de los atacantes.

Utilizar una VPN para conectarse a las aplicaciones de IA generativa

Una VPN, o red privada virtual, es una forma de conectarse a Internet de forma segura y privada. Cuando utiliza una VPN, su tráfico de Internet se enruta a través de un servidor remoto, lo que oculta su dirección IP y hace que sea más difícil para los atacantes rastrear su actividad.

Usar una VPN para conectarse a aplicaciones de IA generativa puede ayudar a proteger su privacidad y seguridad. Esto se debe a que una VPN puede encriptar su tráfico de Internet, lo que hace que sea más difícil para los atacantes robar sus datos. Además, una VPN puede ocultar su ubicación, lo que puede ayudar a proteger su privacidad.

Si está preocupado por su privacidad y seguridad, le recomiendo que utilice una VPN para conectarse a aplicaciones de IA generativa. Hay muchas VPN diferentes disponibles, por lo que puede elegir una que se adapte a sus necesidades.

Aquí hay algunos consejos para elegir una VPN para conectarse a aplicaciones de IA generativa:

  • Elija una VPN que tenga una buena reputación de seguridad.
  • Asegúrese de que la VPN utilice cifrado de alta calidad.
  • Elija una VPN que tenga una política de privacidad sólida.
  • Pruebe la VPN antes de usarla para asegurarse de que funciona correctamente.

Al seguir estos consejos, puede elegir una VPN que le ayude a proteger su privacidad y seguridad cuando utilice aplicaciones de IA generativa.

Mantener el software de las aplicaciones de IA generativa actualizado

Código Fuente a la mano del Cibercrimen

Mantener el software de las aplicaciones de IA generativa actualizado es importante para mantener la seguridad y la estabilidad de las aplicaciones.

Las actualizaciones de software suelen incluir correcciones de errores y nuevas características que pueden ayudar a proteger las aplicaciones contra vulnerabilidades de seguridad. También pueden incluir mejoras de rendimiento y estabilidad que pueden ayudar a mejorar el funcionamiento de las aplicaciones.

Para mantener el software de las aplicaciones de IA generativa actualizado, debe habilitar las actualizaciones automáticas. Esto asegurará que sus aplicaciones siempre estén actualizadas con las últimas correcciones de seguridad y características.

También puede verificar manualmente las actualizaciones de software abriendo la aplicación y haciendo clic en el botón “Actualizaciones”.

Además de mantener el software actualizado, también es importante tener una buena higiene de seguridad.

Esto significa usar contraseñas seguras, habilitar la autenticación multifactor y ser consciente de los ataques de phishing. Al seguir estas prácticas de seguridad, puede ayudar a proteger sus aplicaciones de IA generativa de los atacantes.

Aquí hay algunos consejos adicionales para mantener el software de las aplicaciones de IA generativa actualizado:

  • Habilite las actualizaciones automáticas.
  • Verifique manualmente las actualizaciones de software con regularidad.
  • Use contraseñas seguras para sus aplicaciones.
  • Habilite la autenticación multifactor para sus aplicaciones.
  • Sea consciente de los ataques de phishing.

Al seguir estos consejos, puede ayudar a proteger sus aplicaciones de IA generativa de los atacantes y mantenerlas seguras y estables.

Educar a los empleados sobre los riesgos de seguridad asociados con el uso de las aplicaciones de IA generativa

La educación de los empleados sobre los riesgos de seguridad asociados con el uso de las aplicaciones de IA generativa es esencial para proteger a su organización de los atacantes. Los empleados deben ser conscientes de los siguientes riesgos:

  • Malware: Los atacantes pueden utilizar aplicaciones de IA generativa para crear malware que pueda infectar los sistemas informáticos de su organización. Este malware puede robar datos, dañar archivos o incluso tomar el control de los sistemas informáticos.
  • Fraude: Los atacantes pueden utilizar aplicaciones de IA generativa para crear documentos falsos, como facturas, contratos o tarjetas de crédito, que pueden utilizarse para defraudar a su organización.
  • Espionaje industrial: Los atacantes pueden utilizar aplicaciones de IA generativa para robar información confidencial de su organización, como secretos comerciales, datos de clientes o información financiera.
  • Propaganda: Los atacantes pueden utilizar aplicaciones de IA generativa para crear contenido falso que puede utilizarse para manipular a las personas o difundir desinformación.

Para ayudar a proteger a su organización de estos riesgos, debe proporcionar a sus empleados formación sobre los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa. Esta formación debe cubrir los siguientes temas:

  • Los diferentes tipos de riesgos de seguridad que pueden surgir del uso de aplicaciones de IA generativa.
  • Las medidas que pueden tomar los empleados para protegerse de estos riesgos.
  • Cómo informar a los responsables de seguridad de cualquier actividad sospechosa.

Al proporcionar a sus empleados esta formación, puede ayudar a proteger a su organización de los atacantes y mantener sus datos seguros.

Aquí hay algunos consejos adicionales para educar a los empleados sobre los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa:

  • Haga que la formación sea breve y atractiva.
  • Utilice ejemplos de casos reales para ilustrar los riesgos.
  • Haga que la formación sea interactiva para que los empleados puedan participar en la discusión.
  • Evalúe la formación para asegurarse de que los empleados han aprendido lo que necesitan saber.

Al seguir estos consejos, puede garantizar que sus empleados estén bien informados sobre los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa.

Llamado a la consciencia empresaria, para proteger el código fuente

La investigación de Netskope destaca la importancia de que las empresas sean conscientes de los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa. Al tomar medidas para proteger sus datos confidenciales, las empresas pueden ayudar a mitigar el riesgo de sufrir un ciberataque.

El estudio encontró que por cada 10.000 usuarios empresariales, una organización experimenta aproximadamente 183 incidentes de datos sensibles que se publican en la aplicación por mes. El código fuente representa la mayor parte de los datos sensibles expuestos.

Los resultados forman parte del informe Cloud & Threat Report: AI Apps in the Enterprise, el primer análisis exhaustivo de Netskope Threat Labs sobre el uso de IA en la empresa y los riesgos de seguridad que entraña.

Basándose en datos de millones de usuarios empresariales de todo el mundo, Netskope descubrió que el uso de aplicaciones de IA generativa está creciendo rápidamente, un 22,5% más en los últimos dos meses, lo que incrementa las posibilidades de que los usuarios expongan datos confidenciales.

La investigación de Netskope muestra que las empresas están utilizando cada vez más aplicaciones de IA generativa para crear contenido creativo, como imágenes, videos y texto. Sin embargo, las empresas no siempre son conscientes de los riesgos de seguridad asociados con el uso de estas aplicaciones.

Las aplicaciones de IA generativa pueden acceder y procesar datos confidenciales de los usuarios, como su nombre, dirección de correo electrónico y número de teléfono. Estos datos pueden utilizarse para fines maliciosos, como el robo de identidad o el chantaje.

Netskope recomienda a las empresas que tomen medidas para proteger sus datos confidenciales cuando utilizan aplicaciones de IA generativa.

El uso de aplicaciones de IA generativa está creciendo rápidamente, pero los riesgos de seguridad también

Una nueva investigación de Netskope muestra que el uso de aplicaciones de IA generativa está creciendo rápidamente, pero que los riesgos de seguridad asociados también están aumentando.

El estudio encontró que las organizaciones con 10.000 usuarios o más utilizan una media diaria de 5 aplicaciones de IA, y ChatGPT tiene más de 8 veces más usuarios activos al día que cualquier otra aplicación de IA generativa.

Al ritmo de avance actual, se espera que el número de usuarios que acceden a aplicaciones de IA se duplique en los próximos siete meses.

En los últimos dos meses, la aplicación de IA que más rápido ha crecido ha sido Google Bard, que actualmente suma usuarios a razón de un 7,1% semanal, frente al 1,6% de ChatGPT.

Al ritmo actual, Google Bard no alcanzará a ChatGPT hasta dentro de un año, aunque se espera que el espacio de aplicaciones de IA generativa evolucione significativamente antes de esa fecha, con muchas más aplicaciones en desarrollo.

La investigación de Netskope muestra que las empresas no siempre son conscientes de los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa.

Estas aplicaciones pueden acceder y procesar datos confidenciales de los usuarios, como su nombre, dirección de correo electrónico y número de teléfono.

Estos datos pueden utilizarse para fines maliciosos, como el robo de identidad o el chantaje.

Netskope recomienda a las empresas que tomen medidas para proteger sus datos confidenciales cuando utilizan aplicaciones de IA generativa. Estas medidas incluyen:

  • Habilitar la autenticación multifactor (MFA) para las aplicaciones de IA generativa.
  • Utilizar una VPN para conectarse a las aplicaciones de IA generativa.
  • Mantener el software de las aplicaciones de IA generativa actualizado.
  • Educar a los empleados sobre los riesgos de seguridad asociados con el uso de las aplicaciones de IA generativa.

La investigación de Netskope destaca la importancia de que las empresas sean conscientes de los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa.

Al tomar medidas para proteger sus datos confidenciales, las empresas pueden ayudar a mitigar el riesgo de sufrir un ciberataque.

Los usuarios están compartiendo datos confidenciales en ChatGPT

Una nueva investigación de Netskope muestra que los usuarios están compartiendo datos confidenciales en ChatGPT, una aplicación de IA generativa.

El estudio encontró que el código fuente es el tipo de dato más compartido, con un ritmo de 158 incidentes por cada 10.000 usuarios al mes. Otros datos sensibles que se comparten incluyen datos regulados, propiedad intelectual y contraseñas y claves.

“Es inevitable que algunos usuarios suban código fuente propietario o texto que contenga datos sensibles a herramientas de IA que prometen ayudar a programar o escribir”, afirma Ray Canzanese, Director de Investigación de Amenazas de Netskope Threat Labs.

“Por tanto, es imperativo que las organizaciones establezcan controles en torno a la IA para evitar fugas de datos confidenciales. Los controles que permiten a los usuarios aprovechar los beneficios de la IA, agilizando las operaciones y mejorando la eficiencia, al tiempo que mitigan los riesgos son el objetivo final.

Los controles más eficaces que vemos son una combinación de DLP y coaching interactivo del usuario”.

Netskope recomienda a las organizaciones que tomen las siguientes medidas para proteger sus datos confidenciales cuando utilizan ChatGPT:

  • Habilitar la prevención de pérdida de datos (DLP) para ChatGPT.
  • Educar a los empleados sobre los riesgos de compartir datos confidenciales en ChatGPT.
  • Monitorear el uso de ChatGPT para detectar posibles fugas de datos.

La investigación de Netskope destaca la importancia de que las organizaciones sean conscientes de los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa. Al tomar medidas para proteger sus datos confidenciales, las empresas pueden ayudar a mitigar el riesgo de sufrir un ciberataque.

Las organizaciones deben encontrar un equilibrio entre la seguridad y la productividad al permitir el acceso a ChatGPT

Una nueva investigación de Netskope muestra que las organizaciones deben encontrar un equilibrio entre la seguridad y la productividad al permitir el acceso a ChatGPT. El estudio encontró que los atacantes oportunistas están utilizando proxies ChatGPT y más de 1.000 URLs y dominios maliciosos para capitalizar el bombo de la IA.

Estos ataques incluyen múltiples campañas de phishing, campañas de distribución de malware y sitios web de spam y fraude.

Bloquear el acceso a contenidos relacionados con la IA y a aplicaciones de IA es una solución a corto plazo para mitigar el riesgo, pero va en detrimento de los beneficios potenciales que estas aplicaciones ofrecen para complementar la innovación corporativa y la productividad de los empleados.

Los datos de Netskope muestran que en los servicios financieros y la atención sanitaria -ambos sectores altamente regulados- casi 1 de cada 5 organizaciones ha implementado una prohibición general del uso de ChatGPT por parte de los empleados, mientras que, en el sector tecnológico, solo 1 de cada 20 organizaciones ha hecho lo mismo.

“Como líderes de seguridad, no podemos simplemente decidir prohibir aplicaciones sin que ello repercuta en la experiencia y productividad de los usuarios”, afirma James Robinson, Director Adjunto de Seguridad de la Información de Netskope.

“Las organizaciones deben centrarse en la evolución de la conciencia de su fuerza de trabajo y las políticas de datos para satisfacer las necesidades de los empleados que utilizan productos de IA de forma productiva.

Hay un buen camino hacia la habilitación segura de la IA generativa con las herramientas adecuadas y la mentalidad correcta”.

Netskope recomienda a las organizaciones que tomen las siguientes medidas para proteger sus datos confidenciales cuando utilizan ChatGPT:

  • Habilitar la prevención de pérdida de datos (DLP) para ChatGPT.
  • Educar a los empleados sobre los riesgos de compartir datos confidenciales en ChatGPT.
  • Monitorear el uso de ChatGPT para detectar posibles fugas de datos.

La investigación de Netskope destaca la importancia de que las organizaciones sean conscientes de los riesgos de seguridad asociados con el uso de aplicaciones de IA generativa. Al tomar medidas para proteger sus datos confidenciales, las empresas pueden ayudar a mitigar el riesgo de sufrir un ciberataque.

Para que las organizaciones permitan la adopción segura de aplicaciones de IA, deben centrar su enfoque en la identificación de aplicaciones permitidas y la implementación de controles que faciliten a los usuarios utilizarlas en todo su potencial, al tiempo que protegen a la organización de los riesgos.

Este planteamiento debe incluir el filtrado de dominios, el filtrado de URL y la inspección de contenidos para proteger contra los ataques. Otros pasos para salvaguardar los datos y utilizar de forma segura las herramientas de IA incluyen:

• Bloquear el acceso a apps que no sirvan a ningún propósito empresarial legítimo o que supongan un riesgo desproporcionado para la organización.
• Emplear la formación de usuarios para recordarles la política de la empresa en torno al uso de apps de IA.
• Utilizar tecnologías modernas de prevención de pérdida de datos (DLP) para detectar mensajes que contengan información potencialmente sensible.

Si lo desea, puede leer el informe completo “Cloud & Threat Report: AI Apps in the Enterprise” aquí.

Netskope lanza nuevas soluciones de SkopeAI para ayudar a las organizaciones a proteger sus datos contra amenazas generadas por IA

Netskope, líder en Secure Access Service Edge (SASE), ha anunciado nuevas soluciones de SkopeAI, el conjunto de innovaciones de inteligencia artificial y aprendizaje automático (AI/ML) de Netskope. SkopeAI aprovecha el poder de AI/ML para conquistar las limitaciones de las complejas herramientas heredadas y proporcionar protección utilizando técnicas de velocidad AI que no se encuentran en otros productos SASE.

Una de las nuevas soluciones de SkopeAI es la prevención de pérdida de datos (DLP) basada en IA. Esta solución utiliza AI/ML para identificar y proteger los datos confidenciales, incluso cuando se comparte a través de aplicaciones de IA generativa. Otra nueva solución es la detección y respuesta de amenazas (MDR) basada en IA. Esta solución utiliza AI/ML para identificar y responder a las amenazas, incluso cuando se ocultan en aplicaciones de IA generativa.

Las nuevas soluciones de SkopeAI están disponibles ahora para los clientes de Netskope.

“Estamos entusiasmados con el lanzamiento de las nuevas soluciones de SkopeAI”, dijo Sanjay Beri, CEO de Netskope. “Estas soluciones utilizan el poder de AI/ML para ayudar a las organizaciones a proteger sus datos contra amenazas generadas por IA. Estamos seguros de que estas soluciones serán un activo valioso para nuestros clientes”.

Las nuevas soluciones de SkopeAI son una adición bienvenida al portfolio de seguridad de Netskope. Estas soluciones ayudarán a las organizaciones a proteger sus datos contra amenazas generadas por IA, una amenaza que se está volviendo cada vez más grave.

El uso de la IA generativa en las empresas está creciendo rápidamente

El uso de la IA generativa en las empresas está creciendo rápidamente. Las aplicaciones de IA generativa se utilizan para crear una variedad de contenidos, como imágenes, videos, texto y música. Estas aplicaciones son cada vez más populares porque pueden ayudar a las empresas a ser más creativas y eficientes.

Sin embargo, el uso de la IA generativa también conlleva riesgos de seguridad. Las aplicaciones de IA generativa pueden ser utilizadas para crear contenido falso que puede ser utilizado para engañar o manipular a las personas. También pueden ser utilizadas para crear malware que puede dañar los sistemas informáticos.

Las nuevas soluciones de Netskope ayudan a las organizaciones a proteger sus datos contra amenazas generadas por IA

Las nuevas soluciones de Netskope ayudan a las organizaciones a proteger sus datos contra amenazas generadas por IA.

La solución DLP basada en IA de Netskope puede identificar y proteger los datos confidenciales, incluso cuando se comparte a través de aplicaciones de IA generativa.

La solución MDR basada en IA de Netskope puede identificar y responder a las amenazas, incluso cuando se ocultan en aplicaciones de IA generativa.

Las nuevas soluciones de Netskope son una adición bienvenida al portfolio de seguridad de Netskope. Estas soluciones ayudarán a las organizaciones a proteger sus datos contra amenazas generadas por IA, una amenaza que se está volviendo cada vez más grave.

Las nuevas soluciones de Netskope son una señal de que la industria de la seguridad está evolucionando para hacer frente a las nuevas amenazas

El lanzamiento de las nuevas soluciones de Netskope es una señal de que la industria de la seguridad está evolucionando para hacer frente a las nuevas amenazas. La IA generativa es una nueva amenaza que la industria de la seguridad debe abordar. Netskope está a la vanguardia de esta evolución con el lanzamiento de sus nuevas soluciones de SkopeAI.

Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, 

Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, Código Fuente, 

Por Marcelo Lozano – General Publisher IT CONNECT LATAM

 

Lea más sobre Ciberseguridad en;
Tetra: 5 vulnerabilidades exponen a las fuerzas de seguridad
Ciberseguridad: 1 estudio revela que empresas globales son las que más invierten 
2da Conferencia Cumbre de Asuntos Cibernéticos
RDP (CVE-2023-24905) el protocolo diabólico
WormGPT y la IA generativa: Inquietudes ciberseguridad 2023
Salir de la versión móvil