fbpx

¿Es seguro el ChatGPT? Expertos explican cómo detectar ‘cibercrímenes’ en este chatbox

09 de Mayo 2023.- El chatbot ya es utilizado por más de 1,600 millones de personas, incluidos ciberdelincuentes. Te contamos cómo se está utilizando para poner en riesgo la ciberseguridad y cómo detectarlo.


¿Qué tanto riesgo representa ChatGPT a la ciberseguridad?

En el New York Times , Geoffrey Hinton, el “padre de la Inteligencia Artificia (IA)”, compartió que le preocupa el desarrollo de la IA porque “es difícil prevenir que malos actores la utilicen para hacer cosas malas”. Y algo similar es lo que ocurre con ChatGPT.

Aunque sigue siendo ambiguo hasta qué punto puede llegar la “maldad” de estas inteligencias, hasta ahora no han cobrado vida por sí mismas para cometer ciberdelitos, lo que comparten expertos en ciberseguridad es que han detectado maneras en las que se puede utilizar el popular chatbot de OpenAI que ponen en riesgo a los usuarios.

¿Es seguro usar ChatGPT?
Usar ChatGPT no va a infectar tu computadora ni mucho menos. Pero los riesgos del chatbot se podrían dividir principalmente en dos: la filtración de tu información o que agentes terceros lo utilicen para, como dice Hinton, “hacer cosas malas”.

Cuando utilizas ChatGPT, todas las conversaciones, preguntas, datos revelados quedan guardados en el sistema. Si un ciberdelincuente accediera a tu perfil de ChatGPT, podría descargar todas tus conversaciones y preguntas y, si has revelado mucha información o de carácter sensible, puedes ponerte en riesgo.

Por ejemplo, en un foro llevado a cabo por Hogan and Lovells, compartieron que una de las preocupaciones es que los abogados utilicen ChatGPT para hacer contratos o documentos de carácter sensible, pues para que sean más precisos, revelan información precisa o que, en teoría, es secreta. Si esto se filtra, pone en riesgo a las personas.

Además, otro de los riesgos que compartieron en el foro es que el sistema se alimenta precisamente de la información que los mismos usuarios le revelan. Entonces, si das información privada o confidencial, el mismo chatbot puede no saberlo y replica esta información, lo que podría causar riesgos. Incluso, Samsung lo prohibió a sus empleados por estos temores de seguridad.

Por otro lado, la tecnología puede ser utilizada por ciberdelincuentes para sofisticar sus ataques.

Hugo Werner, vicepresidente de la empresa de ciberseguridad Akamai para LATAM, compartió que hay tres principales ataques a través de ChatGPT: Phishing, distribución de malware e ingeniería social.

  1. Campañas de Phishing:

Una de las características de este chatbot es su capacidad para generar texto similar al humano y adaptarse a diferentes idiomas y audiencias de una manera casi imperceptible.

Incluso, la misma empresa reconoció que es “imposible detectar de manera confiable todo el texto escrito por IA”.

Por ello, los ciberdelincuentes lo usan para crear correos electrónicos de phishing o redes sociales que parecen provenir de fuentes legítimas. Esto porque los criminales, además, pueden alimentar al chatbot con ejemplos de la vida real con mensajes no maliciosos que quieren suplantar y solicitar a la IA que genere nuevos, parecidos, pero con malas intenciones.

Estas campañas sirven para engañar a los usuarios para que revelen información personal o den dinero.

  1. Distribución de malware

ChatGPT puede generar código y adaptarse a diferentes lenguajes de programación. Con el mensaje correcto, los autores de malware novatos pueden describir lo que quieren hacer y obtener fragmentos de código que sí funcionen.

Un ejemplo es generar código para detectar cuándo se copia una dirección de billetera de bitcoin en el portapapeles para que pueda ser reemplazada por una dirección maliciosa controlada por el autor del malware.

Como resultado, puede verse un aumento en la cantidad y sofisticación del malware.

  1. Ingeniería social

Aunque es más difícil que ocurra específicamente con ChatGPT, los chatbots en general pueden utilizarse para robar información personal y así causar daños mayores.

Por ejemplo, si estás realizando compras en una página web, un chatbot haciéndose pasar por ChatGPT puede solicitar tus datos bancarios, dirección, nombre, entre otras. Si no es una página oficial y certificada, esa información terminará en manos de cibercriminales.

  1. La creación de deepfakes

La empresa de ciberseguridad NordVPN compartió un cuarto riesgo y es la creación de información errónea a grandes escalas y a costos mucho menores.

Por ejemplo, la creación de textos con el fin de desinformar, reviews falsos o usar estas herramientas para crear campañas masivas de bullying u hostigamiento en redes sociales.

¿Cómo prevenir riesgos de ciberseguridad con ChatGPT?
Hay algunas herramientas que puedes utilizar para saber si un texto fue creado con IA o no. Por ejemplo, originality.AI permite saber si un texto fue elaborado con Chat GPT, GPT-2, GPT-3, GPT-4 o Bard. GPTZero es otra opción.

Sin embargo, Werner menciona que aunque es una tecnología nueva, no hay que dejar de implementar las medidas de ciberseguridad que ya conocemos, como el no hacer clic en mensajes de remitentes desconocidos; asegurarse que los sitios web estén certificados, no revelar información personal ni bancaria más que a páginas certificadas y oficiales.

NordVPN también recomienda siempre autenticar la información y ser sumamente cuidadoso cuando se da clic a links o se da información personal como número de teléfono, emails o mensajes. “Cuando estés en duda, llama directamente a la compañía o comunicate a través de canales oficiales”, compartieron.

También recomiendan mantener tu software actualizado y con un antivirus.

Con información de Expansión Política.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Powered by WordPress.com.

Up ↑

Descubre más desde El Demócrata

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo