Una investigación de la Maestría en Sistemas y Computación de la Facultad de Ingeniería de la Universidad Nacional de Colombia encontró tres algoritmos que tienen 84 por ciento de eficacia para identificar mensajes que podrían significar una estafa o un robo de datos.
El descubrimiento dado a conocer Juan Camilo López, autor de la tesis, fue la consecuencia de una inquietud personal dada la inmensa cantidad de mensajes con fines criminales (estafas) que recibía diariamente en su teléfono. A partir de esta situación, López se preguntó si no habría algún método o herramienta que ayudara a identificar mensajes fraudulentos. López encontró que no había muchas investigaciones al respecto, y menos en español.
De esta forma se recolectaron datos de Facebook y Twitter, además de foros como Reddit y mensajes de texto. En total, se analizaron 300 ataques de ingeniería social. El trabajo consistió en extraer mensajes en estas redes y foros que contuvieran una denuncia o reclamo frente a una situación de posible estafa o engaño en mensajes de texto o correos electrónicos.
Luego de recolectar la información se procedió a clasificarla y limpiarla para conservar solo el texto de los mensajes, sin fotos, dobles espacios ni caracteres especiales como símbolos de arroba o hashtags. Por cierto, esta acción se realizó gracias al lenguaje de programación Phyton, en el cual se utilizó el procesamiento del “lenguaje natural”.
Es aquí donde los tres algoritmos desarrollados mostraron gran efectividad para detectar las anomalías textuales que buscan robar datos y aprovecharse de las personas. Estos son: una red neuronal artificial, un bosque aleatorio y una máquina de vectores de soporte.
El candidato a magíster explicó que se extrajeron características del texto que incluían el número de correos, URLS y enlaces, números telefónicos, ortografía, ocurrencias de palabras como ‘dinero’, ‘ganaste’ y ‘premio’, además de otras expresiones como ‘urgente’ o ‘usted debe’”.
Estos algoritmos funcionan por medio de una retroalimentación constante que permite que aprendan y tomen mejores decisiones, a medida que analizan dichos parámetros, encontrando y prediciendo cada vez de manera más precisa si un mensaje es un ataque a la seguridad de los usuarios o no.
Esta tecnología se podría implementar en una aplicación de celular que prediga si un mensaje de texto de celular o en las redes sociales representa un riesgo, generando alertas como la originada por Gmail cuando un correo electrónico tiene una procedencia dudosa.
Información de la Agencia de Noticias de la UNAL.
2 comentarios
Puede ser considerada la IA como coautora o autora de un artículo de investigación?
Como prevenir grandes fraudes posibles de configurar con IA en investigación cualitativa?
Cómo prevenir el extractivismo epistémico generado con fluidez por IA?
Gracias y trascendentales preguntas las que haces, Carmen Alicia. Gracias.