Los usuarios maliciosos llevan actuando en Twitter desde hace más de una década utilizando diversas estrategias para que sus ataques funcionen. Sin embargo, no fue hasta 2016 cuando se detectó que este tipo de usuarios eran capaces de irrumpir en procesos electorales como en la elección a la presidencia de Estados Unidos de dicho año o que eran capaces de crear vectores de ataque contra usuarios o colectivos a través de la explotación de información pública. Tras la detección de estos sucesos los investigadores en el área y la propia red social centraron sus esfuerzos en crear mejores modelos capaces de detectar a estos usuarios a los que denominaron social bots o sybil bots.
Sin embargo, los modelos presentados hasta el momento no han sido capaces de terminar con los usuarios maliciosos debido la constante evolución de estos, al enfoque utilizado y la especialización en usuarios automatizados o bots. El enfoque utilizado hasta el momento, denominado forense, hace uso de datos de ataques finalizados para entrenar los modelos de detección. Por ello, al ser utilizados en conjuntos de datos en los que los ataques no han sido llevados a cabo, los modelos no son capaces de detectar a los usuarios potencialmente maliciosos con antelación. Por otra parte, la mayoría de los sistemas desarrollados por la comunidad científica se han centrado en la detección o caracterización de bots por lo que dejan de lado a otros usuarios, gestionados de otra manera, que también emprenden acciones maliciosas contra los legítimos.
Es por ello por lo que al comienzo de tesis doctoral hemos llevado a cabo dos análisis en los que se demuestra la facilidad con la que se pueden generar vectores de ataque mediante la explotación de información pública en Twitter. Posteriormente se presenta el desarrollo y evaluación de un modelo capaz de explotar las interacciones entre usuarios para prever el comportamiento que estos tendrán en el futuro y clasificar así a los usuarios maliciosos, independientemente de cómo estén gestionados. El sistema presenta un enfoque preventivo con el que se pretende detectar a los usuarios maliciosos antes de que estos lleven a cabo su ataque. Para ello, el modelo se entrena y evalúa utilizando datos de ataques oficiales publicados en el Centro de Transparencia de Twitter y respetando la temporalidad de los datos para que pueda ser empleado en situaciones reales. Finalmente, el sistema implementado es agnóstico del lenguaje y de las características biográficas de los usuarios por lo que puede ser empleado sobre datos de diferentes países y no está dedicado a un tipo especifico de usuarios.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados