Se trata de la primera herramienta en el mercado que pretende usar la IA para fines delictivos y criminales. Con la irrupción de esta tecnología revolucionaria, han aparecido también nuevos usos inapropiados y con fines oscuros. El peor lado de la web no ha tardado en sumarse a la moda de los chatbots.
¿Qué es WormGPT?
El 13 de julio se dio la voz de alarma por parte de una empresa de ciberseguridad que descubrió esta herramienta a la venta en un blog de hackers. Según el propio anuncio, WormGPT es un chatbot que permite hacer todo tipo de actividades ilegales y lucrarse de ellas online. Está basado en el modelo de lenguaje GPTJ y parece estar entrenado con datos sobre malware y cibercrimen. La principal diferencia con los demás chatbots del mercado es que este no tiene limitaciones legales, éticas o morales. Por lo tanto, mediante prompts puedes lograr que genere todo tipo de contenidos. Por ejemplo, es capaz de generar emails de phishing para engañar y extorsionar a usuarios con un nivel de efectividad impactante. Su capacidad de aprendizaje también permite que pueda imitar el tono y hacerse pasar por cualquier persona. De la misma forma, puede generar código de malware para realizar actividades corruptas. En teoría, existe un canal de Telegram para promocionar esta herramienta que ya cuenta con unos 1,500 usuarios. El precio de suscripción oscila entre los 60 y 700 dólares.
Los usos ilegales de la IA
La falta de regulación sobre esta tecnología da lugar a proyectos como WormGPT, enfocados a realizar actividades ilegales online. Pero esto es solo la punta del iceberg. La IA tiene el potencial de escalar la gravedad y el peligro del ciberterrorismo y las estafas online a otro nivel. Como hemos visto con LLama-2, facilitar el código abierto de estas herramientas puede dar lugar a la creación de IAs por parte de cualquiera. Y esto incluye a organizaciones criminales y hackers. Por el momento estas herramientas son capaces de realizar extorsiones y falsificaciones online con mayor facilidad, puesto que suprimen las faltas de ortografía y los errores que solían delatar enseguida estos mensajes. Pero pronto podrán llevar a cabo operaciones mucho más complejas según avanza la tecnología. La IA mediante deepfackes puede generar contenido pornográfico de todo tipo, sin consentimiento y sin restricciones morales.
Los principales modelos como ChatGPT o Dall-E tienen una serie de mecanismos para evitar generar contenido de este tipo, pero alternativas similares creadas por terceros pueden franquear estas barreras. Las consecuencias pueden ser desde una desinformación deliberada hasta ciberataques de ciberterrorismo. Estos ataques cada vez pueden ser más destructivos, tirando los servidores de grandes empresas, robando datos personales o incluso destruyendolos. La facilidad del medio online para difundir ideas puede ser un arma de doble filo utilizado para diseminar propaganda racista, radical o sectaria. La situación de descontrol legal que ha creado la IA puede ser aprovechada por este tipo de personas mientras la regulación se vislumbra tardía y limitada. Por ello, ahora más que nunca hay que comprobar la veracidad de los mensajes y datos que veamos en la red. No es nada descabellado que Anonymous esté preparando algo grande con la inteligencia artificial entre su arsenal.