Recientemente, OpenAI introdujo una nueva funcionalidad en ChatGPT que permite a los usuarios realizar búsquedas en Internet directamente a través de la plataforma. Sin embargo, un análisis realizado por Kaspersky ha puesto en alerta sobre los riesgos que esta herramienta podría representar para la seguridad en línea. Aunque la función de búsqueda es útil, los expertos en ciberseguridad advierten que podría redirigir a los usuarios a sitios maliciosos o de phishing.
Riesgos de SEO Malicioso en las Búsquedas de ChatGPT
La principal amenaza radica en cómo los ciberdelincuentes manipulan los motores de búsqueda para posicionar enlaces fraudulentos. SEO malicioso es una técnica empleada por los atacantes para manipular los resultados de búsqueda, con el fin de que los usuarios hagan clic en sitios web maliciosos sin sospecharlo. Esto es lo que podría suceder cuando los usuarios de ChatGPT realizan búsquedas a través de la plataforma.
Aunque los modelos de lenguaje de IA, como ChatGPT, utilizan motores de búsqueda tradicionales para obtener resultados, los ciberdelincuentes explotan este proceso para hacer que sitios fraudulentos aparezcan en los primeros lugares. Los enlaces de phishing SEO pueden aparecer temporalmente como los primeros resultados de búsqueda, engañando a las víctimas y dirigiéndolas hacia sitios web fraudulentos.
Casos de Phishing Detectados por Kaspersky
El equipo de Kaspersky ha identificado varios ejemplos de sitios maliciosos relacionados principalmente con criptomonedas. En uno de los casos analizados, al buscar información sobre un popular juego de criptomonedas, un enlace de phishing apareció tanto en el título como en el cuerpo de la respuesta de ChatGPT. Este enlace engañaba a los usuarios para que proporcionaran sus credenciales de cartera de criptomonedas, lo que resultaba en el robo de datos personales y pérdidas financieras.
Además, otro análisis reveló una página de inicio de sesión de un sistema de trading de criptomonedas fraudulento, que aparecía en los resultados de búsqueda de ChatGPT. Aunque los dominios legítimos estaban presentes en el cuerpo de la respuesta, el enlace fraudulento era prominente en el panel lateral de resultados, lo que aumentaba el riesgo de que los usuarios hicieran clic en el sitio malicioso.
¿Cómo Impacta este Riesgo a las Marcas más Populares?
Kaspersky también analizó cómo este problema podría afectar a las marcas más populares, como Google, Facebook, Amazon, Microsoft y DHL. Afortunadamente, en estos casos, los resultados presentados por ChatGPT mostraron enlaces seguros y legítimos. Sin embargo, Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, advierte que, aunque ChatGPT generalmente proporciona enlaces a sitios legítimos, la plataforma no está exenta de seleccionar recursos sospechosos o fraudulentos. “El conocimiento de ChatGPT sobre marcas reconocidas puede ser una capa de seguridad adicional, pero no garantiza que no haya enlaces fraudulentos en las respuestas. Los ciberdelincuentes siempre encuentran nuevas formas de explotar los sistemas”, afirmó Manjarrez.
Recomendaciones de Seguridad de Kaspersky
Para protegerse de los riesgos de phishing y navegación en sitios maliciosos, Kaspersky recomienda seguir estas prácticas:
- Verificar los enlaces antes de hacer clic: Los ciberdelincuentes suelen utilizar URLs que se parecen a las originales, con pequeñas diferencias o errores sutiles.
- Guardar los enlaces de sitios importantes o escribir manualmente las URL para evitar caer en sitios fraudulentos.
- Utilizar soluciones de seguridad como Kaspersky Premium, que protege las carteras de criptomonedas y alerta sobre sitios sospechosos.
Navegación Segura en la Era Digital
La funcionalidad de búsqueda de ChatGPT es una herramienta poderosa que mejora la experiencia de los usuarios, pero también presenta riesgos de seguridad que no deben ser ignorados. Con la creciente amenaza de phishing SEO y sitios maliciosos, los usuarios deben estar alerta y tomar medidas de seguridad adicionales para protegerse contra estos ataques.