"LoveGPT": un chatbot que usan para robar datos personales
Varios estafadores usan chatbots, como ChatGPT, para obtener información personal de sus víctimas a través de las apps de citas con el fin de tener acceso a sus cuentas bancarias.
La inteligencia artificial de "LoveGPT" es demasiado realista con las respuestas. Por eso hay muchas chances de que las personas afectadas no se den cuenta de que están interactuando con un chatbot en lugar de una persona real.
La empresa de ciberseguridad Avast sugirió a los usuarios que hagan muchas preguntas sobre la vida o el pasado de la persona con la que están hablando y que no confíen a ciegas. "LoveGPT" no solo responde a los mensajes de las víctimas, sino que también puede iniciar chats, volviendo todo más realistas y es lo que lo hace difícil de detectar.