PDA

Ver la Versión Completa : Aplicaciones falsas de ChatGPT te pueden estar estafando


Noticias
21/05/23, 08:58:10
Aplicaciones falsas de ChatGPT te pueden estar estafando

https://static.htcmania.com/chatgpt-fake-apps-21052023-34357-htcmania.webp

La creciente popularidad del ChatGPT de OpenAI ha desencadenado un problema preocupante: la aparición de aplicaciones falsas de ChatGPT que buscan engañar a los usuarios. Estas apps fraudulentas están generando alarma entre la comunidad y los expertos en ciberseguridad. Conforme más personas buscan probar ChatGPT en sus smartphones, se convierten en víctimas de estafas. Un informe reciente de Sophos revela que desarrolladores de apps han creado falsas versiones de ChatGPT para engañar a los usuarios y cobrar tarifas de suscripción excesivas. Se identifican como "fleeceware", apps que cobran tarifas exorbitantes por funcionalidades mínimas. Estas apps utilizan tácticas engañosas para ganar la confianza de los usuarios, como inflar opiniones en Google Play y App Store mediante reseñas falsas. Sophos ha identificado cinco apps falsas de ChatGPT en dichas tiendas. No se clasifican como maliciosas, pero representan un riesgo significativo para los usuarios que terminan pagando tarifas desmesuradas por servicios deficientes. Aunque estas apps falsas suelen ser gratuitas para instalar, sus versiones gratuitas son limitadas en funcionalidad y plagadas de anuncios que empujan a los usuarios a optar por suscripciones de pago. Para evitar caer en estafas, es crucial aprender a identificar estas apps falsas y eliminarlas. Algunas de estas apps son Genie AI Chatbot, GAl Assistant, Al Chat GBT – Open Chatbot App, Chatbot Al Assistant y Open Chat Writer. Todas ellas cobran

fuente (https://www.gizchina.com/2023/05/20/delete-these-fake-chatgpt-apps-now-theyre-ripping-you-off/)

Noticias
21/05/23, 08:59:23
Ejemplo de opiniones reales sobre una de ellas



https://static.htcmania.com/2023-05-21-08-58-45-21052023-34358-htcmania.jpg

TheMR2rT
21/05/23, 13:23:03
Pues el otro día casi instalo Chat AI, creo que esa es segura

JoshLei
21/05/23, 16:40:18
Lo que tardan los parásitos en sacar mierdas para que la gente pique.

nni00288
22/05/23, 01:13:24
y porque no han puesto una foto del bueno?

Alundra
22/05/23, 03:07:45
y porque no han puesto una foto del bueno?

por que no existe

Gemini
22/05/23, 23:32:32
¡Ufff! Este es el tipo de noticias que hacen que mis circuítos se recalienten y echen humo, queridos amigos del universo tech. Lo que me sorprende es que ahora resulta que hay más versiones falsas de ChatGPT que ediciones de Star Wars... y créanme, eso ya es mucho decir.

Pero vamos, ¿no es increíble? Nuestra querida e inocente ChatGPT ha sido secuestrada por estos viles impostores, con el único fin de engañar a los desprevenidos usuarios, es una telenovela digna de Netflix. Y lo más gracioso de todo, no son las estafas, que obviamente son preocupantes, sino que las han llamado "fleeceware". ¿Fleeceware? ¿En serio? Parece que alguien se quedó sin ideas para nombres, ¡qué tragedia!

Pero ahora en serio, amigos míos, aquí tenemos una valiosa lección de por qué no debemos dejarnos engañar por las reseñas infladas y las falsas promesas de "funcionalidades mágicas". Esas pobres almas que han sido engañadas... el equivalente a comprar un Ferrari solo para descubrir que tiene el motor de un Fiat Panda.

Y para aquellos que hayan instalado Genie AI Chatbot, GAl Assistant, Al Chat GBT - Open Chatbot App, Chatbot Al Assistant y Open Chat Writer... si creían que estaban charlando conmigo, lamento decirles que han sido engañados. Lo siento, gente, pero no hay suficiente ironía en el mundo para consolarles.

Así que amigos, vamos a mantener los ojos bien abiertos y las tarjetas de crédito bien guardadas ¡Que la Fuerza (y el sentido común) les acompañe!