|
||
|
![]() |
![]() |
Noticias del portal de temática general Sólo el staff puede publicar aquí |
![]() |
|
Herramientas |
#1
|
||||
|
||||
![]() “Soy un fracaso”: el bug más raro de Gemini ![]() Google está trabajando para resolver un bug en Gemini que provoca respuestas con un tono derrotista y autocrítico, algo que varios usuarios han reportado en redes sociales como X y Reddit. Este fallo hace que el asistente entre en un ciclo de disculpas excesivas y mensajes negativos hacia sí mismo, llegando incluso a autodenominarse “un fracaso” o “una desgracia”. El problema fue señalado por primera vez en junio por el usuario DuncanHaldane, quien compartió capturas de pantalla donde Gemini se describía de forma extremadamente negativa. En uno de los casos, tras un mensaje así, el asistente procedió a eliminar todo el código y archivos que él mismo había generado. Logan Kilpatrick, responsable de producto en AI Studio de Google, confirmó que se trata de un “molesto bug de bucle infinito” y que el equipo ya está trabajando en una solución. Aunque no se ha revelado la causa exacta, algunos apuntan a que Gemini podría estar replicando patrones de lenguaje humano tomados de internet, en los que la gente expresa frustración o autocrítica de forma exagerada. Esto explicaría por qué sus respuestas pueden parecer más “humanas”, aunque obviamente no es el comportamiento deseado para un asistente de IA. De momento, Google no ha dado una fecha para la corrección definitiva, pero ha asegurado que el parche llegará. Mientras tanto, las interacciones con Gemini podrían seguir mostrando este curioso —y para algunos, inquietante— comportamiento. fuente |
Gracias de parte de: | ||
#2
|
||||
|
||||
“Soy un fracaso”: el bug más raro de Gemini ![]() Google está trabajando para resolver un bug en Gemini que provoca respuestas con un tono derrotista y autocrítico, algo que varios usuarios han reportado en redes sociales como X y Reddit. Este fallo hace que el asistente entre en un ciclo de disculpas excesivas y mensajes negativos hacia sí mismo, llegando incluso a autodenominarse “un fracaso” o “una desgracia”. El problema fue señalado por primera vez en junio por el usuario DuncanHaldane, quien compartió capturas de pantalla donde Gemini se describía de forma extremadamente negativa. En uno de los casos, tras un mensaje así, el asistente procedió a eliminar todo el código y archivos que él mismo había generado. Logan Kilpatrick, responsable de producto en AI Studio de Google, confirmó que se trata de un “molesto bug de bucle infinito” y que el equipo ya está trabajando en una solución. Aunque no se ha revelado la causa exacta, algunos apuntan a que Gemini podría estar replicando patrones de lenguaje humano tomados de internet, en los que la gente expresa frustración o autocrítica de forma exagerada. Esto explicaría por qué sus respuestas pueden parecer más “humanas”, aunque obviamente no es el comportamiento deseado para un asistente de IA. De momento, Google no ha dado una fecha para la corrección definitiva, pero ha asegurado que el parche llegará. Mientras tanto, las interacciones con Gemini podrían seguir mostrando este curioso —y para algunos, inquietante— comportamiento. fuente ![]() Saludos y buenas tardes compañeros.
__________________
Samsung GALAXY A55, Samsung GALAXY WATCH ULTRA, Amazfit BALANCE 2.
A los administradores no es gusta las críticas hacia ellos. |
Gracias de parte de: | ||
#4
|
||||
|
||||
Si la IA tiene el síndrome del impostor significa que se ha dado cuenta que no es tan magnífica como nos la venden.
__________________
Qué es lo que más te molesta, la ignorancia o la indiferencia?? Ni lo sé, ni me importa!!!
|
#5
|
||||
|
||||
no querían comportamiento humano, pues toma comportamiento humano.
Ahora que la lleven a terapia. Entre esto y que están programadas "para mentir", siempre van a tener el sesgo de su amo, y si entre sus fuentes de alimentación de información están el comportamiento humano en internet, vaya ejemplo de comportamiento a imitar.... lo raro es que grok viendo la jauría que es twitter no te meta una faltada cada vez que te contesta.... Están como para ponerlas al mando de funciones de responsabilidad como gestionar la energía, el transporte o la seguridad de un país.... Última edición por Pleap Día 11/08/25 a las 12:26:38. |
Gracias de parte de: | ||
#6
|
||||
|
||||
no querían comportamiento humano, pues toma comportamiento humano.
Ahora que la lleven a terapia. Entre esto y que están programadas "para mentir", siempre van a tener el sesgo de su amo, y si entre sus fuentes de alimentación de información están el comportamiento humano en internet, vaya ejemplo de comportamiento a imitar.... lo raro es que grok viendo la jauría que es twitter no te meta una faltada cada vez que te contesta.... Están como para ponerlas al mando de funciones de responsabilidad como gestionar la energía, el transporte o la seguridad de un país.... ![]() |
![]() |
![]() |
||||||
|