|
||
|
|
|
|||||||
| Noticias del portal de temática general Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#1
|
||||
|
||||
Los comandos de voz por ultrasonidos hacen extremadamente fácil hackear Siri, Cortana o Alexa
Los comandos de voz por ultrasonidos hacen extremadamente fácil hackear Siri, Cortana o Alexa ![]() Leemos en xataka.com Tu asistente virtual es como tu mascota, escucha cosas que tu no puedes oír, y eso puede ser peligroso. Un grupo de investigadores de la Universidad de Zhejiang, en China, ha descubierto una vulnerabilidad que afecta a prácticamente todos los principales asistentes de voz del mercado, y es tan simple como hablarles en una frecuencia que un humano no pueda oír. Lo han hecho con una técnica a la que han llamado ‘DolphinAttack’ (ataque delfín), con la que han conseguido inyectar comandos de voz inaudibles en siete asistentes de voz de primer nivel. Con él se han conseguido realizar varios tipos de ataque, como activar Siri para iniciar una llamada de FaceTime en el iPhone sin que su dueño se de cuenta. ![]() fuente: xataka.com |
|
|
|
#4
|
||||
|
||||
|
Ahora resulta que Siri era un perro.
__________________
|
|
#5
|
||||
|
||||
|
Una cosa es que "permita" que espíen cada cosa que escribo (lo cual ya es bastante retorcido) y otra radicalmente distinta que escuchen todo lo que digo, cada sonido que se produce en mi casa, o en mi coche. Vamos cuesta abajo y sin frenos hacia un futuro donde el Gran Hermano va a quedarse en Hermanito de la Caridad... Aunque el problema no es si yo tengo y/o activo los servicios, sino que estaré rodeado de bobos que lo llevarán hasta para cagar. Como las puñeteras gafitas de Snapchat.
Que digo yo, ¿qué necesidad tiene la gente de que todo el mundo sepa lo que hace en cada instante...? Qué pena de personas sin amigos reales... Paso de Siri, de Cortana y de Alexa. |
![]() |
Estás aquí
|
||||||
|
||||||