La seguridad del reconocimiento de voz no es a prueba de piratas informáticos!

Nuestra voz es única, similar a nuestro ADN, huellas dactilares, globos oculares, etc., pero eso no implica que nunca pueda ser falsificada. Los hackers han comenzado a atacar métodos no convencionales que tienen fama de ser extremadamente seguros. Uno de ellos es el reconocimiento de voz! Saben que las contraseñas están siendo protegidas y por lo tanto su nuevo objetivo es la autenticación multifactorial.

Si tomamos en serio las advertencias de la Comisión Federal de Comunicaciones (FCC) y del Better Business Bureau (BBB), entonces su voz no es totalmente a prueba de piratas informáticos. Emitieron esta advertencia después de que se identificara a las personas que llamaban por spam en enero de 2017. Esos llamadores de spam usaron varias técnicas y convencieron a los usuarios de decir la palabra «sí». Lo registraron y lo usaron para fraudes con tarjetas de crédito o cargos por servicios públicos.

Fuente:fortune.com

 

Por lo tanto, si usted piensa que reemplazar las contraseñas con la biométrica es seguro, entonces usted está equivocado. Ha habido casos en los que las huellas dactilares fueron clonadas, y el pirateo se hizo extremadamente fácil. Ahora, lo mismo está sucediendo con los comandos de voz también! Los hackers están de juerga para clonar tu voz, por las razones obvias. Una de las aplicaciones de reconocimiento de voz más utilizadas es la de los smartphones.

En este, usted utiliza su voz para desbloquear su teléfono que es nada menos que una mina de oro para los hackers. Usted guarda todo en sus smartphones, ya sean los datos de su tarjeta, las contraseñas de varias cuentas o sus fotos o vídeos personales. Los hackers sólo necesitan algunos clips de audio en tu voz para poder modificarlos y convertirlos en algo que les sea útil.

No lo tome como un engaño

Existen pruebas sustanciales que demuestran que la seguridad del reconocimiento de voz está a punto de verse comprometida. Los hackers de sombrero blanco han representado esto a través de la Prueba de Concepto en algunos casos. Recientemente, un grupo de investigadores del laboratorio del Instituto de Algoritmos de Aprendizaje de la Universidad de Montreal ha anunciado que pronto podrán imitar completamente cualquier voz con sólo utilizar audios grabados. Además, de acuerdo con Scientific American, existe una tecnología, la tecnología de las aves lira. Esto se basa en redes neuronales impulsadas por la IA y técnicas de aprendizaje profundo; puede convertir pequeños fragmentos de sonido en voz. No pasará mucho tiempo hasta que se usen contra usos en todo el mundo!

Fuente: information-age.com

 

Debe leerse : Estafas comunes de Cryptocurrency y cómo mantenerse seguro

Amenazas que pueden afectar la seguridad del reconocimiento de voz

Si tomamos una visión de las amenazas, ¡entonces encontraremos que hay demasiadas! Tomemos algunos ejemplos para probar lo mismo!

Robo de identificación de voz

Resulta que a pesar de que demasiadas amenazas y vulnerabilidades están asociadas con el reconocimiento de voz, clonar la voz de alguien es tan fácil como chasquear los dedos. También hay varias herramientas que fueron diseñadas para tareas creativas y legítimas, pero también están disponibles para personas con intenciones maliciosas. La clonación de voz afectará severamente la cuenta financiera de uno. ¿Preguntas cómo? Bueno, muchos bancos están ofreciendo verificación de voz y la gente está optando por ella!

Altavoces inteligentes

Recientemente, los ataques de ruido blanco a los asistentes de Smart dejaron claro que cualquier dispositivo controlado con voz puede verse comprometido con ruidos/comandos ocultos. Los hackers pueden hacer que tu asistente inteligente haga cosas para molestarte, como por ejemplo, poner música a todo volumen a horas extrañas. Imagine las consecuencias cuando estos asistentes inteligentes tienen el control de su sistema de seguridad para el hogar! Definitivamente no queremos que nada de eso suceda!

Voz de Deepfake

Esto no es sólo la fuente detrás de las noticias falsas, sino que también se considera el culpable de los videos falsos de celebridades. En esos clips, ¡hasta los audios parecían legítimos! ¿Preguntas cómo? Con el uso de la voz de Deepfake activada por Inteligencia Artificial. La misma técnica puede ser usada contra los plebeyos también. Si crear voces falsas se vuelve tan fácil, entonces este modo de verificación se caerá por el precipicio!

Fuente: theinstitute.ieee.org

También lea: Vulnerabilidades que intimidan la seguridad de su dispositivo

El veredicto final

Con los avances tecnológicos, existen oportunidades delictivas correspondientes para las personas con intenciones maliciosas. Los comandos de voz y los gadgets controlados por voz no serán una excepción. Por lo tanto, es crucial que usted tome medidas efectivas para protegerse! La clonación de voz definitivamente no es fácil de prevenir y detener la propagación. Además, todavía no hay nada que nos proteja de este tipo de ataques y por eso te recomendamos que los sigas:

  • No se registre para iniciar sesión de impresión de voz en sus cuentas financieras.
  • No conecte los altavoces inteligentes al sistema de seguridad del hogar.
  • Sea diferente de lo que ordena a sus asistentes personales como Cortana.
  • Asegúrese de realizar una auditoría interna (para organizaciones) y escanee sus sistemas (uso personal) para asegurarse de que está protegido.

No hay una forma segura de combatir esto, pero siempre podemos usar nuestra sabiduría y tomar precauciones básicas. Esto asegurará que no seamos la próxima víctima de una seguridad comprometida en el reconocimiento de voz! ¿Cuál es su opinión al respecto?

//

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *