Los hackers podrían ahora robar contraseñas a través de Zoom escuchando las pulsaciones de teclas utilizando inteligencia artificial, y acertarán el 93% de las veces, según un estudio.

Según un estudio, los hackers pueden robar contraseñas en Zoom con inteligencia artificial y acertar el 93% de las veces.

  • La IA puede robar contraseñas a partir de los sonidos de las pulsaciones grabados en Zoom con una precisión de hasta el 93%, según un nuevo estudio.
  • La tasa de precisión aumentó al 95% cuando las pulsaciones se grabaron usando un iPhone 13 mini.
  • “Las contraseñas que contienen palabras completas pueden estar en mayor riesgo de ataque”, según el estudio.

Una herramienta de IA podría descifrar texto, incluyendo contraseñas, a partir de los sonidos de las pulsaciones grabadas en Zoom y tener éxito más de nueve veces de cada diez, según un grupo de investigadores en un artículo publicado el 3 de agosto.

Un modelo de IA desarrollado por los investigadores mostró una tasa de precisión del 93% al descifrar las pulsaciones a partir de una grabación de las pulsaciones de un MacBook realizada a través del software de videoconferencia Zoom, según un grupo de investigadores afiliados a la Universidad de Durham, la Universidad de Surrey y la Universidad Royal Holloway de Londres.

Además, la tasa de precisión aumentó al 95% cuando las pulsaciones se grabaron usando un iPhone 13 mini.

Los investigadores señalaron que los “ataques acústicos de canal lateral” son una amenaza creciente para los teclados. Los ataques de canal lateral se utilizan por parte de los hackers para explotar información, como la cantidad de energía que está utilizando su computadora o los sonidos de las pulsaciones, en lugar de atacar directamente el código del sistema.

Para su experimento, el equipo utilizó un MacBook Pro de 16 pulgadas del 2021, destacando su diseño de teclado consistente con otros modelos recientes de MacBook.

Su herramienta de IA se basó en “aprendizaje profundo”, un subconjunto del aprendizaje automático que entrena a las computadoras para analizar datos de manera similar a cómo funciona el cerebro humano.

El estudio también destacó posibles contramedidas. “Las contraseñas que contienen palabras completas pueden estar en mayor riesgo de ataque”, según los autores del estudio. La escritura a máquina y agregar ruido de fondo también parecían disminuir la tasa de precisión de la herramienta de IA.

Los autores dijeron que si bien este tipo de ataques no se han estudiado lo suficiente, tienen una larga historia. Incluso se mencionaron las “emanaciones acústicas” como una vulnerabilidad en un documento parcialmente desclasificado de la NSA de 1982, escribieron los autores.

El estudio se suma a las preocupaciones recientes sobre cómo las herramientas de IA podrían usarse para comprometer la seguridad y la privacidad.

Las herramientas de IA pueden hacer que sea más difícil detectar estafas en línea porque la IA facilita la personalización de las estafas para cada objetivo, informó Insider el martes pasado.

Dos especialistas alertaron en 2019 sobre cómo el avance de la IA y la tecnología 5G aumentaría las vulnerabilidades en los dispositivos conectados a Internet, amplificando las amenazas de ciberseguridad.

Los autores del estudio no respondieron de inmediato a una solicitud de comentarios de Insider, enviada fuera del horario comercial habitual.