Ahora la inteligencia artificial es capaz de saber cómo es tu cara simplemente escuchándote brevemente hablar.
Hoy día contamos con avances tecnológicos que no solo ayudan a que tengamos una vida mejor, sino que también pueden ser utilizados para realizar acciones que antes solo pensábamos que eran posibles en películas de ciencia ficción como la reconstrucción de un rostro únicamente escuchando la voz del sujeto.
Y es que ahora los científicos de inteligencia artificial del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT han mostrado los últimos avances sobre su algoritmo de inteligencia artificial llamado Speech2Face, y que originalmente ya se dio a conocer en 2019.
Este algoritmo es capaz de reconstruir el rostro de una persona utilizando sólo una primera grabación de audio de esa persona hablando, aunque ya te decimos que no es infalible.
Para llegar a esta tecnología, los investigadores primero diseñaron y entrenaron una red neuronal profunda utilizando millones de vídeos de YouTube que mostraban a personas hablando. En esta primera fase del entrenamiento, la inteligencia artificial fue capaz de aprender las correlaciones entre el sonido de las voces y el aspecto del hablante. Estas correlaciones permitieron hacer las mejores conjeturas en lo que respecta a la edad, el género y también el origen étnico.
Cabe aclarar que no hubo ningún tipo de participación humana en este primer proceso, ya que los investigadores no necesitaron etiquetar de forma manual ningún subconjunto de datos. De esta forma, la IA simplemente recibió una gran cantidad de vídeos y descubrió las correlaciones entre las características de la voz y las características faciales.
Para analizar más a fondo esta precisión en la reconstrucción de las caras, crearon un decodificador de caras que es capaz de formar una reconstrucción estandarizada de la cara de una persona a partir de un cuadro fijo mientras ignora las variaciones irrelevantes como la pose y la iluminación.