AI escuchaba las voces de la gente. Luego generó sus rostros.

¿Alguna vez has construido una imagen mental de una persona que nunca has visto, basada únicamente en su voz? La inteligencia artificial (IA) ahora puede hacer eso, generando una imagen digital de la cara de una persona usando sólo un breve clip de audio como referencia.

Nombrada Speech2Face, la red neuronal – una computadora que «piensa» de manera similar al cerebro humano – fue entrenada por científicos en millones de
A partir de este conjunto de datos, los investigadores escribieron en un nuevo estudio que Speech2Face aprendió las asociaciones entre las señales vocales y ciertas características físicas de un rostro humano. A continuación, la IA utilizó un clip de audio para modelar un rostro fotorrealista que coincidiera con la voz. 5 Usos intrigantes de la inteligencia artificial (que no son robots asesinos)]

Los hallazgos aparecen en la edición en línea del 23 de mayo de la revista preprint jounral arXiv y no han sido revisados por pares.

Afortunadamente, la IA (todavía) no sabe exactamente cómo es un individuo específico basándose sólo en su voz. La red neural reconoció ciertos marcadores en el habla que apuntaban al género, la edad y el origen étnico, características que comparten muchas personas, informaron los autores del estudio.

«Como tal, el modelo sólo producirá rostros de aspecto medio», escribieron los científicos. «No producirá imágenes de individuos específicos.»

AI ya ha demostrado que puede producir rostros humanos asombrosamente precisos, aunque sus interpretaciones de los gatos son francamente un poco aterradoras.

Los rostros generados por Speech2Face -todos de frente y con expresiones neutrales- no coincidían exactamente con las personas que estaban detrás de las voces. Pero las imágenes usualmente capturan los rangos de edad, etnias y géneros correctos de los individuos, según el estudio.

Sin embargo, las interpretaciones del algoritmo estaban lejos de ser perfectas. Speech2Face demostró un «rendimiento mixto» cuando se enfrentó a variaciones del lenguaje. Por ejemplo, cuando la IA escuchó un clip de audio de un hombre asiático que hablaba chino, el programa produjo una imagen de una cara asiática. Sin embargo, cuando el mismo hombre hablaba en inglés en un clip de audio diferente, la IA generaba la cara de un hombre blanco, informaron los científicos.

El algoritmo también mostró sesgo de género, asociando voces graves con rostros masculinos y voces agudas con rostros femeninos. Y debido a que el conjunto de datos de capacitación representa sólo
Otra preocupación sobre este conjunto de datos de video surgió cuando una persona que había aparecido en un video de YouTube se sorprendió al enterarse de que su imagen había sido incorporada al estudio, reportó Slate. Nick Sullivan, jefe de criptografía de la compañía de seguridad de Internet Cloudflare en San Francisco, inesperadamente vio su cara como uno de los ejemplos utilizados para entrenar Speech2Face (y que el algoritmo había reproducido de forma bastante aproximada).

Sullivan no había consentido en aparecer en el estudio, pero los
Publicado originalmente en Misterius.net .

También te puede interesar