Washington, Estados Unidos. La inteligencia artificial parece estar «ampliando las desigualdades» y su despliegue debería ser objeto de estrictas regulaciones y límites, especialmente para tecnologías sensibles como el reconocimiento facial, advirtieron investigadores en un informe difundido este jueves.

El AI Now Institute, un centro de la Universidad de Nueva York que estudia las implicaciones sociales de la inteligencia artificial, dijo que a medida que estas tecnologías se han hecho más accesibles han comenzado a parecer sus efectos negativos.



Sistemas de IA (almacenaje y análisis de datos a gran escala, automatización de procesos, aprendizaje autónomo de máquinas…) están siendo implementados en sectores como la salud, la educación, el reclutamiento de personal o la justicia «sin salvaguardas o estructuras de control apropiadas», estiman los investigadores en el informe de 93 páginas.

Una preocupación especial es el uso de IA en «los servicios sociales, la vigilancia y seguimiento de inmigrantes y minorías».



«Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no».

El reconocimiento facial, ya muy expandido, y el reconocimiento de emociones por las máquinas, más incipiente, están siendo implementados muy rápidamente, según el estudio.

Los gobiernos y las empresas deberían detener el uso del reconocimiento facial «en contextos sociales y políticos sensibles», hasta que los riesgos sean mejor comprendidos, señalan.

La identificación de emociones por las máquinas debería ser simplemente prohibida. «No debería permitirse que juegue un papel en decisiones importantes que afecten a personas, como en entrevistas de trabajo, el precio de una póliza de seguro, consultas médicas o la evaluación de alumnos en la escuela», señaló el informe.

Los investigadores llaman a los ingenieros y desarrolladores a estar mejor informados sobre las implicaciones de los aparatos y programas que construyen y «denunciar los usos antiéticos o peligrosos de su trabajo».

De manera más general, advierten que el sector de la inteligencia artificial debe realizar «cambios estructurales» para garantizar que los algoritmos no refuercen el racismo o la falta de diversidad.

«La industria de la IA es terriblemente homogénea», critica el estudio.