La red social Twitter dijo el miércoles que lanzará una iniciativa sobre «aprendizaje de máquinas responsable» que incluirá revisiones sobre la equidad algorítmica en su plataforma.
La empresa, con sede en California, dijo que el plan tiene como objetivo ofrecer más transparencia sobre su inteligencia artificial y abordar «los potenciales efectos dañinos de las decisiones algorítmicas.»
La iniciativa surge en medio de una creciente preocupación por los algoritmos utilizados por los servicios en línea, que según algunos pueden promover la violencia, contenidos extremistas y reforzar los prejuicios raciales o de género.
«El uso responsable de la tecnología incluye el estudio de los efectos que puede tener a largo plazo», señalan en un blog Jutta Williams y Rumman Chowdhury, del equipo de ética y transparencia de Twitter.
Cuando Twitter utiliza el aprendizaje de máquinas o aprendizaje automático, «puede afectar a cientos de millones de tuits al día y, a veces, la forma en que un sistema fue diseñado para ayudar podría empezar a comportarse de manera diferente a la prevista», explicaron.
Según los investigadores, la iniciativa busca «asumir la responsabilidad de nuestras decisiones algorítmicas» con el objetivo de lograr «la equidad y la justicia en los resultados».
«También estamos construyendo soluciones de aprendizaje de máquinas que sean explicables, para que se puedan entender mejor nuestros algoritmos, lo que los informa y cómo impactan en lo que (el usuario) ve en Twitter».
Williams y Chowdhury dijeron que el equipo compartirá sus hallazgos con investigadores externos. «Para mejorar la comprensión colectiva de la industria sobre este tema, ayudarnos a mejorar nuestro enfoque y hacernos responsables».
Esta estrategia de Twitter se produce tras una serie de controversias en el equipo de ética de inteligencia artificial de Google, que han provocado el despido de dos investigadores de alto nivel y la dimisión de un científico de alto rango.