Un estudio reciente de la OECD – OCDE pone sobre la mesa los principales #riesgoséticos sobre el uso de la Inteligencia Artificial (IA) en el entorno laboral. El reconocimiento facial (RF) en los procesos de selección es un ejemplo claro del riesgo ético, si se basa la decisión de contratación en la #IA que se genera al utilizar soluciones de #RF para mejorar el acceso de personal.
Diversos estudios han puesto de manifiesto que el principal riesgo que tiene el uso de esta tecnología y sus algoritmos actuales, es la generación de sesgos. En EE.UU ya existen sentencias judiciales (en los estados de New York e Ilinois) prohibiendo su uso.
Es indudable que los sistemas #IA están cambiando los lugares de trabajo y potencialmente los van a mejorar, pero garantizar el uso confiable de la IA en ese entorno tan sensible, significa abordar los riesgos éticos que puede generar. El estudio de la OCDE revisa los posibles riesgos en términos de derechos humanos: privacidad, equidad y dignidad; transparencia y aplicabilidad; robustez, seguridad y protección y rendición de cuentas. El documento también revisa la acción que distintos piases, con sus políticas en curso, están promoviendo para hacer un uso confiable de la IA en el espacio laboral. La legislación existente para garantizar lugares de trabajo éticos debe aplicarse de manera efectiva y servir como base para la nueva política. Las iniciativas sobre IA de la economía y la sociedad, como la Ley de IA de la European Commission y el establecimiento de un marco regulado, desempeñarán un papel importante por las nuevas medidas específicas que se van a exigir, y que unido a los convenios colectivos pueden ayudar a llenar los vacíos existentes.