- El primer borrador de Reglamento de la UE sobre IA es parte de un esfuerzo más amplio para desarrollar IA centrada en el ser humano mediante la eliminación de errores y sesgos para garantizar que sea segura y confiable.
- El reglamento incluye requisitos para minimizar el riesgo de discriminación algorítmica, en particular en relación con la calidad de los conjuntos de datos utilizados para el desarrollo de sistemas de IA.
- También introduce la supervisión humana de ciertos sistemas de IA para prevenir o minimizar los riesgos para la salud, la seguridad o los derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA.
Lejos de ser ciencia ficción, la inteligencia artificial ya forma parte de nuestras vidas. Desde vehículos autónomos hasta asistentes personales virtuales, la IA es una realidad.
Más allá de simplificar nuestras vidas, la IA promete traer una variedad de beneficios económicos y sociales para la sociedad. Desde el cuidado de la salud hasta la movilidad, en el sector público y las finanzas, la IA es una tecnología de rápida evolución que puede resolver algunos de los mayores desafíos del mundo. Puede conducir a resultados beneficiosos sociales y ambientales y, al mismo tiempo, apoyar a cualquier tipo de negocio ayudándoles a conocer e interactuar mejor con sus clientes, mejorando la predicción, acelerando la producción y optimizando las operaciones y la asignación de recursos.
Sin embargo, junto con innumerables beneficios socioeconómicos, no es sorprendente que la IA también pueda introducir nuevos riesgos en nuestra sociedad y que, entre esos desafíos, las implicaciones éticas sean probablemente las más sutiles e insidiosas.
Para posibilitar avances científicos y garantizar que las tecnologías de la IA estén al servicio de todos los ciudadanos, mejorando sus vidas y respetando sus derechos, la Comisión Europea propuso el primer borrador de Reglamento sobre IA .
El proyecto de ley es solo una parte de una importante estrategia europea para la IA presentada por la Comisión Europea en 2018 para abordar las oportunidades y desafíos de la IA y promover, al mismo tiempo, los valores europeos . Sin embargo, perseguir el doble objetivo de promover el desarrollo – y el despliegue – de la IA y abordar los riesgos asociados con ciertos usos de esta nueva tecnología, implica una evaluación compleja y decisiones éticas y regulatorias difíciles, especialmente cuando surge el riesgo de discriminación.
No es inmune a errores y sesgos.
La IA realiza funciones que anteriormente solo podían realizar los humanos. En consecuencia, estamos sujetos progresivamente a las decisiones tomadas por los sistemas de IA o con la ayuda de ellos. Sin embargo, creer que la IA es por defecto inmune a los prejuicios y, por lo tanto, no puede discriminar a individuos o grupos de personas, es un error peligroso: la IA puede perpetuar ciertos prejuicios o incluso amplificarlos.
Como señaló la Comisión Europea en su Libro Blanco de 2020 sobre IA , el sesgo y la discriminación son riesgos inherentes a cualquier actividad social o económica, y la IA no es invulnerable a errores y sesgos. De hecho, dependiendo de la entrada de datos que se utilice para entrenar y probar los sistemas de IA, sus salidas pueden estar sesgadas.
Por ejemplo, ciertos algoritmos de inteligencia artificial implementados para predecir la reincidencia delictiva muestran prejuicios de género y raza , lo que demuestra una probabilidad de predicción de reincidencia diferente para mujeres frente a hombres o para nacionales frente a extranjeros.
De manera similar, ciertas herramientas de reconocimiento facial basadas en IA han demostrado pocos errores para determinar el género de los hombres de piel más clara, pero altos errores en la determinación del género para los de piel más oscura, mostrando así prejuicios de género y raza.
Sin duda, los resultados sesgados pueden conducir a violaciones de nuestros derechos fundamentales, desde nuestra libertad de expresión o asociación (ver los efectos de la vigilancia indiscriminada realizada por los sistemas de reconocimiento facial) hasta la no discriminación, especialmente cuando las decisiones sesgadas de AI se basan en el sexo, la raza o la discriminación. origen étnico, religión, discapacidad, edad u orientación sexual (por ejemplo, en el acceso al empleo o en la aprobación de un préstamo).
Los resultados sesgados por la IA y los efectos discriminatorios se deben principalmente a dos factores:
- El uso de conjuntos de datos de entrenamiento de baja calidad (por ejemplo, el sistema de IA se entrena utilizando principalmente datos de hombres que conducen a resultados subóptimos en relación con las mujeres);
- La falta de transparencia de la IA (o la “opacidad de la IA”) que dificulta la identificación de posibles fallas en el diseño del sistema de IA.
El enfoque de la UE
Para mitigar el riesgo de decisiones erróneas o sesgadas asistidas por IA en áreas críticas, como la salud y el empleo, la Comisión Europea prevé un enfoque multifacético.
El anteproyecto de Reglamento incluye requisitos que tienen como objetivo minimizar el riesgo de discriminación algorítmica, en particular en relación con la calidad de los conjuntos de datos utilizados para el desarrollo de sistemas de inteligencia artificial, acompañados de obligaciones de pruebas, gestión de riesgos, documentación y supervisión humana en todo el Ciclo de vida de los sistemas de IA.
De hecho, cuando se recopilan datos, pueden reflejar sesgos construidos socialmente o contener inexactitudes, errores y equivocaciones. Los conjuntos de datos utilizados por los sistemas de IA, tanto para el entrenamiento como para el funcionamiento, también pueden sufrir la inclusión de sesgos históricos inadvertidos que podrían conducir a una discriminación indirecta. De manera similar, la forma en que se desarrollan los sistemas de IA (por ejemplo, la forma en que se escribe el código de programación de un algoritmo) también puede sufrir sesgos, a menudo inherentes a los desarrolladores humanos.
Por lo tanto, los conjuntos de datos de capacitación, validación y prueba deben estar sujetos a prácticas adecuadas de gobernanza y gestión de datos que deben tener en cuenta:
- las opciones de diseño relevantes;
- la recopilación de datos;
- las operaciones de procesamiento de preparación de datos relevantes;
- la formulación de supuestos relevantes, especialmente con respecto a la información que se supone que los datos miden y representan;
- la evaluación previa de la disponibilidad, cantidad e idoneidad de los conjuntos de datos requeridos;
- el examen en vista de posibles sesgos;
- la identificación de posibles lagunas o deficiencias de datos y posibles soluciones.
Además, para evitar resultados que impliquen una discriminación prohibida, cada conjunto de datos de capacitación, validación y prueba debe ser relevante, representativo, sin errores y completo. También deben tener las propiedades estadísticas apropiadas, incluso en lo que respecta a las personas o grupos de personas en las que se pretende utilizar el sistema de inteligencia artificial, especialmente para garantizar que todas las dimensiones relevantes de género, etnia y otros posibles motivos de discriminación prohibida se reflejen adecuadamente en esos conjuntos de datos.
Curiosamente, la propuesta también establece que, en la medida en que sea estrictamente necesario para garantizar el seguimiento, la detección y la corrección del sesgo de la IA, los proveedores de IA pueden procesar categorías especiales de datos personales, como datos de salud y aquellos que revelen el origen étnico, opiniones políticas. , creencias religiosas u orientación sexual, sujeto a las salvaguardias adecuadas. Entre ellas se incluyen las limitaciones técnicas sobre la reutilización y el uso de medidas de seguridad y de preservación de la privacidad de última generación, como la seudonimización o el cifrado, cuando la anonimización puede afectar significativamente al objetivo perseguido.
Artículo completo en https://www.weforum.org/agenda/2021/05/ai-and-ethical-concerns-what-the-eu-is-doing-to-mitigate-the-risk-of-discrimination/
Por: World Economic Forum
Comments are closed