Un webinar sobre el futuro y los desafíos de la inteligencia artificial, organizado por la Universidad Paris Dauphine-PSL

Si bien la IA pronto será omnipresente en nuestras sociedades, es imperativo crear un marco ético para ella. A través del seminario web “Ciencia de datos, sesgo y ética” organizado por la Universidad Paris Dauphine – PSL, Marie Lange ofrece ejemplos de los sesgos que padece la IA, explica sus causas y sugiere soluciones …

La inteligencia artificial es la tecnología más revolucionaria del cambio de milenio. Transformando todas las industrias, interfiriendo con nuestra vida diaria, La inteligencia artificial alterará todos los aspectos de la sociedad.

Automatización del trabajo, vigilancia de grupos, reconocimiento facial, apoyo a la toma de decisiones … muchas de las posibilidades que ofrece la llegada del aprendizaje automático y la ciencia de datos. Sin embargo, si la IA está realmente presente en todas partes de nuestras vidas, es imperativo crear un marco ético.

Sin este marco Riesgos de abuso y riesgos Incontable. Como han temido los escritores de ciencia ficción durante décadas, la inteligencia artificial sin supervisión puede aumentar la desigualdad social, conducir a asesinatos inmorales en el campo de batalla e incluso poner en peligro el futuro de la humanidad.

Para abordar estos problemas críticos en el futuro y discutir posibles soluciones, Mary Lange habló durante el seminario web “. Ciencia de datos, sesgos y ética « Organizado por la Universidad Paris Dauphine – PSL.

Marie Lange es la actual fundadora de la consultora Data & IA AMASAI Responsable de presentación de datos en Adone Conseil. Pertenece al sector de las tecnologías de la información y el comercio electrónico, especialmente en el sector del lujo. La ética de la ciencia de datos está en el centro de sus preocupaciones.

READ  COVID-19 en Quebec | La variante británica podría ser la raza dominante esta primavera

Algunos ejemplos esclarecedores de sesgo en la inteligencia artificial

Para preparar el escenario y presentar el tema a los principiantes, la experta comenzó su introducción con algunos ejemplos de sesgos en el campo de la inteligencia artificial. El primer ejemplo es Joy Bulamoyne es investigadora del Instituto de Tecnología de Massachusetts, Quien se dio cuenta de que el software de reconocimiento facial no la reconocía. Porque ? El color de su piel. Una vez que usa la máscara blanca, AI ya no tiene ningún problema en reconocerla.

Siempre con el objetivo de aclarar este problema de discriminación, Mary también cita un estudio de los sistemas de reconocimiento facial de Microsoft e IBM. Este estudio muestra que La IA es mucho más “megener” que las personas de color De huevos. Si bien la tasa de error es solo del 1% para los hombres blancos, es del 35% para las mujeres de color.

Se mencionan otros ejemplos, como La aplicación FaceApp que blanquea a Barack Obama Para hacerlo aún más sexy, Google Photos muestra a dos personas negras como una pareja de gorilas, el asistente de voz Bixby de Samsung incapaz de entender las voces femeninas o el Traductor de Google que piensa que una mujer no puede ser doctora.

Aún más preocupante es que el programa Compass, utilizado en los Estados Unidos para decidir sobre las penas de prisión, parece ser el caso. Nadie esta convencidoEs más probable que la recreación vuelva a ser criminal. La observación es clara: hoy en día, AI tiene un problema real de discriminación étnica y de género.

READ  La 28a edición de los descubrimientos científicos de Quebec de este año

Ejemplos de sesgo

¿Cuáles son las causas del problema?

Para explicar este fenómeno de sesgo, Marie Lange se remonta a sus orígenes: el desarrollo de modelos de aprendizaje automático en los que se basan los sistemas de IA. Una oportunidad para comprender mejor cómo y cómo funciona esta tecnología. Falta de datos sobre minorías Durante la fase de formación puede tener consecuencias nefastas durante la producción …

Otras fuentes del problema también se ilustran con ejemplos concretos, como la falta de contexto, el sesgo de la empresa o la mala selección de datos en el proceso de aprendizaje automático. En general, aunque los errores de juicio pueden tener diferentes causas, estos diversos ejemplos ilustran esta La inteligencia artificial actualmente perpetúa los sesgos cognitivos Al ser humano.

A partir de los datos, oa través de las personas que los diseñan, la IA hereda sesgos que ya están envenenando las relaciones humanas en muchos países. Peor aún, tienden a Amplifica estos sesgos Por lo tanto, puede romper aún más el tejido social.

Soluciones de IA más éticas

Ante este panorama desolador, Marie Lange evoca posibles soluciones para abordar este problema que afecta a la IA. Es necesario, ante todo, hacer que los algoritmos sean interpretables y Evite operar la caja negraTambién trata con gigantes de la industria como IBM o Google Cloud.

El especialista menciona otros métodos, como procedimientos para conjuntos de datos calificados, Combatir la falta de diversidad Entre diseñadores de IA, educar a los usuarios, calcular y restar el sesgo de datos y utilizar herramientas de análisis de sesgo de presencia como IBM AI Fairness 360.

READ  COVID-19: Vea las regiones de Quebec y Levis más afectadas por los brotes de casos

La sensibilización ya ha comenzado y se están dando varias vías de mejora. La GAFAM formó un consorcio de ética de IALas universidades ofrecen cursos sobre este tema y las asociaciones piden más transparencia. La Comisión Europea también está preparando un marco legal en línea con el Reglamento General de Protección de Datos (GDPR).

Sin embargo, ante la proliferación masiva declarada de IA, es imperativo que estas medidas se adopten de manera integral y sistemática. Ir, China y EE. UU. Parecen mucho menos ansiosos Es a través de los problemas éticos de la inteligencia artificial que la Unión Europea …

Para saber todo sobre el tema, puede Vea el seminario web “Ciencia de datos, sesgo y ética” En esta dirección. Después de su presentación, Mary Lange también respondió las preguntas relacionadas de la audiencia.

Incluso antes de trabajar como consultora, Marie Lange comenzó a cuestionar la ética de la IA mientras se entrenaba en Paris Dauphine-PSL. Ya se graduó de la Maestría Ejecutiva en Estadística y Big Data en Educación Ejecutiva en Dauphine, Promoción de 2019. Esta educación continua produce expertos en ciencia de datos, con un punto de honor otorgado por la ética. Para obtener más información, visite el sitio web oficial de Paris Dauphine-PSL En esta dirección.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *