TeChron GA

Reconocimiento facial para ‘predecir criminales’ desata disputa por sesgo de IA

Reconocimiento facial para ‘predecir criminales’ desata disputa por sesgo de IA

La afirmación de una universidad estadounidense de que puede usar el reconocimiento facial para «predecir la criminalidad» ha renovado el debate sobre el sesgo racial en la tecnología.

Investigadores de la Universidad de Harrisburg dijeron que su software «puede predecir si alguien es un criminal, basándose únicamente en una imagen de su cara».

El software «está destinado a ayudar a la policía a prevenir el delito», dijo.

Pero 1.700 académicos han firmado una carta abierta exigiendo que la investigación permanezca inédita.

Un miembro de la investigación de Harrisburg, un ex oficial de policía, escribió: «Identificar la criminalidad de [una] persona a partir de su imagen facial permitirá una ventaja significativa para las agencias de aplicación de la ley y otras agencias de inteligencia para prevenir la delincuencia»

Los investigadores afirmaron que su software funciona «sin prejuicios raciales».

Pero los organizadores de la carta abierta, Coalition for Critical Technology, dijeron: «Tales afirmaciones se basan en premisas, investigaciones y métodos científicos poco sólidos, que numerosos estudios que abarcan nuestras respectivas disciplinas han desmentido a lo largo de los años.

«Estas afirmaciones desacreditadas continúan resurgiendo».

El grupo señala «innumerables estudios» que sugieren que las personas pertenecientes a algunas minorías étnicas reciben un trato más severo en el sistema de justicia penal, distorsionando los datos sobre lo que supuestamente «parece» un criminal.

La investigadora en informática de la Universidad de Cambridge, Krittika D’Silva, que no se encuentra entre los firmantes, dijo: «Es irresponsable que cualquiera piense que puede predecir la criminalidad basándose únicamente en una imagen de la cara de una persona».

«Las implicaciones de esto son que el software de ‘predicción’ del delito puede causar daños graves, y es importante que los investigadores y los responsables políticos tomen en serio estas cuestiones.

«Numerosos estudios han demostrado que los algoritmos de aprendizaje automático, en particular el software de reconocimiento facial, tienen prejuicios raciales, de género y de edad», dijo, como un estudio de 2019 que indica que el reconocimiento facial funciona mal en mujeres y personas mayores y negras o asiáticas. personas.

La semana pasada, un ejemplo de tal falla se volvió viral en línea, cuando un escalador de inteligencia artificial que enfrenta «depixels» convirtió al ex presidente estadounidense Barack Obama en blanco en el proceso.

Fin de la publicación de Twitter por @ Chicken3gg

El escalador en sí mismo simplemente inventa nuevas caras basadas en una foto pixelada inicial, sin realmente apuntar a una verdadera recreación de la persona real.

Pero el equipo detrás del proyecto, Pulse, modificó su documento para decir que puede «iluminar algunos prejuicios» en una de las herramientas que utilizan para generar las caras.

En el caso de Harrisburg, la universidad había dicho que la investigación aparecería en un libro publicado por Springer Nature , cuyos títulos incluyen la prestigiosa revista académica Nature.

Pero después de la protesta, Springer tuiteó que no publicaría el artículo, sin proporcionar más detalles.

MIT Technology Review informa que el documento fue rechazado durante el proceso de revisión por pares.

Mientras tanto, la Universidad de Harrisburg retiró su propio comunicado de prensa «a petición de la facultad involucrada».

El documento se estaba actualizando «para abordar las preocupaciones», dijo .

Y aunque apoyaba la libertad académica, la investigación de su personal «no necesariamente refleja los puntos de vista y objetivos de esta universidad».

Mientras tanto, los organizadores de la Coalición para la Tecnología Crítica han exigido que «todos los editores deben abstenerse de publicar estudios similares en el futuro».

" class="prev-article">Previous article

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *