Un estudio sugiere que los sistemas de detección de peatones en los coches autónomos tienen menos probabilidades de detectar a niños y personas de color.

Un estudio indica que los sistemas de detección de peatones en coches autónomos no detectan bien a niños y personas de color.

  • Los detectores de peatones en los coches autónomos tienen menos probabilidades de detectar a niños y personas de color, según un estudio.
  • Esto se debe a los sesgos en la IA de código abierto, en la que se basan los coches autónomos, según los investigadores.
  • Los investigadores piden a los legisladores que promulguen políticas para regular estos detectores.

A medida que la revolución de la inteligencia artificial se acelera, una tendencia es clara: los sesgos en el entrenamiento de los sistemas de IA están dando lugar a prácticas discriminatorias en el mundo real.

Se ha demostrado que las herramientas de reclutamiento basadas en IA discriminan a las mujeres. ChatGPT ha demostrado tener sesgos racistas y discriminatorios. En todos los casos reportados de la policía que ha identificado erróneamente a un sospechoso debido a la tecnología de reconocimiento facial, esa persona ha sido negra.

Y ahora, nuevas investigaciones sugieren que incluso el software de detección de peatones en los coches autónomos puede ser menos efectivo para detectar a personas de color, así como a niños en general, como resultado de sesgos en la IA, poniéndolos en mayor riesgo de seguridad a medida que más fabricantes de automóviles utilizan esta tecnología.

Un equipo de investigadores del Reino Unido y China probó cuán bien funcionaban ocho populares detectores de peatones según la raza, género y edad de una persona. Si bien el género solo presentaba una pequeña discrepancia en la precisión, los investigadores encontraron que los sistemas de detección eran menos precisos al detectar peatones con tonos de piel oscuros.

“Antes, las personas de minorías podían haber sido negadas servicios vitales. Ahora podrían enfrentar lesiones graves”, dijo Jie Zhang, científico de la computación en el King’s College de Londres y miembro del equipo de investigación, en un comunicado.

Según el estudio, los sistemas de detección tenían un 19,67% más de probabilidades de detectar adultos que niños, y un 7,52% más de probabilidades de detectar personas con tonos de piel más claros que personas con tonos de piel más oscuros.

“En general, este estudio arroja luz sobre los problemas de equidad a los que se enfrentan los detectores de peatones actuales, enfatizando la importancia de abordar los sesgos relacionados con la edad y el tono de piel”, dice el estudio. “Los conocimientos obtenidos pueden allanar el camino hacia sistemas de conducción autónoma más justos e imparciales en el futuro”.

Esta tendencia es resultado de los sesgos ya presentes en los sistemas de IA de código abierto que muchas empresas utilizan para construir los detectores. Si bien el estudio no utilizó el software exacto que empresas como Tesla utilizan para impulsar los coches autónomos debido a que es confidencial, los sistemas de software utilizados en el estudio se basan en la misma IA de código abierto que utilizan esas empresas, según Zhang.

El equipo de investigación instó a los legisladores a regular el software de los coches autónomos para evitar sesgos en sus sistemas de detección.

“Es fundamental que los legisladores promulguen leyes y regulaciones que protejan los derechos de todas las personas y aborden estas preocupaciones adecuadamente”, dice el estudio.