Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Estudio | Investigación | Inteligencia artificial | Errores

Un estudio revela el impacto del error de la inteligencia artificial en las decisiones humanas

La investigación plantea importantes preguntas sobre la implementación de sistemas automatizados
Redacción
miércoles, 3 de abril de 2024, 12:19 h (CET)

La investigación llevada a cabo por Bikolabs y la Universidad de Deusto revela que la inteligencia artificial impacta en los procesos de toma de decisiones, destacando la necesidad de investigar cómo los humanos pueden convertirse en salvaguarda ante decisiones algorítmicas erróneas o sesgadas.


Este estudio no solo ofrece una visión detallada de cómo la IA influye en las decisiones (tanto judiciales, como en todas aquellas en las que humanos e IA interactúen), sino que también plantea importantes preguntas sobre la implementación de sistemas automatizados.


Impacto error IA 2


En un mundo donde la tecnología avanza rápidamente, la Inteligencia Artificial (IA) está desempeñando un papel cada vez más prominente en la toma de decisiones en diversos ámbitos. En este sentido los algoritmos de IA se están integrando cada vez más en los procesos de toma de decisiones del sector público, pero ¿qué ocurre cuando estos algoritmos cometen errores? Un estudio llevado a cabo por investigadores de Bikolabs (JAKALA) en colaboración con la Universidad de Deusto, sugiere que la supervisión humana en estos procesos, conocidos como procesos "human-in-the-loop", puede verse afectada si la IA proporciona un soporte algorítmico incorrecto.


La incorporación de sistemas automatizados de apoyo a la toma de decisiones se ha vuelto cada vez más común. Esta investigación analiza cómo estos algoritmos influyen en el juicio humano, revelando que la confianza excesiva en el apoyo algorítmico incorrecto puede disminuir la precisión de las decisiones.


Este fenómeno, conocido como sesgo de automatización, resalta la tendencia humana a depender en exceso de los sistemas automatizados, incluso cuando estos cometen errores. Los investigadores diseñaron dos experimentos simulando procesos automatizados de toma de decisiones en el ámbito judicial, donde los participantes tenían que juzgar a varios acusados de diferentes delitos. Los resultados mostraron que el juicio humano fue más acertado cuando se emitió antes de recibir un apoyo incorrecto de la IA. Sin embargo, una vez que los participantes vieron una evaluación errónea de la IA, la tasa de acierto se redujo, incluso en aquellos que habían juzgado correctamente al principio del proceso. Este hallazgo pone de relieve la influencia potencialmente perjudicial del apoyo de IA incorrecto en la precisión de las decisiones humanas, subrayando la importancia del orden en el que se presenta la información.


Este estudio no solo ofrece una visión detallada de cómo la IA influye en las decisiones judiciales, sino que también plantea importantes preguntas sobre la implementación de sistemas automatizados.


La investigación también reveló un desafío persistente: la tendencia humana a confiar excesivamente en el apoyo de los sistemas. Este fenómeno puede llevar a los usuarios a aceptar

acríticamente las recomendaciones de la IA, incluso cuando son erróneas, lo que plantea preocupaciones significativas sobre la equidad, la corrección y la ética de las decisiones automatizadas. Estos hallazgos sugieren que, mientras la IA tiene el potencial de mejorar la toma de decisiones, es esencial abordar y mitigar el impacto de sus errores y sesgos para asegurar procesos de decisión justos y precisos.


El estudio también hace referencia a un caso concreto, el sistema RisCanvi, utilizado para evaluar el riesgo de reincidencia de los reclusos en Cataluña, España, que ha sido objeto de debate en el ámbito judicial. A pesar de su implementación, estudios recientes revelan una discrepancia mínima del 3.2% entre los funcionarios gubernamentales y el algoritmo del sistema. Aunque RisCanvi muestra una capacidad predictiva positiva del 18%, lo que indica que solo dos de cada diez reclusos clasificados como de alto riesgo reinciden, esta limitación no es evidente para quienes lo utilizan. Estos hallazgos destacan la necesidad de una mayor transparencia y comprensión sobre el rendimiento de los sistemas de evaluación de riesgos.


Las conclusiones de esta investigación no solo arrojan luz sobre los desafíos inherentes a la interacción humano-IA, sino que también apuntan una perspectiva valiosa sobre cómo optimizar esta colaboración para mejorar la precisión y la justicia en decisiones críticas. Estos descubrimientos subrayan la importancia de un diseño y una implementación cuidadosos de los sistemas de IA, así como la necesidad de una supervisión humana informada y crítica.


“Nuestro trabajo muestra la relevancia de seguir investigando sobre el impacto de la interacción entre humanos y sistemas de ayuda a decisión. Aunque se están comenzado a realizar auditorías de este tipo de sistemas, su foco suele centrarse en la parte más técnica. Por ello, seguimos necesitando descubrir cuál debería ser ese proceso de interacción entre humanos e IA que realmente derive en mejores decisiones”, afirman desde JAKALA, Karlos G Liberal, responsable del área de tecnología e Investigación y Ujué Agudo investigadora dentro del mismo departamento.

Noticias relacionadas

España sigue lejos de alcanzar el 25% de empresas que utilicen Inteligencia Artificial y Big Data en 2025. Así queda marcado en la ruta de objetivos del documento España Digital 2025, que situaba esa cifra como meta para el próximo año. Sin embargo, según los datos estudiados por la tecnológica Pandora FMS, las empresas nacionales siguen lejos de ese porcentaje.

2024 quedará en el recuerdo por el incremento exponencial de ciberataques. Solo en el último año, los secuestros de datos, llamados ransomware, crecieron un 40% y los delitos de robo de identidad y fraude hicieron lo propio en un 15%. Este año ha estado marcado por acontecimientos que han puesto en jaque la seguridad digital de instituciones públicas (CSIC) y privadas (Banco Santander, Mutua Madrileña y otros).

Cómo proteger tus datos personales al comprar online - Compra en sitios seguros: Verifica que la URL del sitio comience con “https://” y que haya un candado en la barra de direcciones.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto