La IA como una pesadilla para el ser humano

Las promesas de la tecnología

Cada nueva tecnología es presentada como una promesa de mejora, como una razón para la esperanza de transformar las cosas para bien.

Incluso la bomba atómica se venció como una solución rápida para terminar la Segunda Guerra Mundial y como una forma de contención a las tentaciones bélicas entre países.

La Inteligencia Artificial se vende también como una esperanza para transformar, para bien, nuestras vidas. Así lo hace, por ejemplo, Google para publicitar sus productos basados en IA:

“Haciendo la IA útil para todos!

La IA como pesadilla para el ser humano

La IA puede convertirse en una pesadilla para las personas por sus sesgos y errores en el algoritmo que pueden perjudicar al ser humano en cuestiones como el análisis de crédito: por un error algorítmico o un error ortográfico o de tecleado del nombre, una IA puede negar un crédito o un trámite administrativo urgente a una persona.

Los sesgos de la IA son un problema serio

En casos aún más graves, la IA puede perjudicar los cuidados y tratamientos de salud de una persona. Al respecto, Mittermaier et al (2023) exponen que el sesgo que los algoritmos de IA perpetúan o incluso amplifican es una preocupación cada vez mayor en el ámbito de la atención sanitaria.

(En medicina) El sesgo suele definirse como una diferencia en el desempeño entre subgrupos para una tarea predictiva.

Por ejemplo, un algoritmo de IA utilizado para predecir el riesgo futuro de cáncer de mama puede sufrir una brecha de rendimiento en la que es más probable que los pacientes negros sean asignados incorrectamente como "bajo riesgo". (Mittermaier et al 2023)

Además, un algoritmo entrenado con datos hospitalarios de pacientes alemanes podría no funcionar bien en EE. UU., ya que pueden diferir la población de pacientes, las estrategias de tratamiento o los medicamentos. (Mittermaier et al 2023)

Los sesgos de la IA en el ámbito de redes sociales y la política La Inteligencia Artificial puede ser una pesadilla porque puede usarse para identificar patrones de conducta de usuarios con propósitos políticos, comerciales o propagandísticos, como el caso de Cambridge Analytics: