Durante miles de años, la medicina ha funcionado bajo el supuesto de que los cuerpos blancos y masculinos representan a la humanidad como un todo, el problema quizás no sea tanto a quién tener en cuenta o a quién no, sino que como resultado de esta ignorancia recurrente a los cuerpos femeninos, tenemos muchos datos pero todos sesgados. ¿Cuál es el resultado de llevar toda una vida recopilando sólo los datos que interesaban? La brecha de datos de género es una consecuencia directa de la presunción de que lo masculino es universal.
Hablar de productos cuyo proceso de diseño ha estado sesgado por falta de información es excluyente, pero hablar de diseñar avances en el campo de la salud con un sesgo tan grande no es excluyente sino que es negarles la salud y la integridad física a muchas personas.
Si no hay investigadoras, no habrá datos.
Cuando Tania Boler fundó el entrenador de suelo pélvico Elvie, en 2013, no había datos que mostraran la variabilidad en las vaginas: «Casi no había nada, especialmente si lo comparas con los miles de estudios sobre penes». Lo que supuso una ausencia de datos para poder demostrar que valía la pena financiar su idea. Otra idea al saco de las ideas que no le interesan a nadie.
El libro “La mujer invisible” del que ya hemos hablado en varias ocasiones, expone cómo la sanidad “discrimina sistemáticamente a las mujeres, dejándolas crónicamente incomprendidas, maltratadas y mal diagnosticadas”.
Una vez más, el riesgo que yo veo es sin duda el camino que la medicina va a ir tomando de la mano de la inteligencia artificial. ¿Qué respuestas nos puede dar un test online diseñado a partir de datos sesgados? Historias para no dormir.
La inteligencia artificial en la salud, ¿solución o problema?.
Cuando Apple lanzó con gran ostentación su sistema de monitorización de la salud en 2014, se jactó de tener un monitor de salud “integral”. Podía controlar la tensión arterial, contar los pasos que damos al día, el nivel de alcohol en sangre o incluso la ingesta de cobre y molibdeno. Sin embargo, de entre absolutamente todo lo que estaba incluido en su sistema informático, no vieron importante monitorear el ciclo menstrual.
Podríamos hablar de un despiste si no fuera por el constante olvido de las necesidades de las mujeres. Cuando Apple lanzó Siri, no se olvidaron de que su voz sonara complaciente y femenina pero sí de que este robot pudiera ayudarnos en caso de decir “Me han violado”. Sin embargo, sí que nos ayudaba en caso de avisarle de un ataque al corazón. Supongo que este tipo de situaciones de extrema urgencia que muy eficientemente podrían ser resueltas solo con pedirlo a un robot y que este llamara al servicio de urgencias no se tuvo en cuenta porque, una vez más, nadie pensó en nadie que no fuese él mismo.