El uso de la inteligencia artificial promete grandes cosas para la predicción y tratamiento de enfermedades. Sin embargo, los riesgos legales y éticos no son menos importantes: la venta de datos, el uso irresponsable de los mismos, la discriminación por conocimiento de enfermedades futuras y el destino de la profesión médica son algunos de ellos.

El uso de la inteligencia artificial en la medicina está provocando mucho entusiasmo y esperanza para el avance de tratamientos.

La inteligencia artificial generalmente se refiere a la capacidad que tienen las computadoras de imitar la inteligencia humana y aprender. Por ejemplo, los científicos están trabajando para desarrollar algoritmos que los ayuden a tomar decisiones sobre el tratamiento del cáncer, usando el aprendizaje robótico. Esperan que las computadoras analicen imágenes radiológicas y disciernan qué tumores cancerosos responderán bien a la quimioterapia y cuáles no.

Pero la inteligencia artificial en la medicina también plantea desafíos éticos y legales importantes. Varios de estos responden a preocupaciones sobre la privacidad, la discriminación, el daño psicológico y la relación médico-paciente. En otro artículo sostengo que la legislación tendría que establecer una serie de salvaguardas en torno a la inteligencia artificial, tal como lo hizo cuando las pruebas genéticas se volvieron comunes.

Ilustración: Víctor Solís

Potencial de discriminación

La inteligencia artificial implica el análisis de grandes cantidades de datos para discernir patrones que luego se utilizan para predecir la probabilidad de sucesos futuros. En la medicina, el conjunto de datos puede provenir de registros de salud electrónicos y declaraciones de los seguros de salud, pero también de otras fuentes. La inteligencia artificial puede recurrir a registros de compras, datos sobre el ingreso, antecedentes penales e incluso redes sociales, para obtener información sobre la salud de un individuo.

Los investigadores ya están usando la inteligencia artificial para predecir una multitud de condiciones médicas, que incluyen enfermedades cardíacas, derrames cerebrales, diabetes, deterioro cognitivo, futuro abuso de opioides e incluso suicidio. Como ejemplo: Facebook usa un algoritmo que hace predicciones de suicidio basadas en publicaciones con frases como "¿Estás bien?" Junto con "Adiós" y "Por favor, no hagas esto".

Esta capacidad predictiva de la inteligencia artificial plantea retos éticos a la atención médica. Si ésta genera predicciones sobre nuestra salud, yo creo que esa información algún día podría incluirse en registros de salud electrónicos. Cualquier persona con acceso a nuestros registros de salud podría hacer predicciones sobre el deterioro cognitivo o el abuso de opioides. [En Estados Unidos], docenas o incluso cientos de médicos y administradores ven los registros médicos de pacientes durante el curso de un tratamiento médico. E incluso son los propios pacientes quienes a menudo autorizan a otros a acceder a sus registros, por ejemplo, cuando solicitan un empleo o un seguro de vida.

Los gigantes de la industria de corredores de bolsa como LexisNexis y Acxiom también están extrayendo datos personales y participando en actividades con la inteligencia artificial. Estos, en consecuencia, podrían vender predicciones médicas a terceros, incluidos vendedores, empleadores, prestamistas, aseguradoras de vida y otros. Debido a que estos negocios no son proveedores o aseguradores de atención médica, la Regla de Privacidad de HIPAA [para el caso estadounidense] no se aplica a ellos. Por lo tanto, no tienen que pedir permiso a los pacientes para obtener su información y pueden divulgarla libremente.

Dichas revelaciones pueden conducir a la discriminación. Los empleadores, por ejemplo, están interesados en trabajadores que sean saludables y productivos, con pocas ausencias y bajos costos médicos. Si creen que ciertos solicitantes desarrollarán enfermedades en el futuro, probablemente los rechacen. Los prestamistas, propietarios, aseguradores de vida y otros también podrían tomar decisiones adversas sobre las personas en función de las predicciones de la inteligencia artificial.

Falta de protección

La Ley de Estadounidenses con Discapacidades no prohíbe la discriminación basada en futuros problemas médicos, sólo se aplica a dolencias actuales y pasadas. En respuesta a las pruebas genéticas, el Congreso estadounidense promulgó la Ley de no discriminación de información genética. Esta ley prohíbe que los empleadores y las aseguradoras de salud consideren la información genética y tomen decisiones basadas en supuestos relacionados con las condiciones futuras de salud de las personas. Ninguna ley impone una prohibición similar con respecto a los datos predictivos no genéticos.

Las predicciones de salud que hace la inteligencia artificial también pueden provocar daños psicológicos. Por ejemplo, muchas personas podrían quedar traumatizadas si se enteraran de que probablemente sufrirán deterioro cognitivo. También es posible que las personas obtengan pronósticos de salud directamente de entidades comerciales que compraron sus datos; imagine obtener la noticia de que está en riesgo de tener demencia, mediante un anuncio electrónico que insiste en que compre productos para mejorar la memoria.

Cuando se trata de pruebas genéticas, se aconseja a los pacientes que busquen asesoramiento para que decidir cuidadosamente si se deben realizar una prueba y comprender mejor los resultados de ésta. Cuando se trata del uso de la inteligencia artificial, no existen consejeros que brinden servicios similares a los pacientes.

Otra preocupación tiene que ver con la relación médico-paciente. ¿La inteligencia artificial disminuirá el papel de los médicos? ¿Serán las computadoras las que harán predicciones, diagnósticos y sugerencias de tratamiento para que los médicos simplemente las implementen? ¿Cómo se sentirán los pacientes con respecto a sus médicos si las computadoras tienen más voz en la toma de decisiones médicas?

Estas preocupaciones se ven exacerbadas por el hecho de que las predicciones de inteligencia artificial están lejos de ser infalibles. Muchos factores pueden contribuir a errores. Por ejemplo, si los datos utilizados para desarrollar un algoritmo son defectuosos o si utilizan registros médicos que contienen errores, la salida del algoritmo será incorrecta. Por lo tanto, los pacientes pueden sufrir discriminación o daño psicológico cuando, de hecho, no corren el riesgo de sufrir las enfermedades previstas.

Una llamada a ser precavidos

¿Qué se puede hacer para proteger al público estadounidense? En el pasado, he defendido la expansión de la Regla de Privacidad de HIPAA para que cubra a cualquier persona que maneje información de salud con fines comerciales. Las protecciones de privacidad deben aplicarse no sólo a los proveedores y aseguradores de atención médica, sino también a las empresas comerciales. También he argumentado que el Congreso debería enmendar la Ley de Estadounidenses con Discapacidades para prohibir la discriminación basada en pronósticos de enfermedades futuras.

Los médicos que brindan a los pacientes predicciones hechas con inteligencia artificial deben asegurarse de que los primeros estén bien informados sobre los pros y los contras de dichos pronósticos. Los expertos deben aconsejar a los pacientes acerca de la inteligencia artificial como los profesionales capacitados aconsejan sobre las pruebas genéticas.

Las perspectivas de la inteligencia artificial pueden intimidar a las personas. Sin embargo, para garantizar que la ésta realmente promueva el bienestar del paciente, los médicos, los investigadores y los legisladores deben reconocer sus riesgos y proceder con precaución.

 

Sharona Hoffman
Profesora de Legislación de salud y bioética en Case Western Reserve University.

Este texto fue publicado originalmente en The Conversation US. Traducción de Eugenia Rodríguez.

Leer completo