Cookie Consent by Free Privacy Policy Generator

“Abramos” la caja negra de la Inteligencia Artificial (IA) – deseamos un AI explicable y con trazabilidad – ¿Es posible?

Los coches autónomos, los robots sanitarios y los robots quirúrgicos avanzan en nuestra sociedad.

Estos sistemas de inteligencia artificial podrían hacer que nuestras rutas sean más seguras, que la vida de las personas con discapacidades o las personas mayores sea más fácil y que la recuperación de los pacientes sea más rápida.

Las promesas de la inteligencia artificial (IA) son mayúsculas y sus posibilidades indeterminadas aún. Pero, ¿podemos realmente confiar nuestras vidas a las máquinas? Si actúan en nuestro nombre, ¿lo harán de forma responsable? Si algo sale mal con la IA, ¿quién será el responsable? ¿Qué sucede cuando no logramos abordar los prejuicios y la discriminación?

Se trata de diseñar sistemas de IA mejores, más responsables y confiables. Eso implica enseñar a las máquinas cómo razonar y justificar decisiones, tal como lo haríamos nosotros, pero también resolver algunos de los desafíos éticos y legales más inminentes que presenta la IA.

Tenemos el siguiente experimento mental (¿o ético o moral?): está junto a la parada del tren cuando ve a uno fuera de control que corre por las vías hacia cinco personas que no lo ven venir. Ahora imagine que puede desviar el tren hacia una segunda vía, en la que solo hay una persona. ¿Qué haría? ¿Sacrificaría uno para salvar a los cinco?

El problema del tren (y sus adaptaciones, ésta es una a mi cargo) ha sido un dilema clásico en los cursos de ética o filosofía durante décadas. Pero: de repente, cuando los autos experimentales sin conductor comenzaron a circular por las carreteras, nos enfrentamos a un dilema del mundo real: ¿para qué decisión debería programarse el sistema de inteligencia artificial en una situación de vida o muerte?

¿Qué pasa si un coche autónomo lastima o mata a alguien? ¿Quién debería ser considerado responsable?

Saber cómo los sistemas de IA toman decisiones no siempre es claro o sencillo. Muchos sistemas algorítmicos son una “caja negra”: la información entra y las decisiones salen, pero tenemos poca idea de cómo llegaron a esas decisiones.

Entonces, ¿qué pasa si un coche autónomo lastima o mata a alguien? ¿Quién debe ser considerado responsable? ¿Es la persona distraída sentada detrás del volante del vehículo autónomo? ¿Las autoridades que permitieron que el coche circulara? ¿O el fabricante que estableció las preferencias para salvar al pasajero a toda costa?

Estas y otras preguntas plantea el filósofo Sven Nyholm, quien escribió un artículo sobre la ética de los algoritmos de prevención de accidentes para vehículos autónomos.

La gente quiere culpar a alguien, pero aún no hemos llegado a un acuerdo universal respecto de a quién.

Como sociedad, discutir qué deberían o no deberían hacer estos sistemas de inteligencia artificial es esencial antes de que comiencen a poblar nuestras carreteras (y otros aspectos de nuestras vidas). Porque ¿cómo podemos confiar en sistemas cuyas decisiones no entendemos? ¿Cómo daremos cuenta de las malas decisiones/acciones consecuentes? ¿Y, se pueden prevenir?

Lo que hace que la inteligencia artificial sea impactante (y prometedora) es que brinda a las computadoras o máquinas la capacidad de modelar, simular o incluso mejorar la inteligencia humana. Los sistemas de IA pueden detectar sus entornos, aprender y razonar para decidir las acciones apropiadas para lograr los objetivos diseñados.

Es precisamente la capacidad de aprender de la experiencia acumulada a partir de los datos lo que es fundamental para muchas de las aplicaciones transformadoras de la IA en la actualidad. Es la razón por la que las traducciones de Google son aceptables o por la que Gmail filtra con éxito el 99,9% del spam. Pero es esencial (por ahora) garantizar que los humanos mantengan el control de la tecnología de IA, y distinguir entre lo bueno, lo malo y lo feo. Ahondemos en estos.

Lo bueno: usar la IA para tratar enfermedades

Un entrenador virtual del sueño para quienes padecen insomnio, un juego para niños con enfermedades crónicas o un robot para mantener la distancia social y prevenir la propagación del coronavirus. Más allá de la promesa de comodidad y eficiencia laboral, la IA puede ayudar a salvar vidas. Los sistemas de inteligencia artificial pueden ayudar a detectar anomalías en las imágenes médicas de los pacientes que pueden pasar desapercibidas incluso para los mejores médicos.

Hoy el mundo cuenta con un sistema alimentado por algoritmos con base en IA que puede reducir la cantidad de falsos positivos hasta un 64% sin pasar por alto ningún cáncer [de mama].

Puede concluirse de entrevistas a Carla van Gils (médico):

La adopción de imágenes de resolución magnética (MRI) en la detección de mujeres con senos extremadamente densos podría ayudar a reducir la mortalidad por cáncer de mama en este grupo. Al agregar la resonancia magnética a la mamografía estándar se detectaron aproximadamente 17 cánceres de mama adicionales; la desventaja es que el 87,3% del número total de lesiones remitidas a resonancia magnética o biopsia adicional fueron falsos positivos para cáncer.

Si se pudiera reducir el número de biopsias de lesiones benignas, se aliviaría la carga para las mujeres y los recursos clínicos. Ahora hemos demostrado que el sistema impulsado por IA puede reducir el número de falsos positivos hasta un 64% sin pasar por alto ningún cáncer, en cuyo laboratorio se entrenó el algoritmo en una base de datos de resonancias magnéticas de 4.873 mujeres en los Países Bajos que había participado en el estudio de Van Gils.

Queremos mejorarlo aún más para ayudar a los radiólogos, permitiéndoles centrarse en casos que requieren un mayor juicio humano.

Los oncólogos siguen siendo responsables del diagnóstico, pero utilizan el sistema como herramienta, del mismo modo que utilizarían un estetoscopio.

También es importante señalar que los usuarios finales del sistema de apoyo a las decisiones –los médicos– han participado activamente en su diseño. Esto garantiza una mejor aceptación y confianza.

Lo malo: usar la IA para anular las decisiones humanas

Pero, ¿qué sucede cuando los usuarios no participan y no saben cómo surgió una “segunda opinión” brindada por la IA?

Eso es lo que sucedió cuando un juez de Wisconsin se basó en una herramienta algorítmica llamada COMPAS para decidir la sentencia de un hombre que fue encontrado conduciendo un automóvil involucrado en un tiroteo. El algoritmo en cuestión clasificó al acusado como de “alto riesgo” de reincidencia, por lo que el hombre, entonces de 35 años fue condenado a seis años de prisión.

Pero, en EEUU, la ley de derechos fundamentales garantiza a los acusados ​​refutar e impugnar la decisión de un juez. En este caso, cuando los abogados apelaron la decisión, el juez no pudo explicar cómo el sistema había llegado a ese resultado.

Eso no quiere decir que la sentencia fuera incorrecta o que las herramientas algorítmicas no puedan usarse con efectos positivos. La IA puede ser un valioso instrumento de discusión para los jueces e incluso reducir los prejuicios en el sistema de justicia penal.
Pero es responsabilidad de los jueces garantizar la transparencia del proceso judicial. Al menos deberían poder comprender cómo estos sistemas algorítmicos toman decisiones e incluso ayudar a evaluar qué problemas legales surgen del uso de la IA.

Si no, ¿cómo se puede salvaguardar el derecho de una persona a un juicio justo? Cómo sustentar derechos fundamentales como la privacidad, la libertad de expresión o el derecho a la igualdad de trato.

La IA puede anular las decisiones humanas de formas más sutiles. Los algoritmos que están conectados a aplicaciones domésticas, como televisores inteligentes o asistentes digitales, pueden causar el efecto tal que nuestra visión del mundo puede verse reducida, debido a algoritmos que seleccionan contenido basándose en hábitos, como ocurre con los algoritmos de recomendación de música o videos, que terminan siendo “injustos” para los menos conocidos.

De acuerdo a lo que enunciamos previamente (……distinguir entre lo bueno, lo malo y lo feo. Ahondemos en estos…) nos resta hablar de lo feo.

Dejamos este punto para una próxima conversación. En ella hablaremos de “lo feo” y la posibilidad de una IA explicable.

Hasta pronto.

Mg en Ing. Carlos Gerardo Said

Últimos blogs