Inteligencia artificial responsable: Compromiso con la ética y la mejora continua

En un mundo impulsado por la IA, la ética no es solo una opción, sino una responsabilidad ineludible para la sostenibilidad empresarial
Santiago Arrubla

Santiago Arrubla

IA | Energia | Analítica | Oil&Gas

Una Inteligencia Artificial (IA) ética implica respeto por la dignidad humana, promover la justicia o equidad, no inducir discriminación o sesgos, evitar el daño y actuar de buena fe, así como proteger la privacidad de la información. En las organizaciones, es responsabilidad adoptar políticas, procedimientos, recursos y prácticas que garanticen estos principios.

De los principios éticos mencionados, podríamos decir que todos se explican por sí solos, quizás a excepción de la justicia o la no inducción de sesgos. El sesgo es la presencia de un prejuicio o distorsión. En el caso de inducir un sesgo debido a los datos de entrenamiento, por ejemplo, un modelo para la selección de personal puede tender a favorecer a la población de una raza, credo, género, entre otras, razón por la cual dichas variables no se involucran o se mantienen privadas. Por otro lado, también se puede inducir un sesgo en el diseño de algoritmos o modelos, lo que también se vería reflejado en el resultado. Así, la inducción de sesgos puede ser voluntaria, involuntaria o por desconocimiento.

En el caso de sistemas industriales, minimizar los sesgos en las recomendaciones dependerá de incluir apropiadamente la física para no generar falacias, “alucinaciones” o casos que simplemente no son posibles, factibles o no existen. Podría pensarse que una IA responsable para una industria no es tan sensible, sin embargo, una IA irresponsable puede generar sesgos que aumenten el riesgo para la integridad de las personas involucradas en un proceso sensible o afectar los resultados alcanzados por la organización, poniendo en peligro su sostenibilidad.

Por ejemplo, una IA irresponsable en una operación sensible como la perforación de pozos de petróleo y gas podría aumentar innecesariamente el riesgo de un incidente que comprometa la integridad de los trabajadores. Otro ejemplo en la misma industria es una IA irresponsable en el desarrollo de campos petroleros, induciendo sesgos en las reservas y/o una estrategia subóptima en la explotación o desarrollo de los campos, lo que afectaría los resultados.

Sea cual sea el contexto, una IA responsable no es sencilla de garantizar y requiere una disciplina o ciencia. Una IA responsable implica que la organización responde por los sistemas de IA que implementa o diseña, lo que implica contar con un grupo de profesionales preparados, con la capacidad de maximizar los buenos resultados de los sistemas al mismo tiempo que minimizan los riesgos.

Por esta razón, contar con un criterio mínimo en IA es esencial para poder racionalizar sobre el cumplimiento de los principios éticos mencionados. Por supuesto, no es posible garantizar la ausencia absoluta de sesgos y es por eso que la profesionalización de la implementación de la práctica es esencial. Una frase famosa del estadístico George Box dice: “Todos los modelos son incorrectos, pero algunos son muy útiles”. En otras palabras, lidiar con la dualidad de querer alcanzar lo perfecto siendo conscientes de que ello no es posible, nos otorga la capacidad de racionalizar sobre los elementos que maximizan un ejercicio responsable, convirtiéndonos en profesionales.

Un profesional es aquel que tiene un compromiso con la ética y la mejora continua en su respectivo campo de acción. La IA tiene el potencial de transformar el mundo y la sociedad, pero para que ello suceda en la dirección deseada, debemos desarrollarla con profesionalismo. Sin duda, este es un elemento crucial que una organización responsable debe incluir dentro de sus políticas, procedimientos y guías en su respectivo campo de acción.