Inteligencia Artificial (IA): ética y uso responsable
Hoy en día, las organizaciones están haciendo una apuesta importante en el uso y aplicación de IA para la toma de decisiones, en sus procesos y en la prestación de servicios.
Martes, Octubre 1, 2024
Las organizaciones están haciendo una apuesta importante en el uso y aplicación de IA para la toma de decisiones, en sus procesos y en la prestación de servicios. Está siendo utilizada para mejorar la cadena de valor en cuanto a eficiencia, productividad y generación de información fiable mediante la implementación de análisis de datos para pronosticar y optimizar procesos, monitorear y alertar sobre situaciones inesperadas, automatizar sus operaciones, mejorar la calidad y características de los productos y servicios, entre otros.
En este entorno, la seguridad, la gestión de riesgos, la ética y el uso responsable de la IA son factores importantes. Por eso, para generar confianza en su uso y obtener los resultados y beneficios esperados, se deben tener en cuenta estos factores:
- Alineación a los objetivos estratégicos y valores corporativos
- Las prácticas de IA responsables deben ayudar a alinear las decisiones sobre el diseño, desarrollo y uso de sistemas de estas con los objetivos estratégicos y valores de compañía.
- Consideraciones éticas sobre el sesgo, faltas a la inclusión, la protección de las personas, la transparencia y el buen nombre de compañías y las personas exigen una atención cuidadosa para garantizar el uso responsable y generar la confianza en los procesos, uso y resultados de la AI.
- Cumplimiento de leyes y regulaciones
- Su uso debe estar en cumplimiento de las leyes y regulaciones que nos aplican, como compañía y de manera personal
- Posibles riesgos de infracción de la propiedad intelectual u otros derechos de la compañía y/o frente.
- Uso ético de la IA y sus herramientas
- Un uso inapropiado de herramientas de IA corporativas para propósitos ajenos a los de la compañía, no es aceptable y riñe con los aspectos éticos en los que estamos comprometidos.
- El uso de estas herramientas corporativas debe estar alineado con los roles, funciones y compromisos propios de cada colaborador y deben ser usados de manera responsable sin faltar a la seguridad y ciberseguridad de la información.
- Privacidad de la información y protección de datos personales
- Debemos evitar compartir información confidencial de la compañía o que afecten la privacidad y la seguridad de los datos personales de clientes, colaboradores o aliados.
- Confianza
- Hoy día se considera a la IA como una muy factible fuente de desinformación, es posible que el resultado semánticamente esté bien construido, pero implícitamente errado o inducir al error, para evitarlo se deben tener prevenciones y verificar la calidad, precisión y fiabilidad de los resultados obtenidos mediante sistemas de IA. Por lo que es válido no tener confianza absoluta sobre sus resultados. Una desviación significativa en un resultado ocasionado por algoritmos defectuosos o sesgados pueden dar lugar a decisiones incorrectas e impactar en las metas y propósitos esperados, la calidad de los servicios, daños a la imagen de la compañía y desviaciones, a su vez, sobre los objetivos estratégicos.
- Debido cuidado en el ciclo de vida de los sistemas IA
- Los equipos de AI que diseñan, desarrollan y despliegan esta deben pensar de manera crítica sobre el contexto y los impactos negativos y positivos potenciales o inesperados de su uso.
- Los colaboradores deben mantener un pensamiento crítico y una mentalidad que priorice la seguridad en el diseño, desarrollo, implementación y usos de sistemas de IA.
- Los equipos de trabajo que planeen, diseñen, desarrollen, implementen, desplieguen y/o usen sistemas de IA debe incorporar intrínsicamente y regularmente prácticas de agilismo y fomentar la retroalimentación permanente de actores relevantes.
- Gestión de riesgos derivados del uso de IA
- Los riesgos pueden surgir por vulnerabilidades no suficientemente cubiertas tanto de los datos, el software o el hardware propio o de terceros, así como de su uso.
- No contemplar los riesgos inherentes al uso de la IA puede determinar situaciones inesperadas, incluso legales o afectaciones en términos económicos, comerciales, y de imagen y reputación.
- Los riesgos y beneficios de la IA pueden surgir de la interacción de aspectos técnicos combinados con cómo se usa un sistema, sus interacciones con otros sistemas de IA, quién lo opera y el contexto en el que se utiliza dentro de todo el ciclo de la IA.
- Uso apropiado de controles
- Sin controles adecuados, los sistemas de IA pueden amplificar, perpetuar o exacerbar resultados inequitativos o no deseados para individuos y comunidades. Con el pensamiento basado en control los sistemas de IA pueden mitigar y gestionar resultados inequitativos o imprecisos.
- Riesgos y controles en el “Supply Chain”
- Se deben abordar los riesgos y beneficios de la IA que surgen de software, datos y servicios en general que proceden de terceros, así como de otros problemas de la cadena de suministro y mantener eficiencia y eficacia de controles sobre las actuaciones de estos.
- Seguridad de la información, ciberseguridad y continuidad de las operaciones
- Los sistemas de IA deben seguir las políticas, procesos de la compañía, así como las buenas prácticas de seguridad de la información y la ciberseguridad.
- Se debe asegurar que se planeen, diseñen, implementen y prueben procesos de continuidad para manejar fallas o incidentes en datos de terceros o sistemas de IA considerados de alto riesgo.
La IA se ha convertido en el mejor aliado de las personas, las comunidades y las organizaciones, y debe ser aprovechada como una excelente herramienta de asistencia para la productividad, pero su uso conlleva responsabilidades y el debido cuidado que de no ser tenidas en cuenta pueden ocasionar mayores dificultades que los posibles beneficios a obtener.