Empresas: ¿a favor o en contra de una Inteligencia Artificial más ética?
El crecimiento acelerado de una Inteligencia Artificial más ética (AI ethics), viene suscitando algunas dudas al interior del sector empresarial por miedo a que la misma impida el logro de los objetivos trazados. ¿Por qué razón? Principalmente, por el aumento de costes y los malos resultados empresariales que su implementación acarrearía.
Un estudio realizado por la empresa estadounidense de investigación y asesoramiento Forrester, pone de manifiesto dichos temores que repasamos a continuación.
Primero lo primero: ¿a qué se le llama ética en la IA?
Muchos expertos han tratado de responder a esta pregunta, pero fue apenas en el año 2019 cuando la Comisión Europea definió siete elementos esenciales para lograr una Inteligencia Artificial más ética y de confianza:
- Factor humano y control: los sistemas de IA deben impulsar sociedades justas sin restringir ni desviar la autonomía humana.
- Robustez y seguridad: es necesario contar con algoritmos que sean lo suficientemente fiables como para gestionar errores o posibles incoherencias.
- Rendición de cuentas: se deben poner en marcha mecanismos que garanticen la responsabilidad de los sistemas de IA y sus resultados.
- Bienestar social y medioambiental: la IA ética debe potenciar la sostenibilidad y la responsabilidad ecológica.
- Diversidad, no discriminación y equidad: los sistemas de IA deben tener en cuenta toda la gama de capacidades, aptitudes y necesidades humanas.
- Transparencia: debe garantizarse la trazabilidad de los sistemas de IA.
- Privacidad y gobernanza de datos: se requiere garantizar el pleno control de los datos personales de los ciudadanos.
Riesgo de no cumplir los objetivos reglamentarios
Las directivas encuestadas por Forrester expresaban estar preocupadas por no poder cumplir con los objetivos normativos establecidos por su empresa desde el primer día. De hecho, solo la mitad de ellos estarían en capacidad de superar estos riesgos.
La razón sería la gran complejidad de los procesos automatizados y el tiempo que se requiere para adaptarse.
La necesidad de un reskilling
El ámbito ético en la IA implica nuevas herramientas y estas, a su vez, la necesidad de capacitación y de reevaluación de las habilidades con las que cuentan las y los trabajadores.
Así, otro de los riesgos anunciados por el estudio de Forrester hacía referencia a una eventual falta de competencias por parte de las y los trabajadores en función de la automatización de los procesos. De hecho, dos tercios de los participantes en el estudio expresaban que la integración de las nuevas herramientas pareciera bastante compleja.
El observatorio español que vela por la aplicación ética de la IA
En España, más precisamente en Barcelona, ya se cuenta con iniciativas para asegurar que la aplicación de herramientas de IA sean éticas. El Observatorio Global de la Inteligencia Artificial Urbana - GOUAI, por ejemplo, busca difundir prácticas en la aplicación ética de la Inteligencia Artificial.
A través de las acciones del instituto, se busca asegurar una transformación digital, justa y ética de las ciudades dentro de un marco caracterizado por la digitalización de las prácticas y los procesos.
Ingeniera civil (Universidad Santo Tomás, Bogotá, Colombia) con máster en lenguas modernas de la Université Paul Valéry de Montpellier, Francia, María Fernanda trabaja como traductora, redactora y creadora de contenido. Hoy en día, combina sus habilidades analíticas con su amor por la escritura para crear contenido de calidad sobre diferentes temáticas y llevarlo más allá de las fronteras. Yoga, bienestar, recursos humanos y un sinnúmero de temas del mundo empresarial, cada asunto es tratado con precisión, con el objetivo de adaptarse a un público objetivo específico. Este camaleón idiomático es un verdadero apasionado por la lista de viñetas (¡el SEO forma parte de su ADN!).