Wednesday May 22 2019
Monica Aristizabal | |

Como lo vimos en mi anterior entrada al blog, la inteligencia artificial es unas de las fuerzas mas transformadoras de nuestro tiempo y esta destinada a alterar nuestro tejido social, nuestras dinámicas personales, nuestros trabajos, nuestras relaciones y nuestras funciones en las organizaciones a las cuales pertenecemos. La transformación social por medio de la implementación de la inteligencia artificial se debería de pensar de manera positiva, porque esta sería una gran oportunidad para aumentar la prosperidad y el crecimiento en cada rincón del planeta. 

Sin embargo, más allá de los resultados prósperos que podría traer la implementación de cualquier tecnología, tanto las empresas tecnológicas como los desarrolladores de estas, deberían de tener presentes algunas pautas éticas, antes de desarrollar una aplicación con inteligencia artificial. 

Recordemos que la IA es uno de los campos de la informática más novedosos en la actualidad y se centra en la creación de programas y aplicaciones para simular la inteligencia humana y mejorar procesos y toma de decisiones por medio de máquinas inteligentes; es decir, la IA se implementa con el objetivo de superar las capacidades mentales de los humanos por medio del razonamiento, comprensión imaginación, reconocimiento, creatividad y emociones agregándole mayor productividad a las actividades que los humanos ejecutan en algunos campos.  (Si quieres conocer casos de uso de la IA, visita mi entrada al blog: ¿Quien toma las decisiones en la IA?)

El objetivo de la ética de inteligencia artificial es identificar cómo la IA puede avanzar o plantear inquietudes sobre la buena vida de las personas, ya sea en términos de calidad de vida, autonomía mental o libertad para vivir en una sociedad democrática.

Se ocupa de los temas de diversidad e inclusión (con respecto a los datos de capacitación y los fines a los que sirve inteligencia artificial), así como los problemas de justicia distributiva (quién se beneficiará de inteligencia artificial y quién no).

Las pautas éticas para una IA confiable tiene dos componentes: debe respetar los derechos fundamentales, la regulación aplicable y los principios y valores fundamentales, asegurando un «propósito ético» y debe ser técnicamente robusta y confiable ya que, incluso con buenas intenciones, puede causar daños involuntarios.

Para lograr una IA confiable es importante fijarse en aspectos como:

1. Responsabilidad

2. Gobierno de datos

3. Diseño para todos.

4. Gobernanza de la autonomía de la IA (supervisión humana).

5. No discriminación.

6. Respeto por (y mejora de) la autonomía humana.

7. Respeto a la privacidad.

8. Robustez.

9. Seguridad.

10. Transparencia.

Tanto las empresas como los mismos desarrolladores deberían de pensar siempre, en el momento de construir una aplicación con inteligencia artificial, en el propósito social de la misma; pensar si están aumentando o no el bienestar humano, si aseguran un propósito ético con la implementanción, pensar si están rescatando los valores sociales, y si están aportando a la construcción de una sociedad más libre y con mejor calidad de vida.

El desarrollo de programas y aplicaciones con IA deberían estar enfocados en casos de uso donde se obtengan mejoras en los procesos industriales y empresariales agregándole mayor productividad a cada una de las actividades, o aplicaciones desarrolladas para reducir costes, tiempo de producción en las empresas, incluso aplicaciones destinadas a optimizar el consumo energético, mejora la ciberseguridad en nuestras compañías y en nuestras vidas personales, es decir, desarrollar aplicaciones que mejoren las condiciones sociales, culturales, económicas y democráticas de la población por medio de la implementación de esta tecnología. 


También te puede interesar