jueves, 18 de enero de 2024

Inteligencia Artificial y paz


Por: Juan V. Chopin 

El mensaje del Papa Francisco con ocasión de celebrarse la 57 jornada por la paz retoma el tema de la IA y la refiere al tema de la paz. Este mensaje está desarrollado en ocho puntos: el primero presenta la tesis y el planteamiento general del problema; el segundo describe promesas y riesgos; el tercero alude a las machine learning; el cuarto advierte de los límite en el paradigma tecnocrático; el quinto presenta el problema ético en el desarrollo de la IA; el sexto aborda el uso de la tecnología para la guerra; el séptimo habla de la IA en el ámbito educativo; el ocho presenta los desafíos para el desarrollo del derecho internacional. 

1. Tesis y planteamiento general del problema. La valoración inicial del Papa acerca de la IA es positiva: «el progreso de la ciencia y de la técnica, en la medida en que contribuye a un mejor orden de la sociedad humana y a acrecentar la libertad y la comunión fraterna, lleva al perfeccionamiento del hombre y a la transformación del mundo». En Laudato Si’, ya había aclarado: «nadie pretende volver a la época de las cavernas» (LS, n. 114). Las cuestiones que le preocupan al Papa son las siguientes: «¿Cuáles serán las consecuencias, a medio y a largo plazo, de las nuevas tecnologías digitales? ¿Y qué impacto tendrán sobre la vida de los individuos y de la sociedad, sobre la estabilidad internacional y sobre la paz?» 

2. Promesas y riesgos. El primer riesgo identificado es la determinación de la libertad y la capacidad de elección, en cuanto que «las tecnologías que usan un gran número de algoritmos pueden extraer, de los rastros digitales dejados en internet, datos que permiten controlar los hábitos mentales y relacionales de las personas con fines comerciales o políticos, frecuentemente sin que ellos lo sepan, limitándoles el ejercicio consciente de la libertad de elección». Esto lleva a pensar, por una parte, que «la investigación científica y las innovaciones tecnológicas no están desencarnadas de la realidad ni son “neutrales”, y por otra parte, «tienen siempre una dimensión ética, estrictamente ligada a las decisiones de quien proyecta la experimentación y enfoca la producción hacia objetivos particulares». El pontífice nos recuerda que, si bien se habla al plural de «formas de inteligencia», sin embargo, son todas derivaciones de la única inteligencia humana: «estos son, a fin de cuentas, “fragmentarios”, en el sentido de que sólo pueden imitar o reproducir algunas funciones de la inteligencia humana». Por tanto, advierte el Papa, sería ingenuo «presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos».  Por ello propone, desde el punto de vista de la ética, «instituir organismos encargados de examinar las cuestiones éticas emergentes y de tutelar los derechos de los que utilizan formas de inteligencia artificial o reciben su influencia». Se requiere, en suma, «una adecuada formación en la responsabilidad». Se trata, entonces, «de orientar la búsqueda técnico-científica hacia la consecución de la paz y del bien común, al servicio del desarrollo integral del hombre y de la comunidad», como criterio básico de actuación.

3. Las máquinas que aprenden solas (machine learning). En este punto, aunque el Papa no lo mencione, se accede al inicio de la cuarta revolución industrial: «desarrollos como el machine learning o como el aprendizaje profundo (deep learning) plantean cuestiones que trascienden los ámbitos de la tecnología y de la ingeniería y tienen que ver con una comprensión estrictamente conectada con el significado de la vida humana, los procesos básicos del conocimiento y la capacidad de la mente de alcanzar la verdad». El riesgo en este punto es la utilización negativa que se puede hacer de los datos para determinar el ánimo de las personas: «la discriminación, la interferencia en los procesos electorales, la implantación de una sociedad que vigila y controla a las personas, la exclusión digital y la intensificación de un individualismo cada vez más desvinculado de la colectividad. Todos estos factores corren el riesgo de alimentar los conflictos y de obstaculizar la paz».

4. El paradigma tecnocrático. El Papa está convencido de que «la mente humana nunca podrá agotar su riqueza, ni siquiera con la ayuda de los algoritmos más avanzados», y de que «por más prodigiosa que pueda ser nuestra capacidad de cálculo, habrá siempre un residuo inaccesible que escapa a cualquier intento de cuantificación». El peligro latente en cada operación de la IA es el sistema tecnocrático, «que alía la economía con la tecnología y privilegia el criterio de la eficiencia, tendiendo a ignorar todo aquello que no está vinculado con sus intereses inmediatos». El ser humano, «animado por una prometeica presunción de autosuficiencia» y «pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad absoluta, de caer en la espiral de una dictadura tecnológica».

5. El problema ético en el desarrollo de la IA. El primer problema identificado son las «formas de prejuicio y discriminación» a partir de los datos analizados. En segundo lugar, considerando que «con frecuencia las formas de inteligencia artificial parecen capaces de influenciar las decisiones de los individuos por medio de opciones predeterminadas asociadas a estímulos y persuasiones, o mediante sistemas de regulación de las elecciones personales basados en la organización de la información», ello supone una constante supervisión de quien las produce y de las instituciones que las usan. En tercer lugar, la clasificación de categorías de personas a partir de los datos puede crear conflictos en la vida real; por ello, «el respeto fundamental por la dignidad humana postula rechazar que la singularidad de la persona sea identificada con un conjunto de datos». Finalmente, el Papa alude al ámbito laboral: «en este contexto, no podemos dejar de considerar el impacto de las nuevas tecnologías en el ámbito laboral. Trabajos que en un tiempo eran competencia exclusiva de la mano de obra humana son rápidamente absorbidos por las aplicaciones industriales de la inteligencia artificial.

6. Uso de la tecnología para la guerra. Este punto lo presenta el Papa en modo de pregunta y recurriendo a la alegoría: «¿Transformaremos las espadas en arados?». De hecho, el arado es tecnología y la espada es tecnología aplicada a la guerra. El símil es bíblico, aparece en Isaías 2,4: «Forjarán sus espadas en rejas de arado, y sus lanzas en podaderas. No alzará espada nación contra nación, ni se adiestrarán más para la guerra». Se trata, pues, de un ejemplo de aplicación de la IA a la guerra: «La búsqueda de las tecnologías emergentes en el sector de los denominados “sistemas de armas autónomos letales”, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética». «Es imperioso -dice el Papa- garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armas». Por ello, «lo último que el mundo necesita es que las nuevas tecnologías contribuyan al injusto desarrollo del mercado y del comercio de las armas, promoviendo la locura de la guerra».

7. La IA en el ámbito educativo. La observación del Papa en este aspecto es muy precisa: «La educación en el uso de formas de inteligencia artificial debería centrarse sobre todo en promover el pensamiento crítico». De este modo, «las escuelas, las universidades y las sociedades científicas están llamadas a ayudar a los estudiantes y a los profesionales a hacer propios los aspectos sociales y éticos del desarrollo y el uso de la tecnología».

8. La IA y el derecho internacional. En el punto seis el Papa propone el diálogo como camino para una recta aplicación de la IA. En términos operativos considera que «el alcance global de la inteligencia artificial hace evidente que, junto a la responsabilidad de los estados soberanos de disciplinar internamente su uso, las organizaciones internacionales pueden desempeñar un rol decisivo en la consecución de acuerdos multilaterales y en la coordinación de su aplicación y actuación». Su propuesta va en la línea de «un tratado internacional vinculante, que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas». En su propuesta, «es indispensable identificar los valores humanos que deberían estar en la base del compromiso de las sociedades para formular, adoptar y aplicar los marcos legislativos necesarios».


Algorética: Valoración final

El Papa considera que es el diálogo el camino equilibrado para no hacer de la tecnología una tiranía digital: «Una mirada humana y el deseo de un futuro mejor para nuestro mundo llevan a la necesidad de un diálogo interdisciplinar destinado a un desarrollo ético de los algoritmos».

A dicho proceso lo llama: «algorética», una expresión que une los términos «algoritmo» y «ética»; en ella se trata de «que los valores orienten los itinerarios de las nuevas tecnologías». En sentido intregral considera que «las cuestiones éticas deberían ser tenidas en cuenta desde el inicio de la investigación, así como en las fases de experimentación, planificación, distribución y comercialización. Este es el enfoque de la ética de la planificación, en el que las instituciones educativas y los responsables del proceso decisional tienen un rol esencial que desempeñar».

En términos de regulación jurídica propone «un tratado internacional vinculante, que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas».

 

 

No hay comentarios:

LA UNIVERSIDAD DONDE TRABAJO EN EL SALVADOR

LA UNIVERSIDAD DONDE ESTUDIE Y DONDE INICIE LA DOCENCIA

Seguidores