Libertad y Seguridad en la Era Digital desde Latinoamérica

Diserté en la Conferencia Internacional de Ombudsman que se realizó en Italia. Mi participación se dio a partir de la invitación realizada por el Defensor Cívico de la Región del Lazio, Marino Fardelli.

Durante la conferencia participaron destacados especialistas y referentes internacionales vinculados con Inteligencia Artificial (IA) y la defensa de los derechos humanos: Louise Riondel, secretaria del Comité de Inteligencia Artificial del Consejo de Europa; Javier Hernández García, ex defensor del Pueblo de la región de Aragón, Universidad de Zaragoza (España); Munish Ramlal, defensor del Pueblo de la Amsterdam (Países Bajos); Maciej Kruk, Oficina del Comisionado para los Derechos humanos de Polonia; y Cinzia Pellegrino, senadora e integrante Comité de Humanidades del Senado italiano.

A continuación comparto mi exposición: «Libertad y Seguridad en la Era Digital desde Latinoamérica».

Es un honor dirigirme a ustedes en esta ocasión tan relevante para plantear este tema de tantas aristas: las transformaciones digitales entre la libertad y la seguridad.

Vivimos en una era marcada por una revolución tecnológica sin precedentes que está transformando todos los aspectos de nuestras vidas. Desde la forma en que nos comunicamos hasta la manera en que ejercemos nuestros derechos y libertades fundamentales.

Las tecnologías digitales han traído consigo innumerables beneficios. Han democratizado el acceso a la información, facilitado la comunicación global y fomentado la innovación. Sin embargo, junto con estos avances, también han surgido desafíos significativos relacionados con la privacidad, la seguridad y la protección de los derechos humanos.

El acceso a la tecnología digital ha ampliado el ejercicio de la libertad de expresión y el derecho a la información. Plataformas como las redes sociales han permitido a individuos y grupos expresarse y movilizarse en formas que antes no eran posibles.

Sin embargo es importante mencionar las consecuencias sociales que genera la brecha digital existente entre los países desarrollados y los no desarrollados. Quienes viven en los países no desarrollados, como el de donde provengo, tienen menor acceso a las tecnologías de la información (TICs) lo que repercute negativamente tanto en su libertad digital como en su ciberseguridad.

Por eso en esta materia no podemos dejar de resaltar la iniciativa de la Unión Europea (UE) de regular la IA. La UE posee una gran ventaja ya que 27 países forman un único bloque que puede implementar reglas supranacionales de aplicación común, lo que les confiere la fuerza necesaria para plantarse como el tercer jugador en el mundo de las definiciones sobre la IA, junto a EE.UU. y China. Esto, a su vez, permitirá en un futuro la implementación de propuestas de regulación global más equilibradas y superadoras de la tensión existente entre estos dos gigantes de la IA.

La situación de vivir en países con una infraestructura digital deficiente y/o en donde por cuestiones económicas ésta no se encuentra al alcance de toda la población produce un menoscabo en la libertad digital de las personas.

Entendemos por «libertad digital» la situación de hecho y de derecho en donde los individuos pueden usar, acceder y participar en la red y de las tecnologías digitales sin restricciones indebidas. Aquellas situaciones políticas (ciberpatrullaje represivo de los gobiernos), económicas (imposibilidad material de acceder a los servicios TICs) o sociales (falta de educación digital) que limiten o impidan una libertad digital plena son causa de menos oportunidades para la educación en línea (lo hemos visto durante la pandemia de Covid-19), para el acceso a la información, la participación en debates públicos y la capacidad de acceder a servicios esenciales. Esto produce un impacto negativo en los individuos y en las sociedades. Hoy en día un individuo sin alfabetización digital y/o sin acceso a las TICs es un individuo menos libre porque tienen menos oportunidades de acceso a empleos de calidad, a bienes y servicios, y a información. Los Estados deben asegurar a sus sociedades la disponibilidad y accesibilidad a las TICs sobre todo en sectores vulnerables y regiones alejadas. En el siglo XXI esto constituye una condición necesaria e indispensable para el desarrollo individual y social.

En cuanto a la ciberseguridad, el acceso a las TICs requiere que mediante marcos jurídicos adecuados y administraciones gubernamentales eficientes se garantice a los individuos su privacidad y la protección de sus datos personales en el ámbito digital. Las personas deben poder controlar la información que comparten en línea y sentirse seguros al hacerlo, a su vez, los gobiernos deben garantizar que sus datos están protegidos contra accesos no autorizados y usos indebidos.

Lo mencionado hasta aquí refiere a la brecha digital existente actualmente en el nivel o generación de tecnología digital 2.0 (1). El siguiente nivel evolutivo 3.0 encuentra a los países no desarrollados en condiciones de atraso aún peores.

Por ejemplo, en la lista Top500 de las 500 supercomputadoras más potentes del mundo, actualizada a junio de 2024:

  • Latinoamérica solo pose 9 unidades
  • 1 Argentina
  • 8 Brasil representando el 1,8% del total.
  • Mientras que America del Norte representa el 36,2 % (184 unidades); Europa el 31,4% (151 unidades); Asia el 29,4 (147 unidades); Oceanía el 1% (5 unidades); y África el 0,2% (1 unidad).

En la actualidad en America Latina el Banco Interamericano de Desarrollo (BID) financia 29 proyectos de investigación vinculados a la IA por un monto que en su conjunto alcanza los 43 millones de dólares. Este monto es incoparable con lo que se invierte en los países desarrollados en IA.

La inversión en IA, sumando el sector público y privado, fue en el año 2023 en millones de dólares:

  • America del Norte entre 50 – 60.000
  • Asia entre 30 – 40.000
  • Europa entre 10 – 15.000
  • Latinoamérica entre 1 – 2.000
  • África entre 500 – 1.000
  • Oceanía entre 500 – 800.

Si bien es cierto que en la última década muchas startups se han originado en Latinoamérica en la última década, no es menos cierto que muchas para seguir creciendo terminan migrando hacia el exterior, llevándose su capital y sus recursos humanos. Entre las 30 naciones con más desarrollos de startups hay un solo país latinoamericano (Brasil) ocupando el puesto 27 (2).

En la lista de empresas emergentes cuyo valor supera los 1.000 millones de dólares, los denominados “unicornios”, por región en el año 2022

  • America del Norte poseía en 631
  • Asia 373
  • Europa 147
  • Medio Oriente y África 34
  • Latinoamérica 28
  • Oceanía 6 (3)

Los datos arriba mencionados representan la dimensión de la brecha digital actual. Su correlato en el mediano plazo incidirá en los respectivos PBI nacionales y en la riqueza o pobreza de sus ciudadanos.

Si bien los países subdesarrollados pueden contar con buenos recursos humanos para diseñar y crear software de IA, no se da la misma situación en la otra pata necesaria que esla disponibilidad de diseñar y crear el hardware necesario.

La dependencia de la tecnología proveniente de EE.UU, China y Europa no parece poder ser subsanada en el corto plazo, lo que genera una situación de desequilibrio y subordinación tecnológica que resulta perjudicial, tanto al desarrollo local de las nuevas tecnologías como al acceso a las mismas, tanto en términos materiales como de capacidades para su manejo.

Los especialistas advierten los efectos que la IA puede ocasionar en el mundo laboral al suplantar a trabajadores humanos generando la pérdida de empleos.

Por otro lado se nos quiere tranquilizar afirmando que a la par de la pérdida de empleos se crearan otros nuevos que absorberán esa mano de obra desocupada. Esto parece difícil de creer ya que lo más probable es que esto ocurra solo parcialmente ya que difícilmente los nuevos empleos absorban a la totalidad de los nuevos desempleados. Ésta es una de las más temidas amenazas que produce la IA en las sociedades desarrolladas, tanto más en las no desarrolladas, ya que su impacto afectara de lleno a su clase media profesional.

En síntesis, la brecha resultante entre los países que no se suban al tren de las tecnologías disruptivas (IA, computación cuántica, blockchain, robótica, biotecnología, nanotecnología, etc.) y aquellos que sí lo hagan, será mucho mayor a la que existió entre los países de la revolución industrial y las regiones no industrializadas de Asia, África y Latinoamérica condenadas a ser países productores de materias primas e importadoras de productos manufacturados. Por ello es muy importante reducir esta brecha tecnológica, ya que de no hacerlo, la misma contribuirá significativamente a incrementar la brecha económica, social y política actual.

El Dilema de la Libertad vs Seguridad en la Era Digital

Se trata de una pregunta clásica, ¿en pos de nuestra seguridad cuanta libertad estamos dispuestos a ceder?. Esta pregunta se resignifica en la era digital, la era de la Inteligencia Artificial, el Big Data y la captura masiva de datos para el rastreo personal y el micromarketing.

Es indiscutible el peligro que representan las tecnologías disruptivas cuando son utilizadas para vulnerar derechos humanos como en los intentos de control y ciberpatrullaje de los gobiernos o cuando los datos personales son expropiados por el sector privado para la creación de renta extraordinaria y concentrada a costo cero de su insumo básico (la información conductual de las personas al interactuar con TICs).

Es necesario que gobiernos democráticos respetuosos de los derechos humanos encuentren un equilibrio entre la recopilación de los datos necesarios para fines de seguridad y evitar la recopilación excesiva de datos o el uso indebido de la información personal. Es crucial determinar qué tipos de datos son relevantes y necesarios para fines de ciberseguridad y garantizar que los datos confidenciales estén protegidos adecuadamente (4). De igual modo establecer un marco claro y estricto para el uso de reconocimiento biométrico a tiempo real (videovigilancia) en lugares públicos.

Pero no solo somos vulnerables cuando los Estados de manera ilegal utilizan la tecnología disponible en el siglo XXI para monitorearnos. También podemos ver vulnerados nuestros derechos cuando, con buenas intenciones, los Estados incorporan las nuevas tecnologías para modernizarse y dar el siguiente paso evolutivo desde el actual gobierno electrónico o “gobernanza 2.0” hacia la “gobernanza 3.0” en donde los gobiernos utilizan datos y aprendizaje automático para crear políticas y servicios personalizados para sus ciudadanos (5).

Por ejemplo, en el corto plazo los Estados utilizaran la IA en diversas tareas administrativas y de vinculación con los ciudadanos y como tales estaremos expuestos a las decisiones provenientes de la IA. Decisiones de la IA que influirán en nuestras vidas bajo la forma de la autorización de un comercio, una licencia de conducir, un turno médico, una multa o la aplicación o exención de un impuesto. Por eso es fundamental la transparencia en los procesos de decisión de la IA, que los mismos sean explicables, que las decisiones sean entendibles, evitando que se trate de procesos de “caja negra” para poder identificar sesgos negativos. Es necesario que la IA este al alcanza del control estatal, así como también del control ciudadano y de las ONGs de protección de los derechos civiles para evitar los denominados casos de “injusticia algorítmica” (6).

Regular la IA para Garantizar Derechos

El historiador Yuval Harari menciona que un tema tan importante como la creación del ciberespacio, el cual afecta nuestra vida cotidiana, economía, privacidad y seguridad, fue creado por ignotos diseñadores web y el mismo no atravesó ningún proceso político democrático. Que internet es una zona libre e ingobernable que evoluciona a gran velocidad y que los gobiernos demoraron mucho tiempo en tomar conciencia de los peligros de esta falta de regulación y que en los últimos años han tratado de manera infructuosa controlar y reestructurar internet.

Dice Harari: “es mucho más difícil cambiar un sistema existente que intervenir en sus comienzos. Además, para cuando la engorrosa burocracia gubernamental se decida a actuar en la ciberregulación, internet habrá mutado diez veces. La tortuga gubernamental no puede seguir el ritmo de la liebre tecnológica” (7). Es por ello que no se debe repetir el error en el caso de la IA, para ello es fundamental que la IA sea regulada desde el principio a efectos que su posterior evolución se desarrolle siempre dentro de los límites impuestos por las autoridades gubernamentales y no por la mera iniciativa privada.

En marzo de 2023 más de mil líderes tecnológicos e intelectuales publicaron una carta abierta solicitando que se pausen las investigaciones de IA por seis meses debido a los riesgos profundos que pueden plantear a la humanidad esta tecnología la cual se estaba desarrollando sin control y sin el planeamiento y regulación requerida (8).

Un mes después Yuval Harari advertía que la IA generativa hackeó el sistema operativo de la civilización humana (9) al poder manipular el lenguaje natural, y que al poder crear contenido nuevo de texto, imágenes y sonido, casi indistinguibles de la realidad, esto implicaba un gran peligro de manipulación de la opinión pública.

Al hacer que sea más fácil crear y difundir información falsa, la IA generativa puede erosionar la confianza del público en los medios de comunicación, las instituciones y las autoridades. Esto puede socavar la cohesión social y la confianza en la democracia y el estado de derecho. “Deberíamos poner fin al despliegue irresponsable de herramientas de inteligencia artificial en la esfera pública, y regular la inteligencia artificial antes de que ella nos regule a nosotros” (10).

Por eso repetimos que nos parece muy importante la iniciativa de la Unión Europea (UE) de regular la IA. La UE posee una gran ventaja ya que 27 países forman un único bloque que puede implementar reglas supranacionales de aplicación común, lo que les confiere la fuerza necesaria para plantarse como el tercer jugador en el mundo de las definiciones sobre la IA, junto a EE.UU. y China, lo que a su vez, permitirá en un futuro la implementación de propuestas de regulación global más equilibradas y superadoras de la tensión existente entre estos dos gigantes de la IA.

Los instrumentos internacionales redactados en los últimos años para enmarcar el debate de cómo debería regularse la IA (11) comparten varios principios los cuales se repiten demostrando la existencia de un sustrato común y posibilidad de consenso, entre ellos la necesidad de que la regulación de la IA incluya y respete:

  1. Ética y Responsabilidad: inclusión de principios éticos en el desarrollo y uso de IA, como transparencia, equidad, y respeto a la dignidad humana;

  2.  Protección de los Derechos Humanos: asegurar que la IA no viole ni ponga en peligro los derechos fundamentales de las personas, como la vida, la salud, la privacidad, y la no discriminación (no discriminación algorítmica / sesgos cognitivos);

  3. Seguridad y Fiabilidad: la IA debe ser segura y fiable. Debe ser sometida a pruebas rigurosas antes de su inclusión en el mercado y sometidas a supervisión continua;

  4.  Transparencia y Explicabilidad: los sistemas de IA deben ser trasparentes y auditables, y sus decisiones explicables a los usuarios y reguladores (prohibición del modelo de IA de caja negra);

  5. Control Humano: debe existir una instancia de control humano para autorizar y/o corregir aquellas acciones que afectan con gravedad a los usuarios.

En este sentido el Reglamento del Parlamento Europeo en materia de IA, aprobado el 13 de marzo de 2024, al que valoramos en su conjunto, es un ejemplo del desarrollo en profundidad de los principios enunciados más arriba.

De este instrumento queremos destacar su Capitulo II referido a las “Prácticas de IA Prohibidas”, especialmente su Art. 5° el cual a través de sus incisos prohíbe:

(a) la introducción en el mercado de sistemas de IA que empleen técnicas de manipulación y engaño de las personas con el objetivo de alterar el comportamiento de una persona mermando su capacidad para tomar una decisión informada y haciendo que la decisión tomada resulte en su propio perjuicio;

(b) la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona o un grupo específico de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con el objetivo o el efecto de alterar de manera sustancial su comportamiento y provoque perjuicios considerables a esa persona o a otra;

(c) el uso de sistemas de IA para “puntuación ciudadana” de personas físicas, por sus potenciales efectos discriminatorios;

(d) el uso de sistemas IA para evaluaciones de riesgos de personas físicas con el fin de evaluar o predecir la probabilidad de que una persona física cometa una infracción penal basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad;

(e) la creación de bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet;

(f) uso de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos. Así como diversos recaudos en el uso de identificación biométrica en tiempo real la cual estará supeditada a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa.

También cabe destacar los distintos recaudos en materia de responsabilidad por parte de quien introduzca en el mercado sistemas IA de Alto Riesgo, es decir, aquellas que plantean un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas. Así como los requisitos exigidos a estos sistemas, como la obligación de mantener un sistema de gestión de riesgos y de retiro del mercado ante el menor indicio de falla o riesgo.

Es obvio que este tipo de exigencias impuestas por la regulación de la IA como la evaluación previa y detallada de los sistemas de IA, el mayor tiempo entre la creación de un producto y su ingreso al mercado, etc., generan mayores costos al sector privado, lo que puede motivar a presiones sobre los gobiernos pidiendo se flexibilicen los controles alegando que los mismos son obstáculos para el desarrollo de las tecnologías y generan perjuicios económicos. También las potencialidades que la IA ofrecen en términos de control y monitoreo de sus ciudadanos pueden seducir a gobiernos con tendencias autoritarias para su uso y abuso. Ambos escenarios constituye un peligro latente y muy real que nos obliga a ocuparnos y permanecer atentos.

En conclusión, la IA y las tecnologías disruptivas tendrán un doble efecto en las sociedades. Por un lado, son una gran oportunidad para el progreso, por otro, su aplicación descuidada pone en peligro derechos humanos básicos, sobre todo cuando la IA opera tomando decisiones autónomas en situaciones de alto riesgo (vinculadas a la salud, seguridad, discriminación, etc.)

Su implementación generalizada constituye un gran desafío a los gobiernos que respetan las garantías individuales, la equidad y los derechos humanos, para lo cual se requiere una regulación adecuada. En este marco, nuestra responsabilidad como Defensores del Pueblo es proteger los derechos e intereses de los individuos y de la comunidad frente a los actos, hechos y omisiones de los gobiernos. Para el caso que nos convoca, se puede dar un escenario en donde los gobiernos, ya sea siguiendo sus propios intereses de control social o por presiones del lobby de la industria, se nieguen o demoren en regular la IA, o lo hagan en forma ineficaz. Es ahí en donde debemos trabajar informando a la sociedad de los riesgos y obligando a los gobiernos a cumplir con sus responsabilidades.

Notas

(1) Los términos «1.0», «2.0» y «3.0» refiere a diferentes generaciones y paradigmas de tecnologías. Cada uno representa una evolución en cómo se interactúa con las tecnologías digitales. Web 1.0: Información estática, comunicación unidireccional, navegación básica; Web 2.0: Contenido generado por usuarios, redes sociales, interactividad y colaboración; Web 3.0: Datos interconectados y procesables por máquinas, inteligencia artificial, personalización avanzada, descentralización y seguridad mejorada.

(2) https://www.mybusiness.com/news/global-startup-ecosystem-index-report- 2024?gad_source=1&gclid=Cj0KCQjwtsy1BhD7ARIsAHOi4xbEzyMssbC6ieJtYUIQPOl5KALtR8S5fLTe_WFynQN6aNOU dy0ub40aApLVEALw_wcB

(3) https://startupgenome.com/es/article/global-startup-ecosystem-ranking-2022-top-30-plus-runners-up

(4) N. Allahrakha. Equilibrio entre ciberseguridad y privacidad: Consideraciones en la Era Digital DOI:10.17323/27132749.2023.2.78.121

(5) E-governmen 2.0 o gobierno electrónico, caracterizado por el uso, desarrollo e implementación de las Tecnologías de la Información y Comunicación (TIC) en el sector público, con el fin de mejorar y hacer más eficientes los procesos organizacionales; la comunicación con el ciudadano; proveer más y mejores servicios; promover la transparencia y la rendición de cuentas; y generar mecanismos más eficientes de participación democrática. https://www.scielo.org.mx/pdf/edsc/v10n24/2007-8064-edsc-10-24-e2481028.pdf https://www.researchgate.net/publication/358959854_Government_30_Scenarios_and_Roadmap_of_Research

(6) Silveira, Denis & Silva, André. (2024). Algorithmic injustice and human rights. Filosofia Unisinos. 25. 1-17. 10.4013/fsu.2024.251.09. 10.4013/fsu.2024.251.09

(7) Yuval Noah Harari. Homo Deus.Breve Historia del Mañana. Random House. Debate. 2016 (Pág. 325)

(8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

(9) https://www.infobae.com/economist/2023/04/28/yuval-harari-cree-que-la-inteligencia-artificial-hackeo-el- sistema-operativo-de-la-civilizacion-humana/

(10) https://www.infobae.com/economist/2023/04/28/yuval-harari-cree-que-la-inteligencia-artificial-hackeo-el- sistema-operativo-de-la-civilizacion-humana/

(11) 2018, EPIC: Directrices universales para la inteligencia artificial; 2019, OCDE, Recomendaciones del Concejo sobre inteligencia artificial; 2021, UNESCO: Recomendación sobre la ética de la inteligencia artificial; 2022, OSTP: Declaración de Derechos IA; 2022 Informe del Parlamento Europeo sobre IA; 2024 Reglamento de la UE de la IA.

SEGUIME EN TWITTER

[td_block_2 custom_title="MÁS INFORMES" block_template_id="td_block_template_9" limit="3" category_id="51" sort="random_posts" f_header_font_family="fs_2"]