Por Brenda Murphy y Cindy Salamanca
El avance imparable de la inteligencia artificial plantea desafíos cruciales para la democracia y la protección de la privacidad. A medida que se intensifica la recopilación de datos personales a través de diversas plataformas, la inquietud sobre quién controla y utiliza esta información se convierte en un punto crítico.
La automatización en la política se presenta en un escenario donde las decisiones pueden ser influidas por algoritmos, planteando interrogantes sobre la equidad y la representatividad. ¿Cómo se asegura que estos sistemas no introduzcan sesgos que afecten el proceso democrático? ¿Cuáles son los límites éticos y legales de la intervención de la IA en la toma de decisiones políticas?
A lo largo del tiempo, las sociedades buscaron que sus sistemas políticos funcionen de mejor manera, ante cierto descontento de la ciudadanía y la fuerte desconfianza en las instituciones. Por otra parte, con la llegada de nuevos sistemas inteligentes, existe una mayor confianza en su información a través de los procesos automáticos. Es por eso que los procesos democráticos buscan su mecanización, disminuyendo la intervención humana en ciertos aspectos.
El magíster en Filosofía, José María Aguerre, destaca la potencial contribución de la inteligencia artificial al desarrollo humano y, particularmente, al fortalecimiento del sistema democrático de gobierno. En sus palabras: «En el ámbito de la educación, la inteligencia artificial posibilita que los ciudadanos estén más educados y mejor preparados para abordar los desafíos inherentes a la participación en un sistema democrático».
Sin embargo, el profesor de la UCA advierte que la inteligencia artificial, siendo poderosa, presenta riesgos ligados a quiénes la programan y los sesgos que introducen, especialmente en una contienda electoral, al predecir lo que va a suceder e impulsar a los ciudadanos a tomar ciertas decisiones. El especialista también destaca la falta de transparencia en el proceso de programación, junto con la ausencia de accesibilidad en algunos casos, emerge como una preocupación clave.
«Probablemente, uno de los problemas es la falta de transparencia. En algunas de ellas, no conocemos las fuentes de donde obtienen sus respuestas. No es un problema de la inteligencia, sino el mal uso de una herramienta muy poderosa como esta, que podría llegar a causar la pérdida de la noción entre lo que es real y lo que es ficticio», señala el educador.
Por otro lado, la investigadora Natacha Soledad Represa, directora del Laboratorio de Ciencia de Datos e Inteligencia Artificial de la UCA, destaca la urgente necesidad de conciencia ciudadana en relación con los sesgos de la IA. Para la experta, es esencial que la población sea consciente de estos sesgos para fomentar una reflexión profunda sobre los factores invisibles que podrían estar influyendo o actuando sobre la base de datos de la IA y, por ende, en nuestras decisiones democráticas.
El futuro de la democracia es decisivo para muchos países en 2024, incluso lo fue este año para Argentina, donde el libertario Javier Milei fue elegido como nuevo presidente. En este escenario, la IA se convirtió en una herramienta poderosa que puede presentar riesgos significativos al intervenir en las campañas electorales.
Uno de los problemas que se presentaron en la escena electoral a nivel mundial son los llamados «deepfakes», que se basan en videos, imágenes o audios tergiversados mediante el uso de la IA. Por ejemplo, así ocurrió en la campaña electoral en Estados Unidos, donde circuló una imagen falsa del arresto del expresidente Donald Trump en todas las redes sociales.
A nivel local, se viralizaron videos falsos del candidato de Unión por la Patria, Sergio Massa, quien fue blanco de una «campaña sucia». En las imágenes se le ve aspirando un supuesto polvo blanco, insinuando un comportamiento relacionado al consumo de drogas.
Así se usa la Inteligencia Artificial para producir los deepfake. pic.twitter.com/NJ93fLYYC4
— Mauro Brissio (@BrissioMauro) November 8, 2023
Con respecto a estos casos, Aguerre sostiene que «las redes sociales, más que democratizar el acceso a la información y dar mayor participación, nos dan una sensación de que participamos más o de que estamos más informados, pero muchas veces nos terminan manipulando más a través de sus contenidos creado por los algoritmos».
Según el filósofo, la IA puede tener un impacto negativo en la toma de decisiones políticas si se utiliza de manera engañosa o indebida. Además, advierte sobre el peligro de considerarla como una herramienta que puede reemplazar a la inteligencia humana, ya que carece de la profundidad necesaria para comprender verdaderamente los grandes problemas que afectan a la humanidad. Destaca que confundir la IA con la inteligencia humana sería perjudicial para el sistema democrático y para la sociedad en general.
En el panorama actual de nuestro país, la ausencia de una legislación específica sobre inteligencia artificial y su papel en el proceso democrático plantea un vacío normativo. A diferencia de varios países, incluida la Unión Europea, que han implementado controles para abordar este fenómeno revolucionario.
Actualmente en Argentina la normativa existente para la defensa contra abusos de la IA se encuentra en la «Ley de Protección de Datos Personales» del 2000. Esta ley establece parámetros éticos para el tratamiento de datos personales por parte de organizaciones y empresas. No obstante, el abogado especializado en ciberdelitos, Adrián Rodríguez, sostiene que esta legislación quedó obsoleta en comparación con normativas más avanzadas, como el Reglamento General de Protección de Datos de la Unión Europea y la ley de privacidad del estado de California.
Sin embargo, para Represa, docente de Introducción a Ciencias de Datos de la UCA, el problema no está en las leyes, sino en sus aplicaciones. “Me parece muy importante que la ciudadanía esté informada para que nosotros seamos conscientes y exijamos la correcta aplicación de las leyes que ya existen”, explica.
Por último, el experto en filosofía señala que la responsabilidad legal es importante. «Se debe considerar un sistema de control que sea muy cuidadoso, ya que este debe limitar la libertad de expresión y de desarrollo. Sin embargo, más que la palabra ‘control’, me gusta más la palabra ‘regulación’, una regulación que apunte a que se respeten ciertos valores éticos», advierte. Y en ese sentido, sugiere: «Un control que, más que delegar en entidades internacionales o supranacionales, tiene que ver, creo yo, primero con las autoridades elegidas por el pueblo en cada nación y, segundo, también con las propias empresas en diálogo con los usuarios».