Inteligencia artificial: riesgos, beneficios y su futuro en Argentina

Compartir

La creciente digitalización de la vida cotidiana viene acompañada de un avance en el uso de sistemas de inteligencia artificial (IA) por parte de gobiernos y empresas. Incluso en países de América Latina, la IA se encuentra avanzando a grandes pasos con discursos optimistas sobre sus beneficios pero con un bajo nivel de adopción de políticas, marcos o estrategias en comparación con América del Norte, Europa y Asia.

Como tecnología de propósito general, la inteligencia artificial modifica nuestras formas de trabajar, comerciar, consumir y comunicarnos. Hoy en día, estas tecnologías ayudan en la automatización de procesos, la reducción de ciertos errores y mejoras en la eficiencia, la experiencia del usuario y su uso en la vida diaria mediante asistente de voz como Alexa o Siri.

No obstante, especialmente desde la declaración de la pandemia mundial por COVID-19, diversas organizaciones han advertido a gobiernos de América Latina y el Caribe sobre la gravedad de incorporar sistemas de IA y tecnologías digitales para vigilar o controlar la población sin consideración de sus efectos en derechos humanos básicos. Un ejemplo es la implementación de aplicaciones móviles para controlar el avance del virus. Durante el 2020, Argentina ha llegado a lanzar hasta 5 aplicaciones de celulares distintas que, además de brindar información a ciudadanos y hacer autodiagnósticos, presentaba usos polémicos como controlar el tiempo de salida para hacer compras (en Tierra del Fuego) y controlar el cumplimiento del aislamiento obligatorio. Estas aplicaciones se presentaron con gran rapidez pero con poca aclaración sobre las políticas de privacidad (cuánto tiempo y quiénes tendrán acceso a los datos recopilados por la app y para qué serán utilizados) y los procedimientos de seguridad al tratar datos sensibles como los de la salud.

Otro caso de creciente interés es la implementación de sistemas de reconocimiento facial por parte de la policía y gobiernos locales de Argentina. Además de desbloquear nuestros teléfonos con nuestra cara, países de todo el mundo utilizan reconocimiento facial en aeropuertos, universidades y espacios públicos para vigilar a la población.

Imagen 1: El estado del reconocimiento facial en América Latina. Fuente Visual Capitalism/ Extraída de visualcapitalist.com/facial-recognition-world-map/

El reconocimiento facial (RF) abarca diversas técnicas que van desde la autenticación, identificación o clasificación de personas mediante la detección de sus caras. Si bien hay un esfuerzo global por limitar o prohibir el uso de RF como método de vigilancia masiva, que llevó a diversas ciudades líderes en el desarrollo de estas tecnologías a prohibirlas por su potencial abusivo -cómo San Francisco, Oakland, Berkeley, Sommerville, Portland, entre otras- gobiernos de América Latina las implementan cada vez más.

Para vigilarte mejor

En octubre del 2020 la Legislatura de la Ciudad Autónoma de Buenos Aires aprobó una reforma de la Ley 5688 que incorpora el uso de reconocimiento facial en cámaras ubicadas en la vía pública para la detección de prófugos. Sin embargo, estos sistemas ya se encontraban funcionando en las calles y estaciones de subtes desde el 2019 y habían llevado a numerosos falsos arrestos.

Una semana antes de la aprobación de la ley, diversas organizaciones nacionales e inclusive la Human Rights Watch denunciaba al gobierno argentino por la falta de seguridad en el manejo de los datos y la violación de derechos humanos con estos sistemas. La organización también llamó la atención sobre la publicación de datos personales de menores de edad con órdenes de arresto que incluyen delitos menores (el caso más extremo era un niño de 4 años). Se trata de una base de datos nacional de Argentina conocida como Consulta Nacional de Rebeldías y Capturas (CONARC) que contiene decenas de miles de entradas que detallan nombres, apellidos e imágenes de DNI de personas imputadas o sospechosas de crímenes. Esta base de datos es un archivo similar a una hoja de cálculo, sin protección adicional y que podía encontrarse con una búsqueda de Internet.

¿Qué peligros hay en emplear sistemas de IA en nombre de la seguridad o la salud?

Uno de los problemas esenciales de emplear sistemas de vigilancia masiva en la vía pública es que tratan a todas las personas como sospechosas. Las cámaras procesan información biométrica de toda persona que pasa frente a las cámaras, despertando problemas básicos de privacidad y una solución desproporcionada a los problemas que buscan solucionar. Si bien las cámaras de RF podrían implementarse para objetivos específicos y legítimos como controlar el esparcimiento del COVID-19 o encontrar fugitivos, estas tecnologías quedan luego instauradas en nuestra vida cotidiana y libres a utilizar por la policía u otro gobierno con sus propios objetivos que considera legítimos. A su vez, tiene un efecto inhibitorio, sobre todo sobre personas que emiten discursos críticos contra las mismas autoridades que tienen control sobre estas tecnologías.

Imagen 2: Pared de cámaras en Toronto, Canadá. Fuente: Unplash / Extraída de unsplash.com/photos/fPxOowbR6ls

Otra cuestión problemática de la aplicación de IA en nuestras vidas es la reproducción de sesgos cognitivos, causados principalmente por prejuicios tomados durante el proceso de desarrollo del algoritmo o en sus datos de entrenamiento. Es importante recordar que cuando hablamos de IA, muchas veces nos referimos a técnicas de aprendizaje automático (machine learning) que funcionan mediante el análisis de un sinfín de datos y la búsqueda de patrones y similitudes para realizar inferencias sobre ellos. Ésta búsqueda de patrones puede hacer que un sistema de reconocimiento facial tome el domicilio de una cara transeúnte, cruce este dato con un mapa de delincuencia e infiera que esa persona es delincuente. Si bien sabemos que estos sesgos están presentes en los seres humanos, no siempre lo esperamos de una IA que, además, lo lleva a nuevas escalas.

La reproducción de sesgos lleva a errores comunes en múltiples algoritmos con los cuales interactuamos constantemente. Un ejemplo que tomó relevancia recientemente es el algoritmo de Twitter que se priorizaba las caras de personas blancas en las vistas previas de las imágenes.

Significativamente más problemático resulta que un software de reclutamiento laboral rechace tu postulación a una empresa solo por ser una mujer o una persona de color porque su algoritmo “aprendió” que los candidatos masculinos y blancos son más deseables (ya que estos tienen, en general, cargos de mayor jerarquía y más experiencia en su CV). Otro caso extremo lo observamos en el área de la salud, donde un hombre afroamericano fue rechazado por un algoritmo para recibir un trasplante de riñón al considerar que por su etnia debería tener riñones más saludables que una persona blanca. Es decir, se toman decisiones en base a qué grupo social, cultural o étnico pertenecés (“quién sos”) y no en base a tus acciones (“qué hacés”).

Estrategia nacional y gobernanza de datos en Argentina

Uno de los desafíos principales que enfrentan todos los países ante el crecimiento vertiginoso de la IA se relaciona con su regulación, en pos de consolidar sociedades más justas e inclusivas, captar sus beneficios y mitigar los riesgos que implica su uso. Los estados cumplen un rol central a la hora de promover y facilitar el proceso de adopción de la IA por parte de los diferentes sectores y actores y, al mismo tiempo, deben hacer frente a complicados desafíos éticos y sociales que esta tecnología impone.

En Argentina, el Plan Nacional de Inteligencia Artificial fue presentado el último día de la gestión presidencial de Mauricio Macri en diciembre de 2019 y busca integrarse a otros dos procesos existentes, como la Agenda Digital Argentina 2030 y la Estrategia Nacional Argentina Innovadora 2030.

Los principales objetivos del plan son:

  • Maximizar el potencial económico y de crecimiento con la adopción de la IA tanto por parte del sector privado como público;
  • Minimizar los riesgos inherentes a la IA en términos de impacto social, alineados con principios éticos y legales;
  • Favorecer el desarrollo del talento orientado a la IA y las capacidades técnicas y científicas;
  • Desarrollar un ecosistema nacional que promueva la vinculación entre distintos sectores en torno a la IA.

El plan hace foco en la temática de los datos. Los objetivos específicos incluyen “promover la generación y la demanda de datos estandarizados y adecuados para las distintas técnicas de IA, fortaleciendo los mecanismos de apertura en el sector público, privado y académico; (…) hacer disponibles los activos de datos públicos y privados críticos para el desarrollo de la IA en sectores estratégicos; y garantizar la calidad y el cumplimiento normativo de las bases de datos” (Aguerre, 2020, p.10)[1].

En este sentido, el informe destaca el desafío que posee el sector público en la explotación de los datos recolectados, sin comprometer la privacidad de las personas y la seguridad de la información. Asimismo, se destaca la política de datos abiertos (datos sin restricciones de derechos de autor u otros mecanismos de control) y de acceso a la información pública, junto a otros casos positivos sobre la cual se debería desarrollar la IA.

Conclusiones y expectativas a futuro

Al tratar con tecnologías altamente disruptivas y complejas que se involucran crecientemente en más ámbitos de nuestra vida social y económica, es importante que el país y la región cuente con organizaciones que monitoreen y estudien el impacto de la IA. Si bien aún no contamos con modelos regulatorios establecidos, sí existen diversas organizaciones que trabajan en pos de este objetivo.

Por ejemplo, en nuestro país, la Asociación por los Derechos Civiles (ADC) lanzó en 2019 la campaña #ConMiCaraNo, que busca concientizar sobre la propagación del reconocimiento facial, alertando sobre los riesgos y derechos que pueden ser vulnerados con esta tecnología, como la privacidad y la libertad de expresión. Por su parte, la Fundación Vía Libre, principalmente preocupada por la defensa de los derechos humanos en entornos digitales, elaboró un dossier titulado “Impactos sociales de la Inteligencia Artificial. Poniendo el foco sobre Argentina” que resalta la necesidad de regular la implementación de tecnologías de IA teniendo como objetivo principal el bienestar de la sociedad, el bien común de las personas y el respeto de derechos establecidos en los Pactos de Derechos Humanos a los que la Argentina le ha dado rango constitucional.

Imagen 4: Afiche promocional de #ConMiCaraNo. Fuente: ADC / Extraída de: https://conmicarano.adc.org.ar/

Otras organizaciones son Access Now, que trabaja en influir políticas públicas que extiendan los derechos digitales de usuarios, y el área de Inteligencia Artificial del CETyS, que funciona como un repositorio académico y científico sobre los aspectos éticos y regulatorios de la Ia en la región.

Dado que la IA es una creación humana que puede reproducir nuestras virtudes, pero también nuestros defectos, concluimos con que es necesario adoptar un enfoque interseccional y multidisciplinario en la producción y desarrollo de la IA. Solo desde un enfoque crítico, basado en la transparencia y en la responsabilidad algorítmica, podemos superar los numerosos riesgos que mencionamos y lograr una IA no sólo eficiente y robusta, sino también inclusiva, ética y que contribuya a lograr sociedades más justas.


[1]Aguerre, C. (2020). Estrategias nacionales de IA y gobernanza de datos en la región. Guía IA – CETyS


Compartir

Ivan Kirschbaum

Ivan Kirschbaum, Oficial de Comunicaciones en el Centro de Estudios en Tecnología y Sociedad (CETyS). Licenciado en Comunicación (UdeSA). Cursando la Diplomatura en Gobernanza de Internet del CETyS.

Delfina Ferracutti

Delfina Ferracutti, Asistente de Programas Académicos en el Centro de Estudios en Tecnología y Sociedad (CETyS). Asistente de Investigación Centro de Estudios sobre Medios y Sociedad en Argentina (MESO). Licenciada en Comunicación (UdeSA) y maestranda en Sociología Política Internacional (UNTREF)

Compartí:

Articulos relacionados

Sociedad

¿Las ciudades están hechas para las mujeres?

Compartir

Con el objetivo de dar una respuesta integral al transporte con perspectiva de género es preciso integrar la categoría de movilidad “de los cuidados”, entendida como la necesidad de evaluar e identificar los viajes diarios relacionados con las actividades del cuidado.


Compartir
Leer Más»
Sociedad

¿Las ciudades están hechas para las mujeres?

Compartir

Con el objetivo de dar una respuesta integral al transporte con perspectiva de género es preciso integrar la categoría de movilidad “de los cuidados”, entendida como la necesidad de evaluar e identificar los viajes diarios relacionados con las actividades del cuidado.


Compartir
Leer Más»