Una perspectiva de derechos para el Plan Nacional de Inteligencia Artificial
A lo largo de mayo estuvimos participando en los encuentros presenciales con mesas de trabajo organizadas para dialogar sobre el diseño e implementación del futuro Plan Nacional de Inteligencia Artificial. El presente documento tiene como fin complementar los aportes realizados en dichas reuniones.
En muchos casos, la Inteligencia Artificial (IA) utiliza datos personales para llevar a cabo sus actividades. De esta manera, cuestiones de privacidad y seguridad merecen el mayor examen posible debido a los perjuicios que un abuso de este tipo de tecnologías puede tener para las personas.
Las siguientes recomendaciones constituyen un punto de partida que debería tenerse en cuenta para que las iniciativas de IA sean respetuosas de los derechos humanos.
1. Adoptar los estándares internacionales de derechos humanos como marco principal a través del cual evaluar los efectos de la IA en los seres humanos. En este contexto, la ética puede cumplir una función pero debe ser complementaria al enfoque de derechos humanos. De este modo, el paradigma de la “ética por diseño” y la “privacidad por diseño y defecto” debería incorporarse a cualquier iniciativa de IA que utilice datos personales.
2. Reconocer la existencia de reglas vinculantes –como las leyes de protección de datos personales– y de organismos con capacidad para aplicarlos, como las autoridades de protección de datos. De esta manera, los desarrollos de IA que involucren el tratamiento de datos personales deben contar con una política pública, accesible y detallada acerca de –como mínimo– la forma en que se recolectaron los datos, los usos que se le darán y la manera en que tendrá lugar el procesamiento.
Por otro lado, el consentimiento, libre y expreso, debe ser la regla general para el tratamiento. Esto no implica desconocer que la complejidad del funcionamiento de los sistemas de IA vuelve difícil –si no imposible– lograr un consentimiento informado. Es por eso por lo que el respeto de los otros principios del sistema de protección de datos personales debe ser exigido independientemente de la forma del consentimiento.
3. Repensar ciertos principios clásicos del sistema de protección de datos personales a la luz de los nuevos dilemas de la IA. En este sentido, un ejemplo relevante es el principio de finalidad. Los métodos computacionales utilizados por la IA son tan poderosos que puede resultar imposible conocer todos los usos a que pueda dar lugar un tratamiento de datos.
Este fenómeno se acentúa en el caso de técnicas avanzadas, como las de machine learning. De este modo, el principio de finalidad debe gozar de máxima protección al momento de implementar un sistema de IA que opere con datos personales. Por lo tanto, los propósitos del tratamiento deben establecerse de modo explícito de manera previa a su inicio para que el titular del dato cuente con la información suficiente para dar un consentimiento válido.
4. La dificultad del consentimiento informado está ocasionada por la complejidad del funcionamiento de este tipo de sistemas incluso para sus mismos diseñadores. Por lo tanto, pareciera injusto que sean los individuos los que carguen con la responsabilidad de informarse y entender materias tan áridas como los efectos que los sistemas tengan sobre sus derechos fundamentales.
En este contexto, es importante reconocer que las formas tradicionales de protección de datos como el consentimiento pueden no tener la misma eficacia en sistemas complejos como los de la IA, si se lo considera de manera aislada de los otros principios. Por lo tanto, de la misma manera que sucede en otros ámbitos en donde se ha reconocido la desigualdad de posición entre las partes (derecho laboral, derecho del consumidor, entre otros), el consentimiento debe ser considerado como un requisito que se une a otros deberes y no como algo que los sustituye.
5. Los sistemas de Inteligencia Artificial deben incorporar mecanismos de seguridad digital, como un concepto distinto a “seguridad nacional”, “interés nacional” o “interés económico”. Este nuevo enfoque supone que la seguridad debe centrarse en la capacidad de las personas de relacionarse con la tecnología de manera beneficiosa para sus necesidades y preferencias, sin que ella les exponga de manera desproporcionada a riesgos de control de su autonomía e identidad.
Los controles de seguridad deben estar previstos en un lenguaje accesible para todo público. Para ello, es conveniente que participen en la redacción tanto los expertos en seguridad como personas de otros ámbitos (derecho, comunicación, etc.) y que puedan traducir a una terminología más amigable al usuario promedio la jerga técnica. Asimismo, deben establecerse auditorías independientes con acceso completo al funcionamiento del sistema para evaluar su compromiso con el respeto a los derechos fundamentales.
6. Establecer instancias de cooperación permanentes entre autoridades, academia, sector privado y sociedad civil para la discusión de evidencia e impactos en materia de Inteligencia Artificial. La participación multisectorial solo será significativa en tanto los diversos aportes realizados se reflejen en las acciones y documentos que se vayan a adoptar. A su vez, la etapa de supervisión y aplicación de lo acordado también debe contar con la intervención de todos los interesados en el proceso.
7. Con el fin de lograr la mayor efectividad del plan deberían generarse mecanismos que permitan el involucramiento de las provincias. Debido a que varias de las iniciativas de IA son llevadas a cabo o pueden ser realizadas por los gobiernos provinciales (solos o junto con empresas), es conveniente que estas autoridades también participen del proceso para poder dotar de mayor transparencia a aquellos desarrollos.
8. El plan debería reconocer explícitamente la existencia de grupos que se encuentran en especial situación de vulnerabilidad frente a los cuales la IA puede tener efectos particularmente perjudiciales. Quienes diseñen, desarrollen e implementen sistemas de IA deben garantizar que se eviten sesgos de etnia, género u otras características protegidas. Este aspecto resulta de especial relevancia en un país con niveles de desigualdad y discriminación considerables como el nuestro.
Los sistemas de IA pueden ser utilizados para asignar calificaciones crediticias, predecir zonas donde serán cometidos delitos o decidir quién ocupará un puesto de trabajo, entre otras actividades que impactan en derechos humanos. Si los algoritmos presentan sesgos que refuerzan prejuicios sociales, se corre el riesgo de producir resultados injustos y generar privilegios que incrementan las desventajas sufridas por esos grupos. Por lo tanto, el reconocimiento de esta situación debe dar lugar a que las políticas públicas que se formulen contemplen contextualmente la aplicación de la IA en sus poblaciones más vulnerables.
9. La toma de decisiones automatizadas por parte de sistemas de IA pueden producir profundos impactos en la vida de las personas, en cuestiones como empleo, vivienda, comercio o acceso al crédito. Para estos casos y otros en donde haya efectos jurídicos sobre los individuos, las personas deben tener el derecho a explicación.
Este derecho implica un conjunto de acciones que los responsables del tratamiento de datos deben cumplir: explicar la lógica seguida por el sistema para la decisión, informar de la existencia de intervención humana y si la hubo, detallar la forma. Además, las personas deben contar con el derecho a expresar su punto de vista y a impugnar la decisión.
10. El principio de transparencia debe ser incorporado como medio para permitir una evaluación independiente de las decisiones automatizadas. Posee un fuerte vínculo con el derecho de explicación, ya que permite al individuo conocer los fundamentos de una decisión adversa. Si bien puede no ser posible para el individuo interpretar las bases de una determinada decisión, esta situación no puede servir para pasar por alto la necesidad de asegurar que tal explicación sea posible.
11. Existe una asimetría de poder en la relación de identificación entre los individuos y los sistemas de IA. Mientras los sistemas poseen una gran cantidad de información acerca del individuo, este puede no conocer ni siquiera al operador del sistema. Por lo tanto, debe haber una obligación de identificación que permita que cada individuo conozca el sistema de IA en funcionamiento y la institución responsable.
12. La evaluación de los sistemas de IA deben tener lugar durante todo su ciclo de vida, en particular antes y durante su implementación. El objetivo de este examen es determinar si un sistema de IA debe ser establecido. En este sentido, si la evaluación detecta riesgos sustanciales para los derechos de las personas o la seguridad pública o no se cumplen de manera satisfactoria las condiciones de aplicabilidad, el proyecto debería ser abandonado o interrumpido inmediatamente.
13. Los individuos deben tener el derecho de oposición a que sus datos personales sean tratados por sistemas de IA, en especial aquellos que impliquen elaboración de perfiles acerca de su personalidad, conducta o hábitos. Esta facultad debería ser reforzada en los casos en que se utilicen datos sensibles o el sistema permite obtener datos sensibles o inferencias del mismo modo a partir de datos no sensibles.
14. En el caso de sistemas de IA que tomen decisiones automatizadas sobre las personas, deben estipularse políticas claras, transparentes y accesibles que permitan impugnar y remediar cualquiera de las decisiones tomadas mediante procesos automatizados. Para ello, es fundamental que exista intervención humana significativa que sea la responsable de tomar en última instancia esas decisiones. Asimismo, debe establecerse la obligación de terminar un sistema de IA cuando el control humano ya no sea posible.
Imagen de ilustración por Koma Zhang en Quanta Magazine.