25 de Noviembre de 2024 /
Actualizado hace 20 segundos | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Análisis


Inteligencia artificial y tratamiento de datos personales

21 de Noviembre de 2022

Reproducir
Nota:
153389
Imagen
Img-articulo-especial-editorial-6.jpg

Nelson Remolina Angarita

Director de la Escuela de Posgrados de la Facultad de Derecho de la Universidad de los Andes

Dotar a las computadoras con inteligencia de tipo humano ha sido un sueño de algunos desde los inicios de la computación electrónica. Aunque el término "inteligencia artificial" (IA)  fue acuñado en 1956, sus inicios se remontan a la década de 1940[1]. La idea de este tipo de inteligencia se cristalizó en el famoso artículo de Alan Turing en 1950, Computing Machinery and Intelligence, en el cual se planteó la pregunta: “¿Pueden las máquinas pensar?”. También propuso una prueba para responder esa pregunta y planteó la posibilidad de que una máquina pudiera estar programada para aprender de la experiencia tanto como lo hace un humano[2].

La IA está impactando muchos aspectos de nuestra sociedad y son inimaginables sus futuros efectos. La ola de progreso y entusiasmo por la IA se ha visto impulsada por la disponibilidad de enormes cantidades de información que es procesada por algoritmos y otras innovaciones cada vez más potentes, sofisticadas y de impacto masivo en la sociedad, la economía, la política, la salud y los negocios[3].

La IA no se crea sola. Los seres humanos son quienes la diseñan, crean y ponen en marcha. Por eso, de la inteligencia y ética de esas personas dependen no solo el éxito de la IA sino la protección de los derechos humanos de millones de personas. La mejor forma de proteger un derecho es evitar su vulneración. Por eso, es necesario impedir afectaciones a los derechos de las personas. Ello implica que el diseño, desarrollo e implementación de los sistemas de IA esté orientado a cumplir, entre otras, esa finalidad preventiva.

La innovación tecnológica y la evolución acumulativa de técnicas y tecnologías han generado que la IA cada día sea más sofisticada y potente[4]. Muchas técnicas utilizadas para analizar grandes volúmenes de datos fueron desarrolladas por investigadores de IA y ahora se identifican como algoritmos y sistemas de "Big Data"[5].

El correcto desarrollo de los productos de IA traerá más beneficios[6], pero la indebida creación y desarrollo de los mismos generará graves perjuicios. Por eso, sigue siendo válido preguntarnos lo siguiente: ¿todo lo tecnológicamente posible es socialmente deseable?

Aunque no existe consenso sobre la definición de la IA, se han señalado algunas formas de clasificar lo que ella constituye. En un popular texto sobre el tema, Artificial Intelligence: A Modern Approach, se propuso la siguiente taxonomía:

  1. Sistemas que piensan como humanos (por ejemplo, arquitecturas cognitivas y redes neuronales).
  2. Sistemas que actúan como seres humanos (por ejemplo, razonamiento automatizado y aprendizaje).
  3. Sistemas que piensan racionalmente (por ejemplo, inferencias).
  4. Sistemas que actúan racionalmente (por ejemplo, agentes de software inteligentes y robots incorporados que logran objetivos mediante la percepción, la planificación, el razonamiento, el aprendizaje, la comunicación, la toma de decisiones y la actuación)[7].

La IA involucra la recolección, el almacenamiento, el análisis, procesamiento o interpretación de enormes cantidades de información que son usados para generar diversos resultados, acciones o comportamientos por parte de las máquinas. En otras palabras, los datos son el alimento o el combustible de la AI a tal punto que se podría afirmar que un proyecto de inteligencia artificial sin datos es como un río sin agua.

La inteligencia artificial debe garantizar el debido tratamiento de los datos personales y el respeto de los derechos humanos

Como es sabido, la protección de los datos personales es un derecho humano reconocido en muchas constituciones y regulaciones del mundo. Actualmente, no menos del 75 % de los países del mundo tiene regulaciones generales sobre protección de datos. El debido y ético tratamiento de datos personales es imprescindible para evitar que con el desarrollo de la IA se vean lesionados o amenazados, según el caso, los derechos humanos y la dignidad humana.

En línea con lo anterior, no son pocas las iniciativas y organizaciones que han trabajado para exigir el desarrollo de IA respetuoso de los derechos humanos. Veamos dos ejemplos:

En primer lugar, la Global Privacy Assembly (GPA) aprobó en el mes de octubre del 2020 la Resolution on Accountability in the Development and the use of Artificial Intelligence. Esa resolución, entre otras, insta a las organizaciones que desarrollan o utilizan sistemas de inteligencia artificial (IA) a considerar la implementación de las siguientes medidas:

  • Evaluar el posible impacto en los derechos humanos (incluida la protección de datos personales y los derechos de privacidad) antes del desarrollo y/o uso de la IA;
  • Probar la solidez, confiabilidad, precisión y seguridad de los datos de la IA antes de ponerla en uso, incluida la identificación de sesgos en los sistemas y los datos que se utilizan que pueden conducir a resultados injustos;
  • Implementar medidas de responsabilidad demostrada que sean apropiadas con respecto a los riesgos de interferencia con los derechos humanos.

Previo a ello, en junio de 2019, la Red Iberoamericana de protección de datos (RIPD) publicó las “Recomendaciones generales para el tratamiento de datos personales en la inteligencia artificial”[8] . Allí, se realizan algunas sugerencias a quienes desarrollan productos de IA, con el fin de orientarlos para que desde el diseño del producto se tengan en cuenta las exigencias de las regulaciones sobre tratamiento de datos personales. Las recomendaciones son las siguientes:

  1. Cumplir las normas locales sobre tratamiento de datos personales (TDP)
  2. Efectuar estudios de impacto de privacidad
  3. Incorporar la privacidad, la ética y la seguridad desde el diseño y por defecto
  4. Materializar el principio de responsabilidad demostrada (accountability)
  5. Diseñar esquemas apropiados de gobernanza sobre TDP en las organizaciones que desarrollan productos de IA      
  6. Adoptar medidas para garantizar los principios sobre TDP en los proyectos de IA
  7. Respetar los derechos de los titulares de los datos e implementar mecanismos efectivos para el ejercicio de los mismos        
  8. Asegurar la calidad de los datos personales
  9. Utilizar herramientas de anonimización      
  10. Incrementar confianza y la transparencia con los titulares de los datos personales            

Para conocer los detalles de la implementación de algunas de estas recomendaciones, la RIPD ha elaborado unas directrices complementarias y más detalladas contenidas en el documento denominado “Orientaciones específicas para el cumplimiento de los principios y derechos que rigen la protección de los datos personales en los proyectos de Inteligencia Artificial”.

En esos documentos se plantea que la privacidad desde el diseño y por defecto (Privacy by Design and by Default) busca garantizar el correcto tratamiento de los datos utilizados en los proyectos que involucren recolección, uso o tratamiento de datos personales. Así las cosas, el debido tratamiento de la información debe ser un componente esencial del diseño y puesta en marcha de proyectos de inteligencia artificial.

 

Adicionalmente, también es decisivo que la ética desde el diseño y por defecto irradie el esquema, desarrollo y uso de los datos en proyectos de IA, teniendo que ser parte fundamental de cualquier aspecto relacionado con esa actividad.

Estos temas son objeto de estudio y análisis en diferentes programas de la Escuela de Posgrados de la Facultad de Derecho de la Universidad de los Andes. Los invito a que formen parte de esta comunidad académica. 

[1] Warren S. McCulloch and Walter H. Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity,” Bulletin of Mathematical Biophysics, 5:115-133, 1943.

2 National Science and Technology Council: Committee on Technology, “Preparing for the Future of Artificial Intelligence,” Government Report.

3 Appendix of the AI 100 Report. Peter Stone, Rodney Brooks, Erik Brynjolfsson, Ryan Calo, Oren Etzioni, Greg Hager, Julia Hirschberg, Shivaram Kalyanakrishnan, Ece Kamar, Sarit Kraus, Kevin Leyton-Brown, David Parkes, William Press, AnnaLee Saxenian, Julie Shah, Milind Tambe, and Astro Teller, "Artificial Intelligence and Life in 2030," One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016, http://ai100.stanford.edu/2016- report.

4 Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence, 2nd ed. (Natick, MA: A. K. Peters, Ltd., 2004).

5 National Science and Technology Council: Committee on Technology, “Preparing for the Future of Artificial Intelligence,” Government Report.

6 Sobre los beneficios se sugiere leer el siguiente texto: Viola, Roberto (2018) Artificial Intelligence, Real Benefits. Publicado en: https://ec.europa.eu/digital-single-market/en/news/artificial-intelligence-real-benefits

7 Stuart Russell and Peter Norvig, Artificial Intelligence: A Modern Approach (3rd Edition) (Essex, England: Pearson, 2009).

8 Texto aprobado por las entidades integrantes de la Red Iberoamericana de Protección de Datos en la sesión del 21 de junio de 2019, en la ciudad de Naucalpan de Juárez, México. La guía puede consultarse en: https://www.redipd.org/sites/default/files/2020-02/guia-recomendaciones-generales-tratamiento-datos-ia.pdf

 

[1] Warren S. McCulloch and Walter H. Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity,” Bulletin of Mathematical Biophysics, 5:115-133, 1943.

[2] National Science and Technology Council: Committee on Technology, “Preparing for the Future of Artificial Intelligence,” Government Report.

[3] Appendix of the AI 100 Report. Peter Stone, Rodney Brooks, Erik Brynjolfsson, Ryan Calo, Oren Etzioni, Greg Hager, Julia Hirschberg, Shivaram Kalyanakrishnan, Ece Kamar, Sarit Kraus, Kevin Leyton-Brown, David Parkes, William Press, AnnaLee Saxenian, Julie Shah, Milind Tambe, and Astro Teller, "Artificial Intelligence and Life in 2030," One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016, http://ai100.stanford.edu/2016- report.

[4] Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence, 2nd ed. (Natick, MA: A. K. Peters, Ltd., 2004).

[5] National Science and Technology Council: Committee on Technology, “Preparing for the Future of Artificial Intelligence,” Government Report.

[6] Sobre los beneficios se sugiere leer el siguiente texto: Viola, Roberto (2018) Artificial Intelligence, Real Benefits. Publicado en: https://ec.europa.eu/digital-single-market/en/news/artificial-intelligence-real-benefits

[7] Stuart Russell and Peter Norvig, Artificial Intelligence: A Modern Approach (3rd Edition) (Essex, England: Pearson, 2009).

[8] Texto aprobado por las entidades integrantes de la Red Iberoamericana de Protección de Datos en la sesión del 21 de junio de 2019, en la ciudad de Naucalpan de Juárez, México. La guía puede consultarse en: https://www.redipd.org/sites/default/files/2020-02/guia-recomendaciones-generales-tratamiento-datos-ia.pdf

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)