La protección de los derechos en la sociedad digital: Garantías para tiempos de crisis (II jornada)

Durante los días 12, 13 y 14 de julio se celebró en el Palacio de la Magdalena (Santander) el curso La protección de los derechos en la sociedad digital: Garantías para tiempos de crisisorganizado por la Universidad Internacional Menéndez Pelayo y la Fundación Gabeiras.

La segunda jornada del curso organizado por la UIMP y la Fundación Gabeiras estuvo presidida por D. Ricard Martínez Martínez, jurista experto y director de la Cátedra de privacidad y Transformación Digital Microsoft- Universitat de Valencia, miembro del Microsoft Health Advisory Council y director del Máster Universitario en Protección de Datos en la UNIR.

La segunda ponencia, fue llevada a cabo por Dª Laura Díez Bueso, directora General de Asuntos Constitucionales y Coordinación Jurídica y catedrática de derecho constitucional por la Universidad de Barcelona. La última conferencia, que clausuró la jornada, la realizó Dª. Alba Soriano Arnanz, investigadora postdoctoral del Departamento de Derecho Administrativo y Procesal en la Universitat de València.

La conferencia de Martínez se presentó bajo el título de La protección de la salud en el entorno digital, y versó, principalmente, sobre el uso de las nuevas tecnologías en el ámbito de la salud, incidiendo en la situación creada por la pandemia. En su intervención, evidenció el hecho de que no se ha dado un uso correcto de las denominadas TICs en el control del Covid-19, habiéndose enfrentado al virus con tecnologías nada actualizadas y con una regulación que no ha garantizado la salud de la población.

Posteriormente, hizo mención sobre cómo con nuevas tecnologías como el Big Data han surgido usos muy interesantes en lo referente a la predicción de enfermedades, toma de decisiones asistenciales o en el campo de la investigación sanitaria.

En base a la realidad del derecho y su relación con la salud en España, otro de los puntos fuertes de la intervención de Martínez versó sobre la utilización de datos personales con fines de investigación. Cabe destacar que el Reglamento General de Protección de datos (RGPD) permite su uso para dichos fines siempre que sea un asunto de interés público y que se adopten las debidas garantías.

En España, se ha legislado a través de la conocida Disposición adicional décimo séptima de la Ley Orgánica de Protección de Datos Personales y Garantía de Derechos Digitales, siendo una innovación importante por parte del legislador español. Según Martínez, esta disposición ha sido innovadora ya que permite la investigación con datos sin consentimiento de los interesados en situaciones de excepcional relevancia y gravedad para la salud pública”.

Martínez finalizó su intervención haciendo hincapié en que la medicina que tiende a la digitalización debe reducir asimetrías como la territorial, y en que estamos ante un entorno de innovación con grandes oportunidades para el país. Para él, la Carta de Derechos Digitales es una prueba de que España es puntera en la protección de los derechos del ciudadano frente a las nuevas tecnologías; sin embargo, pide que la digitalización de la sanidad debe llevar aparejada una regulación supranacional.

La conferencia impartida por Dª. Laura Díez Bueso fue presentada bajo el título de “Las libertades de expresión e información en el entorno digital” y giró en torno a la relación entre la jurisprudencia del TEDH en lo referente a la libertad de expresión e información, y los casos de mensajes vertidos en redes sociales, los cuales no han sido objeto de pronunciamiento por parte del tribunal.

Comenzó haciendo una diferenciación entre los medios tradicionales de comunicación y las redes sociales, para luego describir cinco parámetros que utiliza el TEDH para establecer si el mensaje supera, o no, los límites de la libertad de expresión e información. El principal objetivo de su ponencia fue analizar si estos parámetros se pueden aplicar a los mensajes en redes sociales.

  • El primer parámetro es la materia sobre la que versa el mensaje, por lo que, a mayor interés o relevancia, mayor protección recibe. Según el TEDH, hay tres tipos de materias: asuntos relacionados con el sistema democrático, asuntos menos relevantes como el deporte y asuntos relacionados con la religión. Según Díez, este parámetro sí se puede extrapolar a las redes sociales, permitiendo dar más o menos protección a diferentes publicaciones de los usuarios.
  • El segundo parámetro es quién es el emisor del mensaje. El TEDH opta por proteger mása políticos y medios de comunicación cuando emiten mensajes; sin embargo, recientemente, dicha interpretación jurisprudencial ha ido desviándose a un mayor número de pronunciamientos condenando a políticos o periodistas. Según Díez, el parámetro puede aplicarse a las redes sociales, pero con la dificultad de identificar al emisor que suponen estas.
  • El tercer parámetro es la intención del emisor al emitir el mensaje. Díez admite que este parámetro se complica en las redes sociales al funcionar estas en base a sus políticas internas.
  • El cuarto parámetro es el ámbito geográfico de emisión del mensaje. Como era de esperar, en redes sociales puede variar, ya que dependiendo del territorio el mensaje emitido puede tener efectos diferentes.
  • Por último, el quinto parámetro se basa en la seriedad del canal, la inmediatez del mensaje y el grado de difusión. Según la jurisprudencia del TEDH, a mayor seriedad del canal e inmediatez, mayor protección, y a mayor grado de difusión, menor protecciónEste parámetro podría ser controvertido en redes sociales, ya que por su naturaleza hay una elevada inmediatez y grado de difusión, por lo que podría derivar en una menor protección de la libertad de expresión de los usuarios.

La última ponencia, de Dª Alba Soriano Arnanz, se tituló “Algoritmos, discriminación y protección de los derechos”, y se centró en las desigualdades que puede provocar el uso de la inteligencia artificial y su relación con la opacidad y discriminación algorítmica.

Soriano pone atención en cómo algunos sistemas de IA pueden llevar a tomar decisiones sesgadas al trabajar con bases de datos provenientes de un contexto externo que puedan contar con una sobre /infrarrepresentación de grupos de población en dichas bases. Ejemplificó casos donde se había producido una discriminación en la toma de decisiones algorítmicas como el sistema IA de Amazon o un sistema de predicción de delitos en EEUU que enfocaba su atención de manera extrema en grupos minoritarios.

La ponente analizó también cómo las Directivas europeas diferencian entre situaciones de discriminación directa e indirecta. La primera es más difícil de probar al entenderse como el trato menos desfavorable a una persona que otra por su pertenencia a un grupo discriminado. La indirecta es una posibilidad más fácil para probar la discriminación algorítmica. “Hay que tener en cuenta que el propio análisis de los datos y variables ya puede conllevar un sesgo pro-máquina”, apuntaba Soriano

Para finalizar su intervención, puso sobre la mesa otros problemas derivados del uso de estos algoritmos, así como posibles soluciones. Entre los problemas, destacó el provocado por la escasa protección de los considerados “datos sensibles” (artículo 9 del RGPD) si son tratados por un sistema computacional: aunque datos como la pertenencia a un grupo étnico se consideran sensibles y se prohíbe su tratamiento, si son tratados por sistemas IA muy avanzados pueden ser detectados tras el análisis masivo de los datos personales permitidos. Como posible solucione destaca la necesidad de desarrollo de una normativa específica en materia de discriminación algorítmica.

Somos un sólido equipo de abogados, con un alto perfil profesional y profundamente comprometidos con la sociedad y con nuestros clientes