El blog jurídico de Sepín

El Quinto poder: los emperadores de la economía digital

Escrito por José López Calvo | 28 de septiembre de 2022 - 06:15

“Y no es maravilla, porque el mismo Satanás se disfraza como ángel de luz.” Corintios 11:14

Y de prestar un servicio se pasa… si es esencial e insustituible, a la decisión, al poder.

En un duelo soterrado (o no tanto) en que las megaempresas tecnológicas de GAFAM[1] mantienen un pulso con las instituciones públicas que ha llevado incluso a que el demócrata David Cicilline, presidente del subcomité antimonopolio de la Cámara de Representantes de Estados Unidos en julio de 2020, donde se llevó a cabo la audiencia de los presidentes ejecutivos de Apple, Amazon, Google y Facebook, apelara con vehemencia a las esencias estadounidenses para defender la necesidad de poner límites al poder de las grandes tecnológicas. Tras recordar en su intervención inicial que “Nuestros padres fundadores no se inclinaron ante un rey”, que “tampoco nosotros debemos inclinarnos ante los emperadores de la economía digital”.

A lo que Tim Cook, emperador de Apple, primero formuló una obligada declaración de principios: "Estoy aquí hoy porque el escrutinio es responsable y apropiado. Abordamos este proceso con respeto y humildad”Para culminar con una reveladora frase final de apostilla-veredicto. Porque, ya se sabe, que lo que se dice antes de un “pero” es vacío, no tiene ninguna validez: “Pero no hacemos ninguna concesión sobre los hechos…"

Nos sometemos al procedimiento, pero no renunciamos a nuestro dominio… Vigilantes y dispuestos a pasar a la acción, como ha hecho Facebook en Europa en que ha demandado en los Tribunales a las autoridades antitrust por… invadir la privacidad [2].

¿Dónde y cómo desarrollan su poder? En múltiples aspectos.

1. Practicando un eficaz “cabildeo” frente a los poderes democráticos.

Originarios de operadores no elegidos, con capacidad y vocación de presionar a Gobiernos democráticos que si han sido elegidos, como se desveló de una filtración interna de Facebook[3] en un juicio contra esa red social por el desarrollador de aplicaciones Six4Tookhree.

Manipulando a gran escala Gobiernos extranjeros las campañas electorales en todo el mundo, según confirman filtraciones internas, mediante cuentas de noticias falsas en Facebook como instrumento privilegiado para engañar a su propia ciudadanía[4]

Superando a través del lobby incluso la alegoría: un empleado de Microsoft escribió literalmente la Ley de Reconocimiento Facial de Washington[5].

Y a la inversa, GAFAM se posiciona como un poderosísimo lobby también frente a las decisiones de los políticos. Ya lo hizo respecto a algunas de las medidas adoptadas o esbozadas en su momento por el Presidente Trump.

Así, se manifestó en bloque contra su política de inmigración y sobre la viabilidad de una base de datos de musulmanes esbozada poco después de su toma de posesión.

 2. “Legislan” sobre lo que hacen con nuestros datos mediante la “autorregulación”.

Adoptan criterios y se (auto)regulan en supuestos de vacío y lentitud del legislador.

El tópico de que la legislación va detrás de los avances encuentra una nueva dimensión en la vertiginosa velocidad de las mejoras tecnológicas, cuyos protagonistas tecnológicos están dispuestas a autorregularse en ausencia de normas jurídicas que son limitadas en su alcance y se someten a lentos procesos de aprobación. Así, la concreción por ley del novedoso derecho de “portabilidad” introducido en el Reglamento Europeo de Protección de Datos, fue rechazada por el Consejo de Estado ante su constancia de que confluían múltiples interpretaciones, e incluso confusión, como se manifestó en la fase de información pública en que el proyecto se somete a escrutinio y opinión de la sociedad.

Las normas buscan consenso y en su ausencia se retraen, lo que choca con escenarios imprevistos e imprevisibles, para los que la lentitud del sistema legislativo y judicial no ofrece soluciones ágiles.

Google ha emitido su propio conjunto de directrices sobre cómo los robots deben actuar. En un documento denominado “problemas concretos en la IA de seguridad” aprendizaje profundo de Google-Brain AI división establece criterios de funcionamiento de los robots.

Incluso Google, Facebook, Amazon, IBM y Microsoft han creado un consorcio enfocado a establecer buenas prácticas sociales y éticas en materia de Inteligencia artificial [6]

 3. Legislan ademocráticamente a través de la “caja negra”

Porque el Código fuente es ley. Inaccesible al entendimiento, el programador y los reyes tecnológicos multinacionales se erigen en legislador, sin separación de poderes, con una capacidad muy limitada de contraste y control por el ciudadano. Como afirman algunos informáticos, es la “legislación del último metro”.

Y, como en un nuevo despotismo ilustrado, se hace todo por el pueblo, pero sin el pueblo, que soporta un diseño cuasi subatómico indescifrable.

La propia Comisión Europea en el LIBRO BLANCO sobre la inteligencia artificial[7] considera que la opacidad («efecto caja negra»), la complejidad, la imprevisibilidad y un comportamiento parcialmente autónomo, pueden hacer difícil comprobar el cumplimiento de la legislación vigente de la UE sobre la protección de los derechos fundamentales en la IA e impedir su cumplimiento efectivo. Señalando que incluso las fuerzas y cuerpos de seguridad y las personas afectadas carecen de los medios para comprobar cómo se ha tomado una decisión determinada con ayuda de la IA.

La infinitamente superior competencia y capacidad de GAFAM para diseñar algoritmos, combinada con su opacidad de “caja negra” les puede atribuir una divina competencia para diseñar el ADN que gobierna las decisiones.

Un ejemplo que demuestra la enorme trascendencia que supone el acceso al Código fuente se encuentra en el caso Toyota Camry. Que comenzó cuando, a principios de este milenio, la división en Estados Unidos de Toyota comenzó a recibir múltiples reclamaciones de conductores que se quejaban de que, en ocasiones, el modelo Camry comenzaba a acelerar de forma imprevisible sin que el conductor pudiese evitarlo. Poco después se produjeron víctimas y el conductor de uno de aquellos Toyota fue encarcelado tras ser declarado culpable de un accidente.

Al principio nadie creyó las acusaciones de que el coche había acelerado por sí solo. Incluso se encargó un estudio a la NASA que certificó que el coche funcionaba perfectamente lo que, tras numerosas investigaciones e interrogatorio de afectados, provocó que se diera el caso por judicialmente cerrado.

Sin embargo, entre finales de 2009 y principios de 2010, Toyota empezó a llamar a los propietarios del modelo Camry para solucionar algunos aspectos. Toyota pensó que las alfombrillas podían interferir en el correcto funcionamiento del acelerador y atascarlo de forma que probó a cambiarlas e incluso a serrar el pedal del acelerador pensando que podía haber un problema en la barra… pero sin éxito.

Las denuncias de conductores que afirmaban que su Toyota había acelerado espontáneamente habían aumentado y los accidentes también. En enero de 2010 Toyota había llamado a revisión a alrededor de 7,5 millones de vehículos por problemas relacionados con el acelerador.

Sin embargo el 24 de octubre de 2013 la situación dio un giro copernicano cuando un Jurado falló contra Toyota y la declaró culpable de la aceleración espontánea de sus vehículos.

¿Qué había pasado?

Que Michael Barr, un ingeniero de software había conseguido examinar el código que gobernaba el funcionamiento del acelerador electrónico de los Camry y había declarado que el mismo era «una basura» y que estaba lleno de malas prácticas.

Michael Barr, naturalmente, sólo pudo llegar a esa conclusión cuando logró examinar el código fuente que gobernaba el acelerador electrónico. Había accedido a las tripas del algoritmo, a la clave de funcionamiento.

Nadie, ni la NASA como fue el caso, puede examinar con eficacia cómo funciona un programa informático si el fabricante no desvela su código fuente y eso, para las grandes empresas de GAFAMT, como Microsoft que definen el software propietario, es inaceptable.

Pero la conclusión es que un programa de software cuyo código fuente no sea conocido puede hacer cosas que nunca sabremos y con una lógica que desconocemos.

 4. Algoritmos en la Administración son Reglamentos

Trasplantado a la Administración los algoritmos se convierten en reglas, intermediarios e instrumentos de uso imprescindible para adoptar decisiones[8]. Que les otorga potencialmente la condición de verdaderos reglamentos[9]. Naturaleza normativa. La Administración, al adoptar decisiones mediante algoritmos o programas informáticos, en realidad convierte a los mismos en reglamentos. Cuando decide –como ya hace[10]- la lista de espera hospitalaria y quien recibe tratamiento médico preferente, se convierten en verdaderas programaciones normativas al adoptar decisiones con trascendencia frente a terceros. Incluso en el ámbito judicial, como ya se planteó en el “caso State versus Loomis” en 2013 en la Corte Suprema del Estado de Wisconsin. Ante la alegación de que era secreto el algoritmo que atribuía al Señor Loomis “riesgo elevado de reincidencia” y de cometer actos violentos, que solo lo conocía la empresa que lo había desarrollado, los jueces argumentaron que, en definitiva, el programa informático se había basado únicamente en los factores habituales para medir la peligrosidad criminal futura como, por ejemplo, huir de la policía y el historial delictivo previo.

Decisiones automatizadas con efectos sobre el ciudadano que no solo puede convertir a los algoritmos en una posible y novedosa fuente del Derecho, sino que debiera estar sometida a las mismas garantías de cualquier otro acto administrativo: control, motivación o transparencia.

Y recordemos que en el actual estadio prevalece la opacidad, como resolvió el Consejo de Transparencia respecto al programa BOSCO, un software desarrollado por orden del Gobierno que las eléctricas utilizan para decidir quién es beneficiario del bono social que aplica un descuento en la factura de la luz a las familias vulnerables.

La fundación Civio planteó una reclamación alegando que se trataba de un programa incorrectamente diseñado que negaba ayudas a personas que tendrían derecho, en especial jubilados y viudas que se quedaban sin bono por decisión del algoritmo.

Pues bien, el Consejo de Transparencia no estimó en su resolución la remisión del código fuente, el programa que permitiría conocer su funcionamiento, al entender que, en este caso se aplicaba el artículo que establece el secreto profesional y la propiedad intelectual e industrial como uno de los límites al derecho de acceso a la información amparada por transparencia [11]. Resolución confirmada en sede judicial donde a la propiedad intelectual añade razones de “seguridad pública y defensa nacional”[12]

 5. Son autosuficientes

Las grandes tecnológicas buscan su independencia a través de la inaccesibilidad.

Los medios utilizados para el tránsito de información son las redes de telecomunicaciones. Como ejes centrales o cables que forman parte de Internet y como autopistas por las cuales pasan las comunicaciones en la red desde el punto de expedición hasta el punto de destino.

Y como refuerzo de su vocación soberana y para evitar someterse a proveedores ajenos de servicios de la sociedad de la información y de internet y requerir de su servicio, crean sus propias estructuras y tiran su propio cable submarino para evitar su condicionamiento a aquellos y que les cobren peaje o les puedan discriminar. Y, en caso de utilizar redes ajenas, presionan para romper la igualdad y neutralidad de la red para obtener ventajas amparándose en su situación predominante [13].

Su inaccesibilidad, también frente a las autoridades, se perfecciona perfilando y diseñando, como hace Google, su propio encriptado, que nadie conoce como funciona.

Y con el hecho de que hasta en el 60 % de las webs se desconoce el lugar en el que ubican los datos de sus usuarios, indeterminación que supone desconocer el régimen y garantías del país o países en que se localiza la información.

Convirtiendo así a su información en inaccesible, no solo para cualquier tercero, sino también para el interesado, incluso en caso de que solicite el borrado de sus datos. Porque no estará seguro ni podrá comprobar si se ha hecho o no, resultando frecuente, cuando ha podido hacerlo, evidenciar que no se te borra, aunque te borres[14].

Profundizando en su vocación de memoria eterna, de depositario global que desborda y recuerda lo que el titular de los recuerdos olvida. Como en el cuento “Funes el Memorioso” de nuevo el mundo fantástico de Borges converge con la realidad. Pero opaco para las autoridades y las personas que han generado la información. Funes tiene sede en California y ubica los recuerdos e información en servidores desconocidos.

Comentarios a la Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales (en relación con el RGPD)

[1] Google, Amazon, Facebook, Apple, Microsoft principalmente.

[2] Financial Times 20 julio 2020. Facebook takes EU to court for invading privacy. Social media company claims regulators’ questions go beyond scope of antitrust probes.

[3] The observer. Carole Cadwalldr y Duncan Campbell. Las redes sociales se dirigieron a los gobiernos de todo el mundo prometiendo o amenazando con retener la inversión. Amenazó con retener la inversión de los países a menos que apoyarán aprobar leyes favorables a Facebook.

[4] Facebook: la exempleada que denuncia la responsabilidad de la red en las campañas de manipulación de todo el mundo. BBC news 16 septiembre 2020.

[5] Onezero 4 de abril de 2020 A Microsoft Employee Literally Wrote Washington’s Facial Recognition Law The bill was sponsored by State Senator Joe Nguyen, who is currently employed as a program manager by Microsoft.

[6] También en octubre de 2020 BMW anunció: BMW writes code of ethics for AI in collaboration with the EU.

[7] 19.2.2020 COM(2020) 65 final LIBRO BLANCO sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza.

[8] Nueva Zelanda es, en principio, el primer país del mundo que crea (Julio 2020) un estatuto sobre el uso de algoritmos en instituciones públicas, ya con 21 suscriptores a nivel gubernamental | Basado en la idea del uso efectivo y seguro de los datos.

[9] Reglamentos en la práctica, al margen de matices o discrepancias doctrinales y a mi juicio formales como las manifestadas por Alejandro Huergo en el libro conjunto “La regulación de los algoritmos”. Ed Aranzadi. Considera que el algoritmo (salvo los predictivos) depende de la norma y no tiene valor propio, y que no se aprueban mediante un reglamento.

[10] NHS to use Artificial Inteligence to solve appointmente backlog (digit.fyi).

[11] Artículo 14.1.j de la Ley de Transparencia y Acceso a la Información Pública.

[12] Sentencia Juzgado Central de lo contencioso Administrativo de enero de 2022 en que tiene en cuenta que El Centro Criptológico Nacional y la Subdirección General de Tecnologías de la Información y de las Comunicaciones del Ministerio de Industria, Comercio y Turismo afirmaron, en términos generales, que la difusión del código fuente de cualquier programa permitiría ataques y la exposición de bases de datos sensibles.

[13] Ver Sentencia del Tribunal de Justicia de 15 de septiembre de 2020, asunto C-807/18: Telenor Magyarország. Anula por discriminatoria una oferta de una compañía que facilitaba un tráfico ágil de datos hasta 1 GB salvo a determinadas aplicaciones (entre otras, las del grupo de Facebook o Twitter).

[14]Por todos: WhatsApp guarda todo aunque tú lo borres: los peligros de su nueva función. ABC 18-4-2018.