Hace ya unos años que se debate sobre la reforma del derecho de autor de la Unión Europea. Además del derecho afín para edi­to­ria­les de prensa, el artículo 17 (antes artículo 13) también ha sido muy polémico, pues trata de obligar a las pla­ta­fo­r­mas de Internet a utilizar filtros au­to­má­ti­cos de copyright. Si bien los de­fe­n­so­res de esta reforma co­n­si­de­ran al filtro un elemento fu­n­da­me­n­tal para ga­ra­n­ti­zar los derechos de autor de películas, música y textos, los más es­cé­p­ti­cos temen que se produzca un de­bi­li­ta­mie­n­to de la ci­be­r­cu­l­tu­ra y una di­s­mi­nu­ción del derecho a la libertad de expresión, con co­n­se­cue­n­cias im­pre­vi­si­bles. ¿Qué son realmente estos filtros au­to­má­ti­cos de copyright y cómo funcionan? ¿Se llevará a cabo esta reforma?

La Unión Europea aprueba los filtros au­to­má­ti­cos de copyright

Pese al des­acue­r­do masivo y las protestas, el Pa­r­la­me­n­to Europeo ha aprobado el 26 de marzo de 2019 la entrada en vigor de la reforma de los Derechos de autor. Poco antes, los co­n­tra­rios a la reforma in­te­n­ta­ron en vano influir en la opinión de los pa­r­la­me­n­ta­rios por medio de acciones públicas de protesta en las que se reunieron en múltiples ma­ni­fe­s­ta­cio­nes re­pa­r­ti­das por todo el te­rri­to­rio europeo durante el fin de semana anterior a las vo­ta­cio­nes, que fi­na­l­me­n­te re­su­l­ta­ron en 384 votos a favor, 274 en contra y 36 ab­s­te­n­cio­nes.

Con este resultado, también se aprueba el polémico artículo 17, dedicado al filtrado de contenido y que aún se conoce por su antigua de­no­mi­na­ción como artículo 13. Si bien la directiva no prescribe de forma explícita la apli­ca­ción de estos filtros au­to­má­ti­cos, en la realidad las fo­r­mu­la­cio­nes no dejan mucho margen a otras opciones. En ella se exige que los gestores de las pla­ta­fo­r­mas co­m­prue­ben, antes de publicar cualquier contenido de vídeo, música o texto, si infringe los Derechos de autor. Si a partir de ahora no lo hacen, se co­n­vie­r­ten en re­s­po­n­sa­bles de las in­fra­c­cio­nes. Lo que sería pra­c­ti­ca­ble en pla­ta­fo­r­mas ma­ne­ja­bles a mano, es co­m­ple­ta­me­n­te utópico en pla­ta­fo­r­mas de la en­ve­r­ga­du­ra de YouTube.

Eso sí, la directiva admite una exención para en­ci­clo­pe­dias digitales, Wikipedia a la cabeza, u otras ofertas de orie­n­ta­ción educativa, pla­ta­fo­r­mas para el de­sa­rro­llo de software de código abierto y servicios con menos de tres años de vigencia o con un volumen de negocio anual por debajo de los diez millones de euros.

Queda por ver cuál será la es­tra­te­gia de grandes pro­vee­do­res como Google o Facebook. Fo­r­ma­l­me­n­te la reforma aún ha de aprobarse en el Consejo Europeo, aunque no se esperan sorpresas, dado que se trata de un puro fo­r­ma­li­s­mo legal. La cita tendrá lugar a comienzos de abril. Después deberá aplicarse en los Derechos na­cio­na­les. Los Estados miembro de la UE tendrán dos años de plazo para asumir la reforma en su propia le­gi­s­la­ción.

La discusión sobre la reforma europea de los derechos de autor hasta hoy

Los filtros au­to­má­ti­cos de copyright han estado fo­ca­li­za­n­do el debate le­gi­s­la­ti­vo en la Unión Europea, porque podrían de­sem­pe­ñar un rol central en el marco de los derechos de autor en el mercado interior digital. El pasado mes de julio de 2018 el Pa­r­la­me­n­to Europeo rechazó un borrador de la ley que volvió a pre­se­n­tar­se a votación el 12 de se­p­tie­m­bre, esta vez con algunas mo­di­fi­ca­cio­nes. En esta nueva versión las co­n­di­cio­nes solo apli­ca­rían a los grandes pro­vee­do­res, liberando a los de menor en­ve­r­ga­du­ra, así como a las en­ci­clo­pe­dias digitales como Wikipedia, de la obli­ga­ción de pasar examen a sus co­n­te­ni­dos.

En el contexto que nos ocupa, el artículo 13 del borrador (que en la versión final pasó a co­n­ve­r­ti­r­se en el artículo 17) es es­pe­cia­l­me­n­te relevante, aun cuando ni en él ni en otro lugar del documento se menciona ex­plí­ci­ta­me­n­te al filtro au­to­má­ti­co de copyright. El nuevo borrador no indica a los pro­pie­ta­rios y gestores de páginas web cómo han de ga­ra­n­ti­zar el ma­n­te­ni­mie­n­to de los derechos de autor. No obstante, los críticos y los ob­se­r­va­do­res excluyen de facto cualquier otra po­si­bi­li­dad que no sea –tal y como el propio borrador de ley indica– la siguiente: las pla­ta­fo­r­mas han de examinar todo el contenido antes de pu­bli­car­lo para excluir cualquier in­fra­c­ción de los derechos de autor y, debido al enorme volumen de datos que esto implica, se hace necesario utilizar un filtro au­to­má­ti­co.

Aprobado en una nueva votación por el Pa­r­la­me­n­to Europeo con 438 votos a favor (226 en contra y 39 ab­s­te­n­cio­nes), el borrador se sometió a debate en el de­no­mi­na­do Trilog, donde los re­pre­se­n­ta­n­tes del Pa­r­la­me­n­to, enviados de las Co­mi­sio­nes de la UE y el Consejo de los Estados miembros se reunieron para acordar la versión final del texto de la reforma. El mismo día de la votación, la Comisión Europea presentó otra directriz diferente en la que también pueden tener un papel central los filtros au­to­má­ti­cos: en el contexto de la lucha contra el te­rro­ri­s­mo, las pla­ta­fo­r­mas en Internet estarían obligadas en el futuro a comprobar si el contenido que publican muestra indicios de pro­pa­ga­n­da te­rro­ri­s­ta. Lo que esta propuesta no contiene es una excepción para pequeños ope­ra­do­res o pla­ta­fo­r­mas de código abierto. Por lo que, en última instancia, con esta normativa sí sería necesaria la im­ple­me­n­ta­ción universal de los filtros au­to­má­ti­cos de copyright.

¿Qué es un filtro au­to­má­ti­co para copyright?

Un filtro au­to­má­ti­co de copyright es un programa in­fo­r­má­ti­co au­to­ma­ti­za­do encargado de escanear los datos cuando se suben a la Red antes de su pu­bli­ca­ción en una pla­ta­fo­r­ma. Con esto se pretende comprobar que cumplen con de­te­r­mi­na­dos criterios. Si el programa detecta que algunos de los co­n­te­ni­dos subidos no co­n­cue­r­dan con las reglas pre­s­ta­ble­ci­das, este lo bloquea, impide al usuario abrir la in­fo­r­ma­ción o adapta el contenido para que no infrinja ninguna de las normas. Los filtros pueden in­s­ta­lar­se en páginas web o en apli­ca­cio­nes in­di­vi­dua­les, aunque también pueden ser uti­li­za­dos por los pro­vee­do­res de hosting o por los su­mi­ni­s­tra­do­res de Internet del usuario. Pueden uti­li­zar­se, entre otros, con los si­guie­n­tes fines:

  • reducir contenido de ideología ex­tre­mi­s­ta o pe­n­sa­mie­n­to criminal,
  • limitar las denuncias falsas, los insultos y el acoso ci­be­r­né­ti­co,
  • filtrado de contenido po­r­no­grá­fi­co y apología a la violencia,
  • ide­n­ti­fi­ca­ción de material protegido por derechos de autor,
  • podría aplicarse censura en caso de uso ilícito

Este último punto es una de las cosas por las que, en la ac­tua­li­dad, se debate sobre reformar la directiva sobre los derechos de autor en la Unión Europea e incluir el filtro au­to­má­ti­co de copyright.

¿Cómo funcionan los filtros para copyright?

Para poder gestionar un filtro son ne­ce­sa­rios dos co­m­po­ne­n­tes: una base de datos y funciones hash. Por un lado, la base de datos es in­di­s­pe­n­sa­ble pues contiene todos los datos no aceptados. En el caso de la reforma planteada por la UE, la base de datos estaría formada por todo el material protegido por derechos de autor que se al­ma­ce­na­ría como funciones hash.

Hecho

Las funciones hash o funciones de resumen uni­di­re­c­cio­na­les consisten en cadenas cortas de letras y cifras, generadas por una función ma­te­má­ti­ca a partir de una entrada. Aunque con una misma entrada se produce siempre una misma función hash, no es posible acceder a la in­fo­r­ma­ción de entrada a partir de la función. Las funciones hash se usan, por ejemplo, para el al­ma­ce­na­mie­n­to de co­n­tra­se­ñas.

El algoritmo se encarga de comparar las funciones de resumen del material protegido con los datos que se suben y, en caso de encontrar alguna su­pe­r­po­si­ción, impide la carga del archivo. No obstante, los filtros no solo están activos para ide­n­ti­fi­car material idéntico o muy similar al al­ma­ce­na­do en la base de datos, pues a través de métodos re­la­cio­na­dos con el machine learning también son capaces de reconocer co­m­po­ne­n­tes in­di­vi­dua­les en una imagen, en una película, en una pieza de música o en un texto. Además, gracias al apre­n­di­za­je au­to­má­ti­co los filtros pueden reconocer elementos no al­ma­ce­na­dos en la base de datos. Si el algoritmo aprende a reconocer qué apa­rie­n­cia tiene un gato a partir de las imágenes de este animal guardadas en una base de datos, podrá ide­n­ti­fi­car a un gato en cualquier otra imagen no al­ma­ce­na­da.

¿Dónde se usan estos filtros en la ac­tua­li­dad?

La obli­ga­ción de in­tro­du­cir de forma ge­ne­ra­li­za­da el filtro au­to­má­ti­co para copyright supondría un paso im­po­r­ta­n­te. No obstante, las grandes empresas de Internet usan esta te­c­no­lo­gía desde hace años para poder comprobar las ingentes ca­n­ti­da­des de datos que se suben a diario a las pla­ta­fo­r­mas.

YouTube

Content ID, el filtro au­to­má­ti­co de la pla­ta­fo­r­ma de video de YouTube, comprueba si los videos subidos cumplen los derechos de autor. En caso de que se detecte algún contenido que los infrinja, los pro­pie­ta­rios de los derechos de autor tienen tres po­si­bi­li­da­des:

  • Bloquear el video: se elimina y ya no se puede acceder a él.
  • Obtener ingresos: delante del vídeo en cuestión se pone pu­bli­ci­dad cuyos ingresos van a parar al titular de los derechos.
  • Hacer un se­gui­mie­n­to: se informa co­n­ti­nua­me­n­te al autor o poseedor de los derechos de la cifra de visitas y otros datos.

Con este sistema se intenta evitar la difusión no au­to­ri­za­da de películas, series, canciones o vi­deo­cli­ps. Según YouTube la actividad del algoritmo re­que­ri­ría el trabajo de 180 000 personas.

Facebook

La red social por an­to­no­ma­sia recurre a estos filtros para ide­n­ti­fi­car co­me­n­ta­rios, imágenes o videos violentos, no aptos para menores o de na­tu­ra­le­za ofensiva antes de que se publiquen. Para poder luchar contra contenido te­rro­ri­s­ta o ex­tre­mi­s­ta, Facebook, Twitter, Microsoft y YouTube tienen acceso a una misma base de datos que se gestiona en co­la­bo­ra­ción con la Europol, es decir, la Oficina Europea de Policía.

Microsoft OneDrive

El servicio de alo­ja­mie­n­to analiza au­to­má­ti­ca­me­n­te los archivos cuando se cargan en la nube. Entre otras cosas este proceso, llamado PhotoDNA, sirve para luchar contra la po­r­no­gra­fía infantil.

Re­sea­r­ch­Ga­te

La red social para in­ve­s­ti­ga­do­res tuvo que in­tro­du­cir un filtro por presiones de los editores y autores de los textos. Con esta te­c­no­lo­gía se pretende ide­n­ti­fi­car segundas pu­bli­ca­cio­nes no au­to­ri­za­das o plagios. El algoritmo decide si las pu­bli­ca­cio­nes se ofrecen a todos los usuarios, si se presentan solo a algunos  grupos o si di­re­c­ta­me­n­te deben elimarse.

¿Por qué se critica a los filtros au­to­má­ti­cos de copyright?

Aunque en un principio estos filtros pueden ser vistos con buenos ojos por co­n­tri­buir en la lucha contra la po­r­no­gra­fía infantil, las po­si­cio­nes ex­tre­mi­s­tas y las in­fra­c­cio­nes de los derechos de autor, su uso también conlleva algunos riesgos co­n­si­de­ra­bles. Los de­tra­c­to­res de la im­pla­n­ta­ción de la nueva reforma de los derechos de autor advierten de que los filtros de copyright son su­s­ce­p­ti­bles de errores y ma­ni­pu­la­ción y pueden co­n­tri­buir a la supresión de material no ce­n­su­ra­ble.

Su­s­ce­p­ti­ble a errores y ma­ni­pu­la­ción

Con la puesta en práctica de estos filtros se ha de­mo­s­tra­do que los al­go­ri­t­mos están lejos de no cometer ningún error. En primer lugar, es re­la­ti­va­me­n­te fácil engañar al algoritmo para poder pasar por el filtro material protegido. Aunque lo que resulta más preo­cu­pa­n­te es que los mismos programas in­fo­r­má­ti­cos censuren contenido que no infrinja derechos de autor, por ejemplo, al no di­fe­re­n­ciar que ciertas parodias, remixes o páginas de inicio sí están pro­te­gi­das. Los de­tra­c­to­res también hablan de una re­s­tri­c­ción de la libertad artística y predicen el final de la cultura meme, pues fenómenos de Internet, como este me­n­cio­na­do, se basan a menudo en utilizar contenido protegido por los derechos de autor en un nuevo contexto, mo­di­fi­car­lo y ponerlo de nuevo a di­s­po­si­ción en la Red.

Sin olvidar que también es posible que sujetos con in­te­n­cio­nes frau­du­le­n­tas reclamen la posesión de los derechos de autor de cierto contenido (a pesar de no tenerlos) y los in­tro­du­z­can en una base de datos. La di­s­tri­bu­ción de contenido, que en realidad no está protegido por ningún derecho, no sería posible hasta que se aclarasen los hechos.

Po­si­bi­li­dad de censura

Los filtros au­to­má­ti­cos de copyright generan una in­frae­s­tru­c­tu­ra que también se puede usar para el control estatal de la in­fo­r­ma­ción y la censura. Además, en las manos equi­vo­ca­das, esta te­c­no­lo­gía podría co­n­tri­buir a limitar la libertad de expresión y la libertad de prensa. Y es que, si las bases de datos en vez de proveerse del material protegido, se llenasen de contenido con críticas al gobierno, los filtros in­te­r­ce­p­ta­rían esta in­fo­r­ma­ción al ser subida por los usuarios, im­pi­die­n­do su pu­bli­ca­ción en la Red. De hecho, esta apli­ca­ción se puede observar en la ac­tua­li­dad en China, pues en el uso de Internet in­te­r­vie­nen este tipo de filtros.

¿Cuál es el debate actual de los filtros de copyright?

La reforma que se pretende realizar en la directiva sobre los derechos de autor de la UE ha provocado que el público conozca con mayor pro­fu­n­di­dad en qué consisten los filtros de carga, aunque son es­pe­cia­l­me­n­te los titulares de derechos, como editores, di­s­tri­bui­do­res de películas y la industria musical, los que piden una mayor pro­te­c­ción de las obras pro­te­gi­das en los canales de di­s­tri­bu­ción digital. También requieren bloquear la di­s­tri­bu­ción no au­to­ri­za­da de este material, como ya ocurre en portales como YouTube.

Pero, por otro lado, también hay ac­ti­vi­s­tas de Internet, ac­ti­vi­s­tas civiles, aso­cia­cio­nes , gestores de Wikipedia y voces dentro del ámbito político, que se oponen a la im­pla­n­ta­ción de este filtro. Aunque están a favor del objetivo de la ley, este es, la pro­te­c­ción de la propiedad in­te­le­c­tual, advierten que los filtros de pro­te­c­ción de copyright no son en absoluto la solución: van más allá del objetivo, no están del todo pre­pa­ra­dos desde un punto de vista técnico y suponen un peligro para la libertad de expresión.

Por favor, ten en cuenta el aviso legal relativo a este artículo.

Ir al menú principal