Jump to content
Search In
  • More options...
Find results that contain...
Find results in...
NiKo

YouTube: Temen por bloqueo vídeos en la Union Europea

Recommended Posts

youtube_copyright.jpg

Todos estamos de acuerdo en que YouTube no es perfecto. Tiene problemas de rendimiento, las acusaciones de censura están a la orden del día, y su sistema Content ID tiende a comportarse como templario en reunión de infieles. Sin embargo, YouTube recibe el equivalente a 400 horas de vídeo por minuto, y con el avance de los dispositivos móviles, ese número continúa creciendo. La gran pregunta es: ¿Cómo se puede compatibilizar semejante nivel de actividad con los requerimientos del nuevo Artículo 13 de la Unión Europea que hace responsable a las plataformas de impedir cualquier violación de copyright? La CEO de YouTube Susan Wojcicki hizo una perturbadora sugerencia: Bloquear vídeos.

Wojcicki comienza su publicación destacando la suma que YouTube pagó el año pasado por derechos de autor en el territorio europeo, 800 millones de euros, y más de 1.500 millones de dólares a la industria de la música a nivel global. También agrega que si bien apoyan el objetivo de fondo del Artículo 13, la propuesta del Parlamento «no es realista» y tendrá «consecuencias inesperadas» para quienes viven de esos derechos. ¿Por qué es tan difícil hacer lo que quiere el Parlamento?

El ejemplo que citó la CEO es nada menos que «Despacito», el vídeo más visto en YouTube. Más allá de nuestra opinión sobre su calidad, este vídeo posee múltiples copyrights que van desde los derechos de publicación hasta la edición de sonido… pero algunos derechos en el vídeo son desconocidos. Ni siquiera los propios dueños logran ponerse de acuerdo. Ante tanta incertidumbre, la necesidad de cumplir con la ley «y» el tamaño de YouTube, los vídeos que estén en una condición similar a la de «Despacito» podrían terminar bloqueados.

Por supuesto, eso no significa que YouTube deba lavarse las manos. Un importante número de pequeños y medianos creadores se siente muy agraviado por la situación actual de la plataforma, incluyendo las oleadas de desmonetización, y los errores del Content ID en el que Google tiene tanta fe. Hay mucho por mejorar, y la velocidad de los responsables no ha sido ejemplar que digamos. Sin embargo, el Artículo 13 podría quebrar mucho más de lo que imaginamos. Tampoco faltan las voces que indican que el Parlamento lo hizo a propósito, o sea, que la sola existencia del Artículo 13 busca envenenar el pozo de Google. Todas las flechas apuntan a enero de 2019
 

 

[Neoteo]

  • Upvote 2

Share this post


Link to post
Share on other sites
Guest
You are commenting as a guest. If you have an account, please sign in.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By NiKo

      Crear y monetizar vídeos en YouTube con los juegos de Nintendo se había convertido en una auténtica pesadilla. Tras la normativa implementada en 2015, los interesados debían pertenecer al Nintendo Creators Program y aprobar cada uno de los requisitos. En caso de obtener autorización, los creadores debían ceder el 30% de las ganancias a la compañía nipona.

      Esta situación generó que algunos creadores prefirieran olvidarse del contenido relacionado con los juegos de la gran N. Después de tres años de críticas y presión, los de Kioto finalmente han dado marcha atrás con sus reglas estrictas. Para empezar, el Nintendo Creators Program pasará a mejor vida antes de finalizar el año. Las personas que quieran monetizar sus vídeos deberán pertenecer al programa de socios de YouTube. Parte del comunicado menciona lo siguiente:
      Las nuevas normas a seguir son mucho más flexibles que las anteriores. Los creadores deben incluir comentarios y realizar "aportaciones creativas" en sus vídeos. Lo anterior asegura que las transmisiones en vivo ya no corren peligro de ser bloqueadas, siempre y cuando escuchemos la narración de los responsables del stream.
      Cabe señalar que Nintendo no se hará responsable cuando los usuarios incluyan música de autores ajenos, será obligación del youtuber obtener los permisos necesarios de quien corresponda. También dejaron claro que no permitirán vídeos de juegos que aún no se han lanzado o versiones piratas. Las reglas se extenderán a otras plataformas como Twitch.
      "Apreciamos y alentamos el apoyo continuo de los creadores de contenido, y les agradecemos su dedicación a ayudarnos a crear sonrisas", concluyó el anuncio de Nintendo. La compañía ha realizado este movimiento justo antes de la llegada de Super Smash Bros. Ultimate, el cual podría generar miles de vídeos en YouTube. Después de la filtración del juego hace un par de semanas, Nintendo ha tenido la difícil tarea de rastrear y bloquear contenido originado con versiones pirata.
       

    • By Alejo

      El 503 Internal Server Error en general significa un desperfecto debido a que muchos usuarios quieren acceder simultáneamente a un servicio. Lo llamativo de esta situación es que en la noche del martes no aconteció ningún evento multitudinario que pudiera colapsar el servicio de tal manera.

       
      Por ejemplo, en el partido de Inglaterra-Croacia jugado durante el último Mundial de fútbol, se produjo un error 503 durante unos 40 minutos. Allí sí había una razón entendible: una cantidad mayor de gente conectada.
      En otros casos, un error de servidores es simplemente eso: un conjunto de unidades de procesamiento que tienen alguna falla, habitualmente de programación o por un cambio de estándares.
      Se espera que la plataforma de videos, propiedad de Google, brinde un comunicado oficial en las próximas horas. Mientras tanto, no se tendrán demasiadas pistas sobre las causas que motivaron la desconexión de los servicios de YouTube, YouTube Music y YouTube TV.
      Por otra parte, la compañía sí desestimó la posibilidad de que estos inconvenientes técnicos en la plataforma se hubieran originado por un ataque de piratas informáticos. 
      Las caídas de esos servicios se focalizaron principalmente en grandes áreas urbanas de América y, en menor medida, varios países de Europa, según reveló el portal Downdetector especializado en el monitoreo de servicios en internet. 
       
      [Clarin.com]

    • By NiKo

      La Comisión Europea (CE) busca sus propias leyes robóticas, como ya hizo Isaac Asimov en sus libros. La CE ha reunido a 52 expertos con los que se ha creado el nuevo Grupo de Alto Nivel sobre Inteligencia Artificial que abordará los temas relacionados con la ética de las personalidades artificiales (robots e IA). De esta forma busca legislar al respecto, como tarde, para principios de 2020.

       
      "Se busca que las personalidades artificiales tengan algo así como una religión robótica, un código ético interno que se añade al crear el software para que tenga unos mínimos éticos", explica el jurista. Incluso en el ámbito armamentístico se buscan "cinco reglas básicas" que los desarrolladores deberán añadir "sí o sí" a sus personalidades artificiales. Al más puro estilo de la ciencia ficción. "No van a ser las de Asimov en sí" pero se busca algo similar.
      Tanto los robots como las inteligencias artificiales primero tienen que aprender para poder hacer su trabajo, es decir, lo que se denomina machine learning. "Por ejemplo, tienes comentarios en un sitio web y le dices estos son buenos y estos malos", explica a Hipertextual Jorge Morrell, jurista especializado en Derecho Tecnológico desde Términos y Condiciones. Y entonces aprende a catalogarlos según las pautas que tienen todos en común. “Es el ejemplo más fácil”, añade. "Pero cuando vas a cosas más complejas que afectan a personas, los datos que le das para entrenar están sesgados o son demasiado parciales en cuestiones raciales, de intereses, de pensamiento… Generas una IA que al final va a tomar decisiones tanto ética como legalmente complejas o que se salgan de la norma", explica. "El primer problema que hay para regular la IA y su vertiente ética es dónde has conseguido los datos con los que lo vas a entrenar y si el programador o la empresa se ha dado cuenta si hay algún sesgo en particular", señala.
       
      ¿Se están encontrando los programadores ya con problemas éticos? ¿Es realmente necesaria una ética para personalidades artificiales? La respuesta a ambas preguntas es que sí y hay numerosos ejemplos para que regular la ética de los robots y las IA sea necesario.
      En Estados Unidos están utilizando COMPAS, un programa que ayuda a los jueces a saber si la persona que puede quedar libre tienen probabilidades de volver a reincidir. Esta IA se basa en estadísticas de las últimas décadas y según la situación personal del individuo, tendrá más o menos posibilidades de volver a cometer un delito. “Este sistema se está teniendo bastante en cuenta en EEUU”, afirma el jurista. “Pero se han dado cuenta de que este sistema tiene un sesgo racista”, añade Morell. Es un ejemplo de por qué habría que regular a las personalidades artificiales para que no haya discriminación de ningún tipo.
      Otro ejemplo es el caso de la IA agresiva de Google. DeepMind es la IA en la que trabaja la empresa norteamericana y que ha sorprendido mientras jugaba a un simple juego de recolección de frutas. Fue programada para recolectar el máximo de frutas posibles. Sin embargo, "en época de escasez, se volvía agresiva y los programadores tuvieron que reprogramarla para que fuera colaborativa", explica Morell desde el otro lado del teléfono.
       
       
      [Hipertextual]
       

×