Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

Search the Community

Showing results for tags 'etica'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • INURBANOS.COM | Comunidad de Foros!
    • INURBANOS: Novedades | Informacion | Ayudas
    • AGENDA DE SALIDAS Y EVENTOS
    • CANAL YOUTUBE OFICIAL
  • MESUPERA
    • MESUPERA | COMUNIDAD
    • ACTUALIDAD | NOTICIAS | SOCIEDAD | POLITICA
    • VIDEOS
  • CULTURATECNO | Geeks por Naturaleza
    • CULTURA TECNO | COMUNIDAD
    • TECNOLOGIA | NOTICIAS | INTERNET
    • HARDWARE | MODDING | VR
    • SOFTWARE Y SISTEMAS OPERATIVOS
    • WEBMASTERS | SERVIDORES | CODIGOS
    • VIDEOS | TRAILERS | PRESENTACIONES
    • IMAGENES | HUMOR | MEMES
    • CULTURA RETRO
  • NIVELEXTREMO | Somos lo que jugamos
    • NIVEL EXTREMO | COMUNIDAD GAMER
    • NOTICIAS Y NOVEDADES
    • NIVEL EXTREMO | COUNTER STRIKE 1.6 SERVER
    • GAMEPLAY | TRAILERS | SCREENSHOTS | VIDEOS
  • MOBZONE | Lineage 2 Ertheia Server
    • MOBZONE | COMUNIDAD
    • MOBZONE | INFORMACION
    • MOBZONE | DUDAS | CONSULTAS
    • MOBZONE | IMAGENES | VIDEOS
    • MOBZONE | ZONA DE CLANES
    • MOBZONE | INTERLUDE (OLD SERVER)
  • ANIME SHOP ARGENTINA | Anime Store
    • ANIME SHOP
    • COMUNIDAD OTAKU
    • NOTICIAS ANIME
    • COSPLAY | IMAGENES | VIDEOS

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Found 1 result

  1. La Comisión Europea (CE) busca sus propias leyes robóticas, como ya hizo Isaac Asimov en sus libros. La CE ha reunido a 52 expertos con los que se ha creado el nuevo Grupo de Alto Nivel sobre Inteligencia Artificial que abordará los temas relacionados con la ética de las personalidades artificiales (robots e IA). De esta forma busca legislar al respecto, como tarde, para principios de 2020. "Se busca que las personalidades artificiales tengan algo así como una religión robótica, un código ético interno que se añade al crear el software para que tenga unos mínimos éticos", explica el jurista. Incluso en el ámbito armamentístico se buscan "cinco reglas básicas" que los desarrolladores deberán añadir "sí o sí" a sus personalidades artificiales. Al más puro estilo de la ciencia ficción. "No van a ser las de Asimov en sí" pero se busca algo similar. Tanto los robots como las inteligencias artificiales primero tienen que aprender para poder hacer su trabajo, es decir, lo que se denomina machine learning. "Por ejemplo, tienes comentarios en un sitio web y le dices estos son buenos y estos malos", explica a Hipertextual Jorge Morrell, jurista especializado en Derecho Tecnológico desde Términos y Condiciones. Y entonces aprende a catalogarlos según las pautas que tienen todos en común. “Es el ejemplo más fácil”, añade. "Pero cuando vas a cosas más complejas que afectan a personas, los datos que le das para entrenar están sesgados o son demasiado parciales en cuestiones raciales, de intereses, de pensamiento… Generas una IA que al final va a tomar decisiones tanto ética como legalmente complejas o que se salgan de la norma", explica. "El primer problema que hay para regular la IA y su vertiente ética es dónde has conseguido los datos con los que lo vas a entrenar y si el programador o la empresa se ha dado cuenta si hay algún sesgo en particular", señala. ¿Se están encontrando los programadores ya con problemas éticos? ¿Es realmente necesaria una ética para personalidades artificiales? La respuesta a ambas preguntas es que sí y hay numerosos ejemplos para que regular la ética de los robots y las IA sea necesario. En Estados Unidos están utilizando COMPAS, un programa que ayuda a los jueces a saber si la persona que puede quedar libre tienen probabilidades de volver a reincidir. Esta IA se basa en estadísticas de las últimas décadas y según la situación personal del individuo, tendrá más o menos posibilidades de volver a cometer un delito. “Este sistema se está teniendo bastante en cuenta en EEUU”, afirma el jurista. “Pero se han dado cuenta de que este sistema tiene un sesgo racista”, añade Morell. Es un ejemplo de por qué habría que regular a las personalidades artificiales para que no haya discriminación de ningún tipo. Otro ejemplo es el caso de la IA agresiva de Google. DeepMind es la IA en la que trabaja la empresa norteamericana y que ha sorprendido mientras jugaba a un simple juego de recolección de frutas. Fue programada para recolectar el máximo de frutas posibles. Sin embargo, "en época de escasez, se volvía agresiva y los programadores tuvieron que reprogramarla para que fuera colaborativa", explica Morell desde el otro lado del teléfono. [Hipertextual]
×