Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

Search the Community

Showing results for tags 'concepto'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • INURBANOS.COM | Comunidad de Foros!
    • INURBANOS: Novedades | Informacion | Ayudas
    • AGENDA DE SALIDAS Y EVENTOS
    • CANAL YOUTUBE OFICIAL
  • MESUPERA
    • MESUPERA | COMUNIDAD
    • ACTUALIDAD | NOTICIAS | SOCIEDAD | POLITICA
    • VIDEOS
  • CULTURATECNO | Geeks por Naturaleza
    • CULTURA TECNO | COMUNIDAD
    • TECNOLOGIA | NOTICIAS | INTERNET
    • HARDWARE | MODDING | VR
    • SOFTWARE Y SISTEMAS OPERATIVOS
    • WEBMASTERS | SERVIDORES | CODIGOS
    • VIDEOS | TRAILERS | PRESENTACIONES
    • IMAGENES | HUMOR | MEMES
    • CULTURA RETRO
  • NIVELEXTREMO | Somos lo que jugamos
    • NIVEL EXTREMO | COMUNIDAD GAMER
    • NOTICIAS Y NOVEDADES
    • NIVEL EXTREMO | COUNTER STRIKE 1.6 SERVER
    • GAMEPLAY | TRAILERS | SCREENSHOTS | VIDEOS
  • MOBZONE | Lineage 2 Ertheia Server
    • MOBZONE | COMUNIDAD
    • MOBZONE | INFORMACION
    • MOBZONE | DUDAS | CONSULTAS
    • MOBZONE | IMAGENES | VIDEOS
    • MOBZONE | ZONA DE CLANES
    • MOBZONE | INTERLUDE (OLD SERVER)
  • ANIME SHOP ARGENTINA | Anime Store
    • ANIME SHOP
    • COMUNIDAD OTAKU
    • NOTICIAS ANIME
    • COSPLAY | IMAGENES | VIDEOS

Calendars

  • Community Calendar

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Found 95 results

  1. Un grupo de estudiantes de cine de la Escuela de Animación Digital y Efectos Visuales (DAVE, por sus siglas en inglés) en Orlando, Florida, se dio a la tarea de hacer un tráiler conceptual basado en las ilustraciones clásicas que el artista Ralph McQuarrie hizo para George Lucas de Star Wars. Un Luke Skywalker mujer (Luka Starkiller), un Chewbacca lemur, un Han Solo con barba y capa, así como Stormtroopers con sables de luz, son algunas de las diferencias más notorias entre el concepto visual original y el que conocemos hoy en día.
  2. El autor y experto en mercadotecnia Seth Godin, quien creó al viejo portal Yoyodyne en 1995 (el cual fue adquirido por Yahoo! tres años después), dice que el valor de una marca se representa como un total que incluye cuánto dinero extra está dispuesto a pagar un consumidor, qué tan seguido la escoge, cuáles son sus expectativas, sus recuerdos, historias y relaciones con ella. Un concepto muy asociado al valor de una marca es el de la escasez. Al parecer, una marca transmite un mayor valor cuando tiene a miles de personas formando fila en sus tiendas para obtener a ese último gadget, aunque eso puede cambiar de la noche a la mañana. Un producto fallido, falta de innovación, decisiones que parecen equivocadas ante los ojos de los consumidores y una mayor competencia restan valor rápidamente. Durante los últimos cinco años, Apple se mantuvo al tope de la lista como la marca más valiosa del planeta. Pero en 2017 las cosas han cambiado, y el gigante de Cupertino baja un escalón para dejar el primer puesto a Google. El informe publicado por Brand Finance indica algunas de las razones por las que la «marca Apple» perdió un 27 por ciento de su valor en doce meses. Básicamente nos habla de una «pérdida de fe» entre sus evangelistas, la desaparición casi total de las famosas filas frente a las Apple Stores, y la «repetida desilusión» al aplicar pequeños ajustes, cuando se esperaban cambios mucho más materiales. En resumen, Brand Finance sugiere que Apple «sobreexplotó» la buena voluntad de sus clientes, fracasó al obtener ganancias del Apple Watch, y no logra convencer al mercado de que tiene tecnologías verdaderamente innovadoras en su plan de vuelo. Por supuesto, la pérdida de uno es la ganancia de otro, y fue su ascenso del 24 por ciento lo que volvió a ubicar a Google en un lugar que no ocupaba desde el año 2011. A pesar de su constante exploración, la fortaleza de Mountain View sigue siendo la misma de siempre: Búsquedas y publicidad. Brand Finance reporta que los anuncios destinados a sistemas de escritorio son «mucho más lucrativos» que sus equivalentes en dispositivos móviles, aunque los llamados «bumper ads» están haciendo su parte. Amazon conserva el tercer puesto pero se acerca rápidamente a Apple (53 por ciento en alza), AT&T saltó dos posiciones con un sólido 45 por ciento, y debido a un modesto 13 por ciento de aumento, Microsoft retrocede una casilla, cerrando el Top 5.
  3. CyberpowerPC reveló una versión actualizada de su sistema Prostreamer de juegos y streaming de doble sistema. El Prostreamer II no tan solo actualiza la versión de su predecesor; Ha sido completamente rediseñado con un nuevo chasis que acomoda placas madre primarias más grandes y más dispositivos de almacenamiento, además de mejorar las térmicas y la estética general durante la primera iteración. Aunque el concepto de dos PC bajo un mismo techo puede ser extravagante para algunos, CyberpowerPC vio una respuesta significativa al producto original, lo suficiente para crear el Prostreamer II. La nueva versión puede estar equipada con los últimos procesadores Intel de la 7ª generación (Kaby Lake) y las placas base Z270 (nuestras primeras revisiones aquí y aquí), además de una gran cantidad de poderosas configuraciones de gráficos, almacenamiento y memoria, Refrigeración líquida y otros extras estéticos (iluminación RGB, por supuesto) Sin embargo, el nuevo Prostreamer II es más que una simple actualización de la CPU. Mejora la primera versión con mayor flujo de aire y accesibilidad, con una placa madre mini-ITX reposicionada (que ahora reside en la parte inferior de la caja, similar a la GPU en una tarjeta vertical), espacio para una segunda PSU (una para cada sistema) , Y espacio para una placa base ATX para el sistema principal. (La edición anterior podría soportar sólo hasta micro-ATX). El nuevo chasis, que sigue siendo producido por Phanteks, cuenta con un panel lateral de vidrio templado con bisagras. Las E / S del panel frontal para ambos sistemas están ahora en el mismo lugar y claramente etiquetadas, en contraposición al modelo anterior, que tenía la E / S para cada sistema en una parte diferente del caso. El Prostreamer II que vimos aquí en CES está configurado con una placa base de chipset Asus ROG Rampage V Edition RGB X99 para el sistema de juegos primario, con un procesador Intel Core i7 6950X, dos tarjetas de gráficos MSI Geforce GTX 1080 Gaming X de 8GB en SLI, 64GB de DDR4 -3200, un SSD Samsung Pro NVMe de 512GB y una fuente de alimentación Corsair AX1500i. El sistema de streaming (mini-ITX) incluía un procesador Core i3-7350K desbloqueado, 16GB de DDR4-3200 y una tarjeta de captura Avermedia Live Gamer HD 1080p montada en una placa madre MSI Z270i Gaming Pro Carbon AC. La PSU del sistema más pequeño es un Coolermaster G650M.
  4. "Curiosamente, los chipsets de audio en tarjetas madre y tarjetas de sonido modernas incluyen una opción para cambiar la función de un puerto de audio a un nivel de software, un tipo de programación de puerto de audio a veces denominado jack retasking o jack remapping", explicaron los investigadores en un Papel sobre el exploit. "Esta opción está disponible en los chipsets de audio de Realtek (Realtek Semiconductor Corp.), que están integrados en una amplia gama de placas base de PC hoy en día". El equipo demostró este concepto con el software que llamó SPEAKE (a) R. Funciona básicamente invirtiendo el proceso utilizado para transferir sonidos entre una computadora y los auriculares conectados a ella. En lugar de conducir una corriente a través de una bobina en un campo magnético para producir sonidos, que es cómo las PC envían audio a los auriculares, SPEAKE (a) R utiliza auriculares para capturar el sonido y convertirlo a una corriente enviada a través de la bobina a un PC. Ta-da! Fácil vigilancia. Los investigadores consideraron que este ataque era útil en dos escenarios: uno en el que una computadora que no tiene un micrófono podría ser utilizada para fisgonear a su propietario a través de auriculares conectados, y otra en la que el micrófono incorporado del dispositivo se ignora a favor de Auriculares si pueden obtener un mejor audio. También no es difícil imaginar este ataque que se utiliza contra alguien que ha desactivado el micrófono de su computadora, pero todavía se enchufa en sus auriculares. Comprometer el dispositivo de alguien no hará nada bueno si la vigilancia no revela ninguna información significativa, sin embargo, por lo que SPEAKE (a) R se ejecutó a través de una batería de pruebas para ver si se podría utilizar para recoger valioso audio. El equipo encontró que "una transmisión de audio inteligible se puede lograr desde unos pocos metros usando auriculares como un micrófono", lo que significa que un ataque como este podría ser utilizado para fisgonear a través de los auriculares de alguien. Entonces, ¿qué puede hacer alguien para defenderse? La buena noticia es que muchos lugares donde se comunica información confidencial prohíben el uso de hablantes; Su capacidad para convertirse en micrófonos ha sido bien documentada. La mala noticia es que, a menos que se acabe con la configuración de UEFI / BIOS de la placa base o que esperen a que los fabricantes de sistemas operativos o los proveedores de codec de audio solucionen este problema, la mejor opción es no usar auriculares con su PC.
  5. Asi como dice el slogan de American Express "Pertenecer tiene sus privilegios"... pasar dias leyendo los manuales de Apache.. Tambien tiene sus privilegios cuando administramos una pagina o servidor y por supuesto, no todo funciona como queremos. No hace una semana, me encargue de transladar en forma "nativa" (enlaces, usuarios, direcciones, comentarios, post, imagenes) mi vBulletin desde el dominio de postfields hacia nivelextremo, realizando algunas actualizaciones dentro de lo que php y mysql me permitian. Obviamente siempre hay que solventar incompatibilidades de codigo y plugins, y en este caso me encontre con que vBSEO, el Software que administraba las URL amigables de vBulletin, llego a su EOL (End of life, Caput!, cerro la empresa) y lamentablemente perdi compatibilidad con el sistema interno del foro, con lo cual decidi re-estructurar los enlaces pero me era imposible hacer una redireccion 301 de un sitio a otro, ya que las direcciones no eran coincidentes. Mi primer pregunta fue, "Que hago con los 10 mil enlaces que tiene google" entonces trabajando sobre el archivo .htaccess comence a escribir directivas, una de las cuales fue muy simple, desde el viejo dominio enviar una orden 301 de TODO y capturar TODO lo que llegue al nuevo dominio, y derivarlo hacia /index.php La idea funciono, cualquier viejo enlace, del viejo dominio, definido por vBSEO, ahora era recibido por mi nuevo dominio, mostrandolo en la barra del navegador, pero en realidad el usuario llegaba a la pagina de inicio. Efectivamente, enlazaba, pero enseguida te dabas cuenta que no es lo que buscabas. Ahora, inmediatamente al registrar en Google el nuevo dominio, subir los SiteMaps, etc, me di cuenta que para Google, el viejo sitio estaba activo, y todos los enlaces eran persistentes ya que tenian un destino, entonces me contre con unos 10 enlaces del nuevo sitio, falsos, provenientes del viejo sitio que apuntaban a una informacion que no era correcta.. pero no en exactamente la misma url. Asi que me di cuenta de que no sirve tener 10 mil enlaces indexados que llevan a mi nueva pagina, pero no de la manera correcta. Solicito a Google la baja de los enlaces de mi viejo dominio y google me indica que no es posible, ya que el sitio sigue activo y los enlaces tienen respuesta ya que mi .htaccess los recibe perfectamente. Asi que fue ahi donde aparecio en escena el flag [G]one de Apache. Escribi en segundos el nuevo .htaccess y el resultado fue inmediato. [b]Gone[/b] The requested resource / is no longer available on this server and there is no forwarding address. Please remove all references to this resource. [hr] Apache Server at www.postfields.com Port 80 De la misma manera, Google inmediatamente dio luz verde a la baja de los viejos enlaces bajo el concepto de Obsoletos. [G] Gone | Error 410 GONE, es uno tantos flag que podemos pasar a RewriteRule para que luego de interpretada la regla, indique que el contenido ya no esta disponible. Que paso? no importa.. ya no esta... Se puede aplicar detras de cualquier condicion/regla de htaccess con lo cual nos permite indicar que aun archivo, una carpeta, un enlace, o un directorio por ejemplo, ya no esta disponible, capturar el error, y mostrar incluso una pagina personalizada. Por ejemplo: Si quisieramos indicar que nuestro blog ya no esta mas dentro de nuestro sitio, podemos hacerlo de la siguiente manera RewriteEngine On RewriteBase / RewriteRule ^blog/ - [G] Si quisieramos indicar que todo un sitio no esta mas disponible RewriteEngine On RewriteBase / # 410 - Gone en ejemplo.com RewriteCond %{HTTP_HOST} (ejemplo.com$) [NC] RewriteRule ^(.*)$ $1 [L,G] Si quisieamos indicar una pagina que capture este error, 410 ErrorDocument 410 /path/error410.html Tambien podemos usar la instruccion Redirect con la instruccion gone Redirect gone /carpeta/archivo.html Personalmente escribi mi propio codigo de la siguiente manera, para indicar que todo el sitio ya no esta. RewriteEngine On #Indicar que todo el sitio no esta disponible RewriteRule ^(.*)$ - [G]
  6. [video=youtube;0O0DeRL7P-w] Tempest in a Teacup es un buen ejemplo de ello. Su creador Phillip Burgess declaró que su intención de fabricar a la máquina recreativa más pequeña del mundo surgió durante una especie de hackathon improvisado de fin de semana, mientras discutía la creación de un «bonete» para el Raspberry Pi Zero, una carcasa con controles esenciales y una pantalla OLED monocromática. El concepto pasó de un OLED monocromático a uno color, y de algún modo terminó en una mini recreativa cargada con MAME. Las medidas oficiales para Tempest in a Teacup son de 67.2 por 33.6 por 35.8 milímetros, con la tarjeta microSD instalada. ¿Podría ser más pequeña aún? Las palabras de Burgess fueron «sin lugar a dudas», ya que utilizó partes de fábrica sin modificaciones mayores. Tal vez la gran excepción es el uso de la versión 1.0 del Raspberry Pi Zero, que no trae el conector físico de la cámara (cosa que la revisión 1.3 sí posee). La pantalla OLED es de 0.96 pulgadas, y una buena parte de la cabina fue hecha con piezas de protoboard. Aún así pudo darse el lujo de integrar un pequeño amplificador, y un altavoz de una pulgada, suficiente para los clásicos efectos de 8 bits.
  7. El vídeo nos cuenta en menos de dos minutos la historia detrás de FloppyDisk.com, una compañía ubicada en Lake Forest (estado de California) que muy probablemente sea la última en el mercado de los discos floppy. Su presidente Tom Persky explica la curiosa situación de FloppyDisk.com, que combina un poco de «cacería», un poco de «arqueología», y una fase más compleja que implica eliminar datos, clasificar diskettes y realizar pruebas básicas. FloppyDisk.com es lo que en la jerga llamamos un «refurbisher» o «reacondicionador». Ofrece una amplia variedad de discos, sea en 8, 5.25 o 3.5 pulgadas, y en múltiples capacidades, formateados o no. Los diskettes son purgados con un desmagnetizador, formateados (si lo pide el cliente) de acuerdo a sus parámetros, reetiquetados, y puestos a la venta. ¿Quienes son los clientes principales de FloppyDisk? Su presidente confirma que vende unidades al gobierno estadounidense, ya que aún posee ciertas aplicaciones que requieren discos floppy. El concepto de «si no está roto, no lo arregles» corre muy profundo en agencias gubernamentales, y los discos de ocho pulgadas controlando sistemas nucleares dan un gran ejemplo de ello. Cajeros automáticos, viejos sistemas CNC, terminales de facturación y procesamiento tributario… en esencia, todo lo que dependa de plataformas como MS-DOS, Windows 3.x y Windows 9x necesita diskettes a su lado. ¿El precio promedio? Un dólar por diskette, pero en otras regiones se pueden obtener por mucho menos.
  8. Hace un par de años un juego independiente logró ser financiado en Kickstarter gracias a más de 11 mil contribuyentes que desembolsaron 250 mil dólares. 13 meses de desarrollo después, hoy, Super Hot está disponible en Steam con un 10% de descuento (US$ 22.49) para Linux, Windows y OS X. Y, muy pronto en Xbox One. El concepto del juego es bastante original, es un FPS en el que el tiempo solo avanza si tu avanzas. Puedes determinar exactamente con qué velocidad se mueve todo, pero eso no hace al juego fácil ni mucho menos, de hecho es bastante complicado y tiene una curva media de aprendizaje. Tienes que pensar muy bien tu estrategia y la velocidad con la que te vas a mover, además de que cuando te aprendes un nivel puedes aplastar a los enemigos rápidamente y la sensación que esto te causa es increíblemente placentera. [video=youtube;QWJSiJsmO-A] Super Hot no tiene gráficos realistas, pero si son extremadamente llamativos y diferentes a lo mismo de siempre. En su lugar, el juego parece un esqueleto sin terminar con figuras poligonales rusticas que al mismo tiempo se ven estilizadas y con cierto toque artístico. Enlace Steam a Super HOT http://store.steampowered.com/app/322500/ Sitio Oficial (Algunas funciones no son soportadas por Chrome) https://superhotgame.com/play-prototype/
  9. Esta idea podría revolucionar los deportes extremos. Con el avance tecnológico y las mejoras que se van implementando en estos equipos, solo resta que algún entusiasta comience a realizar las pruebas pertinentes. Solo será cuestión de tiempo para vislumbrar el futuro de este deporte naciente.
  10. La historia nos dice que la demora de Super Mario Bros. 3 en llegar a Occidente fue provocada por una escasez de chips ROM durante el año 1988. Los jugadores estadounidenses debieron esperar hasta febrero de 1990 para obtener un cartucho, y agosto de 1991 en el caso de las regiones PAL. Ni lento ni perezoso, Nintendo usó esta brecha a su favor, y aprovechó una propuesta de Universal Studios para desarrollar la película The Wizard, que a pesar de ser un comercial de 90 minutos, elevó el hype de Super Mario Bros. 3 a niveles impresionantes. «Fast forward» al 20 de septiembre de 1990. John Carmack, Tom Hall y John Romero se encontraban en ese entonces bajo las alas de Softdisk. Carmack había logrado implementar un método avanzado que permitía un «side-scrolling» fluido y sin interrupciones sobre PCs, algo muy complicado para la época. Hall y Carmack dejaron sobre el escritorio de Romero un diskette con una demo llamada «Dangerous Dave in Copyright Infringement», en la que el personaje principal de la saga Dangerous Dave recorría una copia «píxel-por-píxel» del nivel 1-1 en Super Mario Bros. 3. La demo no sólo era una broma, sino que dejaba en evidencia las mejoras del nuevo método de side-scrolling que había creado Carmack. Lejos de reírse, Romero fue absorbido por la demo durante tres horas, y llegó a la conclusión de que era la clave para dejar Softdisk. El resto de los programadores no entendió el valor de esa demo, y la compañía tampoco estaba muy interesada en la tecnología, ya que no funcionaba sobre sistemas CGA (requería EGA como mínimo). De acuerdo a Romero, ese mismo día nació id Software (al menos en nombre), con un integrante más: Jay Wilbur, administrador de proyectos en Softdisk. El paso siguiente fue crear una prueba de concepto de Super Mario Bros. 3 compatible con PC. Necesitaron una semana completa para hacerlo, y finalmente una copia llegó al cuartel general en Kioto, pasando primero por Nintendo of America. En una decisión que hoy en día no nos sorprende para nada, los ejecutivos de Nintendo dijeron estar impresionados por el trabajo, pero le bajaron el pulgar casi de inmediato: El software Nintendo debía ejecutarse en hardware Nintendo. Por supuesto, eso no detuvo al flamante equipo de id Software, que comenzó el desarrollo de la saga Commander Keen. El lunes pasado Commander Keen in Invasion of the Vorticons cumplió 25 años de edad, y para celebrarlo, Romero publicó el vídeo con la demo de Super Mario Bros. 3 que está más arriba. Un buen recuerdo que no sólo simboliza el nacimiento de una compañía histórica, sino el potencial de los ordenadores imitando (y más tarde superando) a las consolas.
  11. Power Over Wi-Fi es el nombre de este concepto sobre el que varias universidad están investigando, todo con el fin de dotar a los productos más pequeños de energía sin una fuente directa más allá de WiFi, algo que convierte en ideal a esta tecnología para proporcionar energía de funcionamiento a dispositivos de Internet de la Cosas, o para aquellos sistemas en los que los sensores son más pequeños, como teléfonos móviles, cafeteras, lavadoras, aires acondicionados... permitiendo que estos dispositivos se comuniquen entre sí. Por primera vez hemos demostrado que se puede utilizar dispositivos Wi-Fi para alimentar los sensores de las cámaras y otros dispositivos. "También construimos un sistema que puede funcionar a la vez como un router Wi-Fi y una fuente de energía sin degradar la calidad de la señal mientras está generando alimentación" - Vamsi Talla, estudiante de doctorado de ingeniería eléctrica de la UW" Lo más interesante de todo es que investigadores también probaron este sistema de alimentación a través de WiFi en seis casas sin que los usuarios percibieran un deterioro en la calidad de la red que pudiera afecta a la carga de webs o a la reproducción en streaming, algo que es el punto de partida para el desarrollo de esta tecnología de cara al uso masivo en entornos de consumo; y puede que de un plumazo, acabe con los problemas de batería de nuestro móvil.
  12. La PS4 nos permite cambiar el disco duro interno sin mayor complicación de forma muy sencilla. A cambio, no podemos conectar un disco duro externo que sirva de almacén de juegos, solo para realizar copias de seguridad del sistema. Para la consola de Microsoft, la cosa es distinta. La Xbox One no permite cambiar el disco duro interno sin perder la garantía, pero sí que permite conectar discos duros externos directamente a través del USB para servir de almacén de juegos. En un momento en el que los 500GB se han quedado más que pequeños, y el nuevo tier de las consolas que ya va por 1TB está empezando a mostrar síntomas de que tampoco es suficiente a largo plazo, por lo que si la solución para la consola de Sony pasa por cambiar de forma manual el disco duro y restaurar el contenido, en el caso de la One la solución es mucho más sencilla si cabe. A pesar de que funciona cualquier disco duro externo siempre que sea USB 3.0 y tenga un mínimo de capacidad, Western Digital ha sacado al mercado un modelo específico para la consola: My Passport X, un disco duro externo de reducidas dimensiones que comparte diseño con la Xbox One y que es totalmente plug & play. Sobre el papel, My Passport X es un disco duro USB 3.0 externo que comparte forma y parte del diseño con muchos del resto de dispositivos de la casa. No obstante, parte de su atractivo está en que la parte superior del disco casa perfectamente con el diseño en líneas transversales de la parte superior y lateral de la Xbox, y teniendo en cuenta que va a ser un dispositivo que va a estar constantemente al lado de la consola, es todo un acierto que el diseño parta del mismo concepto y no romper la armonía con algo de menor tamaño que destaque por encima de la consola. En este sentido, utilizar un My Passport X es extremadamente sencillo, solo hay que conectar el disco al puerto USB de la consola y automáticamente la consola lo preparará para que podamos usarlo sin necesitar ninguna interacción por nuestra parte. De hecho, el sistema automáticamente utilizará el disco para juegos sin necesidad de seleccionar ninguna utilidad. No obstante, hay que tener en cuenta que por defecto el sistema preparará el disco para instalar apps y juego, pero solo podrá leerlo nuestra consola y otra que tenga nuestra cuenta: ni el PC, ni el Mac ni ningún otro dispositivo podrá acceder al contenido guardado el disco si le hemos dado formato para juegos y apps de Xbox. Otra opción es utilizar el disco como dispositivo de almacenamiento multimedia externo, es decir, para guardar nuestras películas, música, fotos... en este caso cualquier dispositivo podrá acceder al disco y leer y escribir el contenido, pero lógicamente quedará limitado a ello, y no podremos ni guardar juegos ni ejecutar aplicaciones del disco. En caso de que optemos por utilizar el disco para guardar juegos y aplicaciones, su foco principal, el sistema automáticamente une el disco interno y disco externo como su fuese una misma unidad de disco, un punto favorable puesto que el usuario cede el control al sistema y no se tendrá que preocupar de dónde instala los juego o de qué forma. Una vez conectado el disco, el sistema automáticamente une el espacio de ambos disco y deja un solo disco para todo, es decir, que si tu consola tiene 500GB, pasará automáticamente a tener 1.9TB disponible. No obstante, el usuario en todo momento podrá optar por cambiar el destino en el que se instalan sus juegos. La forma en la que yo he estado utilizando este sistema es a modo de archivo: a pesar de que en algunos títulos tenerlos en disco externo es más rápido que el interno, dejo este último a modo para transferir los juegos que voy terminando, o para aquellos que se de antemano que voy a jugar de forma muy ocasional, de forma que no me tengo que preocupar por el espacio del disco interno ni en tener que volver a instalar cada juego si quiero volver a jugarlo en el futuro, algo que puede ser un problema si tenemos que bajar el juego de la red y es muy pesado. El Western Digital Passport X puede comprarse en la tienda oficial o en Amazon por 129,00 euros o por $79.99 dólares, y contando con que existen alternativas más tradicionales en forma de disco duro -siempre que sea 3.0-, de todos los disponibles es el que el diseño más se asemeja al de la consola de nueva generación de Microsoft.
  13. Dice la leyenda que en el año 1988, Nintendo y Sony iniciaron el desarrollo del formato SNES-CD. Tal y como lo indica su nombre, el objetivo de ese formato era extender las capacidades disponibles en la Super Nintendo (Super Famicom en la versión japonesa) a través de una unidad óptica propietaria. Calculo que nuestros lectores más veteranos deben haber observado alguna que otra imagen del concepto: La consola se conectaba en la parte superior de la unidad, incrementando considerablemente su altura. Ambos gigantes japoneses trabajaron codo a codo en el formato durante tres años, y los primeros frutos estaban por caer del árbol. Sin embargo, los problemas no tardarían en manifestarse. Sony hizo acto de presencia en la edición de 1991 del CES, y allí reveló al público la «Play Station» (noten el espacio), una plataforma que combinaba el formato SNES-CD con la interfaz tradicional para cartuchos de Super Famicom. En términos sencillos, estamos ante lo que fue el ancestro de la PlayStation que todos conocemos. La idea era muy llamativa: Los dueños de una Super Famicom podrían incorporar el soporte SNES-CD a través de su módulo dedicado, mientras que Sony presentaría una alternativa con su Play Station. ¿Qué fue lo que pasó? Nada menos que un conflicto masivo sobre licencias. Gracias a una notable habilidad con sus recursos legales, Sony logró retener el control (incluyendo ganancias) sobre el formato SNES-CD y continuar su desarrollo, un detalle al que el entonces presidente de Nintendo, Hiroshi Yamauchi, finalmente decidió oponerse. Apenas 24 horas después de que Sony había presentado a su «Play Station» en el CES, Nintendo anunció un acuerdo con el oponente directo de Sony, Philips, para crear el módulo óptico compatible con la Super Famicom. El punto clave: Todas las licencias y ganancias de software continuarían bajo control de Nintendo, quien a cambio permitiría la llegada de algunos juegos oficiales al CD-i de Philips, formato que le causaría a la compañía europea casi mil millones de dólares en pérdidas, y su salida sin pena ni gloria del mercado de los videojuegos.
  14. En términos sencillos, Zarick desarmó una Xbox 360 y una Xbox One, modificó una fuente de alimentación para que trabaje con ambas consolas, conectó un divisor HDMI que detecta automáticamente cuál de las dos salidas está generando una señal de vídeo, extendió varios cables y encerró todo el spaghetti en una carcasa portátil, que también posee un panel LCD con su placa controladora y su propia fuente de alimentación. Un interruptor general permite escoger qué consola se desea activar (no funcionan las dos al mismo tiempo), y las unidades ópticas se encuentran a ambos lados. Cada inconveniente que apareció en el camino debió ser resuelto en el momento (algo típico en una modificación así), pero el resultado final es muy bueno. Zarick ya realizó proyectos similares en el pasado (tal vez algunos recuerden a la Playbook 4 de 1.400 dólares), sin embargo, el Xbook Duo es apenas una prueba de concepto, y al contrario de sus desarrollos previos, no está a la venta. Supongo que puede cambiar de opinión si la demanda es lo suficientemente alta, y tampoco estaría nada mal si decidiera liberar los planos de la carcasa, así otros interesados tienen la chance de cortar e imprimir cada una de las partes para reproducir a este híbrido portátil. La mejor parte del Xbook Duo es que elimina de raíz el problema de la retrocompatibilidad. Microsoft complicó la vida de muchos jugadores al modificar la arquitectura, pero con ambas plataformas dentro de una carcasa común, pasar de una a la otra es tan rápido como presionar un par de botones.
  15. Por los acuerdos con el Club de Paris y Repsol, la Argentina “blanqueó” el pago de nueva deuda por US$ 16.200 millones. Sumados los intereses que corren hasta los vencimientos, US$ 14.611 millones deberán ser afrontados de aquí a 2019. De ese total, en 2014 vencen unos US$ 1.000 millones y en 2015 otros US$ 1.500 millones, pero el próximo Gobierno (2016-19) deberá cargar con el pago de los restantes US$ 12.100 millones, a un promedio de US$ 3.000 millones por año, solo por estos dos nuevos compromisos. Esta nueva deuda se suma a los fuertes vencimientos y pagos de intereses por más de US$ 75.000 millones que vencen de aqui a 2019. Entre otros, el Boden 2015 por unos US$ 5.900 millones que vencen a fines del próximo año. En esta cifra no se incluyen 9.530 millones de dólares de la deuda del Tesoro Nacional con el Banco Central que vence a comienzos de 2016. Se trata de reservas prestadas por parte del Central para pagarle por anticipado al FMI. Tampoco se incluyen los “Adelantos Transitorios” ya que se supone que van a ser auto- refinanciados. Y quedan afuera del cálculo otros US$ 11.000 millones con los Organismos financieros internacionales, como BID o Banco Mundial, descontando que Argentina recibirá desembolsos de nuevos créditos equivalentes a los pagos que realice. “El acuerdo con el Club de París de alguna forma imita la estrategia financiera utilizada en la compensación a Repsol, postergando la mayor carga financiera para que los afronte la próxima administración. El acuerdo el Club de París implica un promedio anual de US$ 2.400 millones en concepto de servicios de capital e interés, mientras que los servicios financieros de la compensación a Repsol insumen aproximadamente US$ 700 millones. En 2016 los nuevos servicios representarían 75 % de los vencimientos previos de títulos públicos”, le dijo a Clarín, Maximiliano Castillo de la Consultora ACM. Otro dato clave del acuerdo con el Club de París es que los países acreedores recién considerarán que Argentina normalizó la deuda ahora reconocida cuando complete el primer tramo de pago, los 650 millones de dólares comprometidos en julio de 2014 y el resto en mayo de 2015 hasta integrar un “mínimo” de US$ 1.150 millones. Pero al margen de estos compromisos de pago recientemente asumidos hay otros que aún no se contabilizaron como la deuda no ingresada al canje. Según Economía, al 30 de septiembre de 2013 (ultimo dato oficial) esa deuda sumaba U$S 11.500 millones. Para esa fecha, la deuda pública interna y externa sumaba 201.000 millones de dólares. Si se agregan los bonos emitidos por Repsol, más los intereses reconocidos al Club de Paris, más lo que aún resta pagar del cupón PBI y lo que finalmente se reconozca a los que no ingresaron a los canjes de deuda, el endeudamiento público total sube a US$ 250.000 millones. Son un poco más de 100.000 millones de dólares adicionales más que los US$ 144.500 millones cuando en 2001 se declaró el “default del país”. Más de la mitad de la deuda es con la ANSES y el Banco Central. Por cierto es una deuda que crece ya que se pagan intereses abultados que llegan en el caso del Repsol a 8,75% anual. Y es probable que se tome aún más deuda para financiar el déficit fiscal.
  16. El juez federal Sebastián Casanello procesó hoy sin prisión preventiva al "valijero" Leonardo Fariña y al financista Federico Elaskar, ex dueño de la financiera SGI, por el delito de lavado de dinero, pudo saber Clarín de fuentes judiciales. Ambos habían sido indagados en junio del año pasado por el escándalo que desencadenó el programa Periodismo para Todos. En tanto, el empresario Lázaro Báez sigue imputado, pero aún no fue indagado. Tampoco su hijo, Martín Báez, dueño de la cuenta de la empresa panameña Teegan, que depositó 1.500.00 dólares en el banco Lombard Odier de Suiza. A Fariña el juez le embargó los bienes por 32 millones de pesos y le prohibió la salida del país. Al ex dueño de SGI, Casanello le aplicó un embargo de hasta 27 millones de pesos. También le prohibió dejar el país y lo obligó a presentarse en el juzgado cada 15 días y a notificar “todo cambio de domicilio y toda circunstancia en virtud de la cual deba ausentarse por más de 24 horas”. En su resolución, de 206 carillas, el magistrado también embargó los bienes de SGI Argentina; de la sociedad Vanquish Capital Group, utilizada por Elaskar para comprar una Ferrari 430 en 300 mil dólares; sobre el departamento donde vivía Fariña con la modelo Karina Jelinek, ubicado en Avenida Del Libertador 2434, piso 23°; y sobre la estancia “El Carrizalejo”, ubicada en Mendoza. Casanello también aplicó embargo preventivo sobre un BMW X6, dominio JMK- 762; sobre una Ferrari, modelo California, dominio INP- 622, y sobre las acciones de las sociedades Andrómeda Corporate Finance S.A. y Diego Sociedad Anónima S.A. La causa se inició en abril del año pasado por una denuncia de la diputada Elisa Carrió, quien recogió la investigación de PPT. Luego de varias idas y vueltas entre varios jueces, la causa quedó radicada en el juzgado de Casanello. El primer requerimiento fiscal, firmado por los fiscales Ramiro González, Carlos Gonella y Omar Orsi, no imputaba a Báez ni a su hijo. Sólo mencionaba unos Reportes de Operaciones Sospechosas (ROS) enviados tardíamente por la UIF. En mayo del año pasado, el fiscal Guillermo Marijuán, amplió el requerimiento de instrucción e imputó a Lázaro Báez, Martín Antonio Báez, Fabián Rossi y el contador Daniel Rodolfo Pérez Gadín. Eso derivó en una serie de allanamientos. Según explicó el juez Casanello, la investigación tenía dos líneas muy marcadas: las operaciones financieras que presuntamente habrían llevado a cabo los Báez junto a Fariña, Elsakar, Rossi y Pérez Gadín para sacar del país unos sesenta millones de dólares, tal como probó el suspendido fiscal Jose María Campagnoli, y las operaciones llevadas a cabo en el mercado local por Fariña y Elaskar. El magistrado optó por la primera. Así lo justificó: “Estas últimas operaciones (las del lavado) constituyen el objeto del presente pronunciamiento, pues son las que motivaron el pedido de indagatoria de la Fiscalía y sólo en torno a ellas se alcanzó el grado de sospecha al que alude el art. 294 del C.P.P. Estas operaciones, a priori, no guardarían relación con aquellas conductas de expatriación de capitales”. En un hecho llamativo, el juez destacó en el fallo los motivos que complicaron, léase demoraron, la investigación. Lo justificó por la repercusión mediática del caso. Casanello explicó que el lavado de dinero “exige contar con una premisa: el origen delictivo de esos activos”. Esto es, si provienen del narcotráfico, de hechos de corrupción, u otros. “La principal dificultad en tanto ésta causa no es derivación de otra donde se haya demostrado, o cuanto menos investigado, ese hecho ilícito precedente, sino que se inició de forma autónoma a partir de una denuncia que se hizo eco del mentado informe periodístico”, escribió el juez. Fuentes judiciales justificaron la lentitud de la investigación. “Si tomábamos otro camino, la causa se caía a los pocos meses en la Cámara Federal”, dijeron a Clarín en Tribunales. El fallo fue festejado en el entorno del empresario patagónico, quien ya venía de sumar una buena noticia en Tribunales: hace apenas dos semanas, el fiscal Marijuán pidió el sobreseimiento de Báez, Pérez Gadín y otros imputados en la causa donde estaban acusados de extorsionar a Elaskar para vender “La Rosadita”. Fariña está detenido en la cárcel de Ezeiza por el delito de evasión agravada a raíz de la compra de un campo en Mendoza por 4 millones de dólares. El juez Manuel Blanco investiga la evasión de 28 millones de pesos en concepto de IVA 2010/2011, Ganancias 2010/2011 y Bienes personales 2010/2011/2012.
  17. Qplay es una creación de Mike Ramsay y Jim Barton, nombres directamente asociados al famoso TiVo. Bajo la visión de Qplay, el usuario tendrá la capacidad de explorar y compartir canales personalizados con vídeo proveniente de la Web llamados “Qs”. En otras palabras, Qplay toma el concepto tradicional de un canal de televisión, y lo transforma en un “feed” que refleja nuestros gustos, con un alto componente social. En las propias palabras de Ramsay, estamos ante una mezcla entre Flipboard y Spotify, pero orientada al vídeo en línea. Qplay es un equipo de tres elementos: El adaptador físico que va conectado al televisor para recibir el streaming, una aplicación móvil dedicada, y un sistema en la nube que crea y administra los Qs, además de mantener el stream activo cuando el dispositivo móvil con la aplicación entra en suspensión o se apaga. Qplay está dando sus primeros pasos, y con eso en mente, debemos ser un poco pacientes frente a sus limitaciones. Por un lado, la aplicación dedicada sólo es compatible con dispositivos iOS (léase iPad en este caso), y por el otro, las fuentes compatibles están reducidas a servicios como YouTube y Vimeo, pero el llamado “contenido premium” debería llegar pronto. La pregunta de fondo es si tanto el mercado (bastante saturado en estos momentos) como el consumidor necesitan de otra “caja” que envíe streaming de vídeo al televisor. Roku ofrece varias soluciones atractivas, y el Chromecast es más interesante de lo que aparenta, a pesar de los bloqueos de fábrica. Qplay apuesta al concepto de un mayor control sobre tus propios canales, pero al igual que sucede con otras soluciones, su clave está en distribuir contenido estacionado en la nube, un factor problemático dependiendo de la región y la velocidad de conexión. ¿El precio? 49 dólares. neoteo
  18. Para poder comprar dólares para atesoramiento o tenencia es imprescindible estar registrado en la AFIP como trabajador en relación de dependencia, autónomo o monotributista. El límite inferior es percibir en concepto de ingresos mensuales el equivalente de $7200 en promedio en los últimos 12 meses y el límite superior de compra será equivalente a 2 mil dólares. Los dólares no se podrán comprar con efectivo, sólo mediante transferencia de caja de ahorro, débito bancario o con cheques.
  19. La cafeteria donde el cafe es gratis, Sin embargo, a la salida, le cobrarán por el tiempo que estuvo en el local: tres peniques por minuto (unos cinco centavos de dólar).De este modo, quien pase una hora en el lugar deberá pagar 1,80 libras, unos US$3, aproximadamente el precio de una taza de café en la capital británica. El joven empresario Iván Meetin trasladó el concepto de su nativa Rusia con la idea, dice, de fomentar el intercambio social entre los clientes. BBC.
  20. Aerolíneas Argentinas cerró 2013 con pérdidas por 247,1 millones de dólares, un 44,1% menos que los 441,7 millones de dólares que perdió durante 2012. Así lo informó hoy en conferencia de prensa su presidente, Mariano Recalde. "Se cumplieron las metas de producción establecidas en el presupuesto y en el plan de negocios de la compañía, con un incremento de pasajeros de casi el 20% respecto del 2012 y una tendencia cada vez menor de asistencia del Estado" Según los resultados presentados hoy, las ventas durante 2013 de la aerolínea de bandera alcanzaron los US$ 1.918 millones, un 21,7% más que los US$ 1.575,9 millones de 2012. Las frecuencias, horas de vuelo y pasajeros aumentaron 16,3%, 14% y 19,1% respectivamente. Durante la presentación de los resultados, Recalde dijo también que en 2014 la empresa "volverá a volar, después de 25 años, a todas las provincias". Según Recalde, la empresa piensa "incorporar más aviones para alcanzar los 10 millones de pasajeros". Aerolíneas Argentinas y Austral consumieron antes de finalizar el año la totalidad de los fondos que le había autorizado el Congreso para el ejercicio 2013. Según datos del Ministerio de Economía, las dos Aerolíneas terminaron de gastar durante noviembre los $3.179 millones en subsidios previstos en el Presupuesto 2013. Para poder operar durante diciembre y llegar al 31, las dos empresas estatizadas que preside Mariano Recalde debieron echar mano a una nueva partida de subsidios del Estado por $275 millones. Esta operación se concretó por fuera del Presupuesto 2013. Los subsidios girados a Aerolíneas y Austral totalizaron $3.454 millones entre el 1 de enero y el 26 de diciembre de 2013. El monto equivale a unos US$ 628 millones, o US$ 1,7 millones por cada día del año si se toma la un cotización del dólar oficial promediando entre enero y fines de noviembre. Desde su estatización a mediados de 2008, Aerolíneas y Austral demandaron al Estado US$ 3.927 millones. La mayor parte del monto fue administrado por Recalde, que preside Aerolíneas desde julio de 2009. Si bien la situación financiera de Aerolíneas durante los últimos meses de la administración Marsans se encaminaba hacia un nuevo quebranto, no existen precedentes de un auxilio financiero de esta magnitud para una aerolínea mediana. La cotización en Bolsa de su competidora GOL es de aproximadamente US$ 1.200 millones, en tanto la de la alianza Avianca/TACA ronda los US$ 1.800 millones. Es decir, que para adquirir dos de sus principales competidoras, al Estado argentino le habría hecho falta menos fondos que los que viene girándole a Aerolíneas en concepto de subsidios. clarin.com
  21. SafeFlame, un sistema que combina a un soplete con una plataforma de electrólisis portátil. http://www.youtube.com/watch?v=7N3_dAJL450 Todo lo que necesita SafeFlame es un poco de agua, y una conexión a la red principal de electricidad. Una vez activado, el sistema procede a separar el hidrógeno y el oxígeno, con el objetivo de combinarlos en la boquilla del soplete. El resultado es una llama más fría y “suave” a la hora de calentar una pieza, sin mencionar ecológica, ya que el único desperdicio que genera al arder es vapor de agua. Otra ventaja es que la llama arde “fuera”de la boquilla, manteniéndola lo suficientemente fría para que sea segura al tacto del usuario. Aunque todavía es necesario refinar el sistema de electrólisis para hacerlo más accesible (eso incluye reducir la cantidad de platino requerido, y evaluar la aplicación de otros materiales en sus membranas y celdas, conservando el rendimiento original)SafeFlame podría ser en promedio 20 veces más barato que su equivalente en acetileno, ya que no debe absorber sus costos de traslado, almacenamiento y seguro en caso de accidentes. En otras palabras, el futuro de los sopletes y de los profesionales que los utilizan a diario bien podría estar en el concepto de convertir agua en fuego. [neoteo]
  22. 476 de los 500 supercomputadores más potentes del mundo usan Linux y también lo podíamos encontrar en una alta proporción de servidores de centros de datos de todo el mundo que también utilizan alguna distribución GNU/Linux; un dato que nos sirve de referencia para hacernos una idea de la importancia de Linux como base sobre la que se apoyan muchos servicios que usamos a diario. Distribuciones como Ubuntu, Fedora o CentOS, seguramente, nos resulten familiares; sin embargo, en estos días ha cumplido años una de las distribuciones GNU/Linux con más peso y que, durante mucho tiempo, ha sido el pilar de muchos centros de datos: Debian ha cumplido 20 años; un hecho que nos sirve como base para dedicar el capítulo de Historia de la tecnología a recordar la historia de Debian. Historia de Debian El 16 de agosto de 1993, Ian Murdock fundó oficialmente el proyecto Debian con un mensaje dirigido a desarrolladores que trabajaban en Linux. Por aquel entonces, Murdock era un estudiante de ciencias de la computación de la Universidad Purdue en Indiana (se licenciaría en 1996) y, mediante la forma de un manifiesto, articuló la idea de un proyecto en el que crear de manera abierta una distribución Linux (un concepto nuevo en aquel momento). El proyecto debía seguir el mismo espíritu del proyecto Linux y de GNU y, por tanto, debía estar basado en una comunidad en la que se colaborase y se trabajase en abierto. Ian Murdock. Imagen:Wikimedia Commons Con esta filosofía, el proyecto comenzó a dar sus primeros pasos aunque, eso sí, se avanzase de manera muy lenta. Entre 1994 y 1995, el Proyecto Debian comenzó a lanzar sus primeras versiones 0.9x además de modelar la filosofía del proyecto bajo 3 documentos fundacionales que, además, siguen vivos y que alguna que otra vez se han revisado y ajustado: El Contrato Social de Debian define las bases que regulan cómo los desarrolladores del proyecto tratan los asuntos relativos a éste. Las Directrices de Software Libre de Debian definen los criterios que se utilizan para discriminar qué se considera software libre y qué no lo es; dicho de otra forma, regula qué se puede incluir en la distribución y qué se queda fuera. La Constitución de Debian regula el modelo organizativo del proyecto, cómo se articula la toma de decisiones y define la figura de Líder del Proyecto Debian, la secretaría y los desarrolladores. Desde noviembre de 1994 a noviembre de 1995, la Free Software Fundation (a través del proyecto GNU) patrocinó la creación de Debian y dio el primer gran impulso y apoyo al proyecto; un año en el que Debian comenzó a tomar forma y captar colaboradores. En esta primera etapa, Ian Murdock ejercería de Líder del Proyecto Debian hasta que pasó el testigo a Bruce Perens en abril de 1996. La primera versión de Debian (la 1.1, con nombre en clave Buzz) se lanzó el 17 de junio de 1996. El modelo organizativo de Debian se hizo para que todo el proceso de desarrollo, mantenimiento y soporte se realizase con sumo cuidado; un detalle que hizo que se crease una comunidad muy disciplinada y, sobre todo, bien organizada a nivel mundial. Si bien el modelo definía muy bien las tareas, Debian estaba abierta a todo tipo de colaboraciones y, en la práctica, es de los pocos proyectos de distribución que no están cimentados sobre una empresa o entidad comercial. Conforme ha ido pasando el tiempo, Debian ha ido renovando al "Líder del Proyecto" (el mandato es anual), creó la licencia de software legal de la organización, ha revisado sus documentos fundacionales y, por supuesto, ha reorganizado sus ritmos de trabajo, los procesos de liberación de paquetes de software y creando varias ramas del proyecto (Estable, En Pruebas, Congelada o Inestable). En estos años de andadura, las versiones de Debian lanzadas son las siguientes: Entre agosto y diciembre de 1993 verían la luz las versiones Debian 0.01 hasta 0.90 Debian 0.91, enero de 1994 Debian 0.93R5, marzo de 1995 Debian 0.93R6, noviembre de 1995 Debian 1.1 "Buzz", el 17 de junio de 1996 Debian 1.2 "Rex", el 12 de diciembre de 1996 Debian 1.3 "Bo", el 5 de junio de 1997 Debian 2.0 "Hamm", el 24 de julio de 1998 Debian 2.1 "Slink", 9 de marzo de 1999 Debian 2.2 "Potato", 15 de agosto del 2000 Debian 3.0 "Woody", 19 de julio del 2002 Debian 3.1 "Sarge", 6 de junio de 2005 Debian 4.0 "Etch", 15 de agosto de 2007 Debian 5.0 "Lenny", 14 de febrero de 2009 Debian 6.0 "Squeeze", 6 de febrero de 2011 Debian 7.0 "Wheezy", 4 mayo de 2013 Algunas curiosidades sobre Debian La pronunciación oficial de Debian es «deb i an» y el nombre tiene su origen en los nombres de Ian Murdock y en el de su esposa, Debra. Los nombres de las versiones de Debian provienen de los nombres de los personajes de la película Toy Story: Buzz, Rex, Bo, Hamm, Slink, Potato, Woody, Sarge, Etch, Lenny, Squeeze, Wheezy y Jessie. Las versiones inestables, llamadas Sid, deben su nombre al vecino de Andy (el protagonista de Toy Story) que el "malvado niño" que destroza juguetes. Empresas y entidades como HP, 1&1, Telegraaf Media ICT BV, The Oregon State University Open Source Lab o Simtec forman parte del grupo de partners del Proyecto Debian que colaboran donando hardware, ofreciendo servicios de hosting, contribuyen con desarrollos u ofrecen apoyo financiero al proyecto. La versión 1.0 de Debian nunca fue publicada aunque, en 1995, Infomagic (un proveedor de CDs) lanzó una disco con una versión de Debian de desarrollo que etiquetó como 1.0. El 11 de diciembre de 1995, Debian e Infomagic informarían que esta versión era errónea. La infraestructura que sustenta los servidores de paquetes de Debian están distribuidos por todo el mundo gracias a una red de mirrors patrocinados por empresas y universidades que hacen que la infraestructura esté siempre redundada y, además, los usuarios puedan obtener siempre las mejores tasas de transferencia posibles. Según DistroWatch, Debian es la tercera distribución GNU/Linux más popular y existen más de 120 distribuciones derivadas de Debian entre las que se encuentra Ubuntu o Raspbian (la distribución basada en Debian para Raspberry Pi. Una enorme familia de distribuciones derivadas que podemos ver en un impresionante timeline que nos muestra la historia de las distribuciones Linux. El impacto del proyecto Con 20 años de edad, Debian es un proyecto muy vivo. Debian 7.0 fue lanzada en el mes de mayo y desde hace tiempo se trabaja en la que será la versión 8. Para muchos administradores de sistemas, Debian es la base sobre la que se apoyan sus infraestructuras y, a nivel de centros de datos, sigue siendo una de las distribuciones GNU/Linux más populares. El proyecto cuenta con una sólida base de desarrolladores y colaboradores capitaneados por Lucas Nussbaum que es el actual líder del proyecto. En Latinoamérica y España podemos encontrar potentes comunidades de desarrolladores y colaboradores de un proyecto sobre el que se han apoyado otras muchas distribuciones como Ubuntu, Raspbian, Knoppix o Gnoppix. Algunas de las distribuciones Linux basadas en Debian que, además de ser un documento muy útil, nos sirve para hacernos una idea de la importancia de este proyecto que ha cumplido ya 20 años. alt1040.com
  23. Si la relación entre Google y la neutralidad de la red era complicada; ahora es mala. En sus comienzos, defendió a ultranza la libertad para utilizar la Red con cualquier fin y dispositivo, sin que el proveedor de acceso pudiese decidir en función de sus intereses. Pero desde hace no mucho Google es un ISP con Fiber. Y ha tardado poco en comportarse como uno de los peores. La neutralidad de la red es un concepto que está presente desde los primeros días de Internet y que se trata de preservar con diversas legislaciones (aunque, en la práctica, suponen decepción tras decepción). Básicamente, establece que los operadores no pueden bloquear contenido legal, aplicaciones, servicios o dispositivos que no afecten al correcto funcionamiento de la Red. Únicamente pueden intervenir para solucionar problemas, pero nunca antes de que ocurran. Google no está de acuerdo. La compañía no permite que los usuarios de Google Fiber usen su red para crear servidores en sus hogares. O, lo que es lo mismo, considera que puede prohibir la conexión de ciertos dispositivos a Fiber. Y lo peor es que parece que no lo hace para proteger su red, sino para proteger su negocio, pues ofertará Fiber para empresas más adelante, según apunta Wired. El último y lamentable capítulo entre la peculiar relación de Google y la neutralidad de la red tiene un trasfondo comercial. Google se apoya en las políticas de empresas como VerizonLo peor es que la compañía lo justifica en su respuesta a un posible cliente, Douglas McClendon, que acudió a la FCC para quejarse de la prohibición y pedir que se cambiasen los términos de uso. Para mayor escarnio, la empresa se apoya en las políticas de otros proveedores, como AT&T o Verizon. Por lo demás, Google explica que la prohibición de alojar "cualquier tipo de servidor" se estableció para "responder a la gestión de congestión y las necesidades de seguridad de la arquitectura de Google Fiber". Sin embargo, la compañía parece olvidar que la definición de servidor es algo más amplia. Con estos términos prohíbe el uso de diversos servicios, como redes P2P (el ordenador actúa como servidor) o la creación de un servidor privado para jugar en línea. ¿Se perseguirá este uso? Probablemente, no. Es más, la propia compañía anima a los usuarios de Fiber a crear servidores para varios de los usos que considera correctos, según se puede leer en su FAQ: Nuestros Términos de Servicio prohíben operar un servidor. Sin embargo, el uso de aplicaciones como juego multijugador, videoconferencia, seguridad del hogar y otros que podrían incluir capacidades de servidor, pero se usan con fines legales y no comerciales es aceptable y alentado. Entonces, ¿dónde está el problema? Pues, para empezar, en que en los términos no se hace esa distinción, únicamente en su sección de preguntas más frecuentes. Pero el problema es aún mayor. El verdadero peligro es la relación entre Google y la neutralidad de la red. La compañía es un gigante en el sector y todo lo que hace tiene repercusiones en la industria y en los usuarios. Antes estaba de su lado; ahora, no. Hemos pasado de ver cómo Google presumía de no ser maligna a tener que pedirle que no lo sea. Al menos, en este aspecto. Esto no quiere decir que sea una empresa eminentemente mala. De hecho, es bastante buena. Por eso duele verla actuar con esta hipocresía. Y no es la primera vez que Google y su forma de ver la neutralidad de la red causa polémica. El caso Verizon Hace casi tres años, el 9 de agosto de 2010, Google respondió a los rumores de su posible acuerdo con Verizon con una defensa conjunta de la neutralidad de la red. Una defensa que dejaba fuera las redes móviles. Cuando hasta Facebook —que está muy lejos de hacer las cosas bien— puede criticar lo que haces, es el momento de replantear tu punto de vista. Desde entonces, la relación de Google con la neutralidad de la red ha sido extraña. A veces —especialmente cuando supone atacar a sus rivales— defiende la idea con uñas y dientes; otras —sobre todo si se trata de defender su negocio—, habla de matices, asteriscos y situaciones puntuales que hay que tener en cuenta. Parece que todo se resume en permitir la libre circulación de tráfico cuando no va en contra de sus intereses. Crear servidores en casa es un uso marginal y en la mayoría de los casos los usuarios ni se enterarán de la prohibición. Otros se la saltarán sin que la compañía actúe, pues ella misma anima a que se haga este uso. Pero el caso es que la empresa ha ido en contra de las normas que debería defender. Y eso, Google, es ser malvado. alt1040.com
  24. La gente de Aatma Studio ha recreado un efectó dominó con unos 10000 iPhones. El concepto del video fue imaginado como lo que podría ser un comercial del iPhone 5.
  25. Los vecinos de la ciudad de Buenos Aires que sufrieron daños en sus casas, comercios o vehículos podrán pedir subisidios de hasta $ 8.000 al Gobierno porteño para compensar parcialmente los daños. Además, el Banco Ciudad tiene una línea especial de préstamos para damnificados. Hoy el jefe de Gobierno, Mauricio Macri, reconoció que, en muchos casos, los montos no son suficientes, aunque también ratificó que no habrá quitas en la tasa de ABL. Para tramitar el subsidio de hasta 8.000 pesos, los afectados por la inundación deben presentarse con su DNI y fotos de los daños en los Centros de Gestión y Participación Comunales (CGPC). El Gobierno porteño recomienda que, antes de iniciar el trámite, llamen a la línea gratuita 147, para obtener todos los detalles necesarios. Al margen de los subsidios, están los créditos del Ciudad, que la vicejefa de Gobierno, María Eugenia Vidal, señaló que tienen "tasas subsidiadas y un período de gracia en el comienzo". Los créditos son de hasta 120 mil pesos para consorcios, de hasta 60 mil pesos para comercios y de hasta 40 mil para individuos. Para solicitarlos, además de la documentación personal y las constancias sobre ingresos, es imprescindible haber denunciado el siniestro ante el CGCP. El plazo para pagar los préstamos, según especifica el Banco Ciudad, es de hasta 36 meses, con tres meses de gracia (es decir que las cuotas empiezan a cancelarse al cuarto mes). La tasa de interés nominal es del 13% anual, pero el costo financiero total llega al 16,92% anual, aún con otros gastos bonificados (como el seguro de vida); las tasas son las mismas en créditos de 12, 24 y 36 meses y no hay costo adicional por la cancelación anticipada. Con esas tasas, los solicitantes tienen que pagar, a 36 meses, cuotas de 35,85 pesos por cada mil pesos de préstamos. Las cuotas no pueden superar el 40% de los ingresos del solicitante o su grupo familiar. Para un crédito de 40 mil pesos a cancelar en tres años, la cuota mensual llega a 1.432 pesos (por lo que el grupo familiar debe justificar ingresos por al menos 3.580 pesos). En el caso de los consorcios, el límite de cuota mensual es del 30% de la recaudación mensual total promedio de los últimos seis meses en concepto de expensas ordinarias. Para un préstamo de 120 mil pesos a cancelar en tres años, la cuota mensual es de 4.302 pesos (por lo que la recaudación promedio de los últimos seis meses debe ser de al menos 14.340 pesos). Al margen de los trámites en los CGCP y los préstamos del Ciudad, la Defensoría del Pueblo de la Ciudad recibe desde esta mañana denuncias de la gente que sufrió daños. Los trámites pueden hacerse tanto en la sede central del organismo, en Venezuela 842, como en la subsede de la calle Delgado 771 o vía mail (a defensoria@defensoria.org.ar).
×