Buscar en este blog

miércoles, 26 de octubre de 2011

El virus de Halloween

El virus Win32.Worm.Prolaco está aprovechando la cercanía de Halloween para robar a los usuarios datos confidenciales, como números de cuenta, contraseñas bancarias o de correo. Se distribuye principalmente a través de correos electrónicos que adjuntan una supuesta tarjeta de felicitaciones para esa fiesta.




Según BitDefender, una vez en el equipo, Prolaco debilita la configuración de seguridad local para poder llevar a cabo sus acciones maliciosas.
Entre ellas, la inyección de código en el navegador para poder grabar todo lo que el usuario teclee durante su navegación por Internet, accediendo de esta manera a contraseñas, nombres de usuarios, etc.
El diario El País informó que este gusano abre una puerta trasera en el equipo para recibir órdenes de su creador. También puede robar las cookies, conectarse a servidores FTP, cargar los datos en los servidores de FTP, cambiar la configuración de servicios o monitorizar el puerto USB para propagarse con mayor facilidad
Su objetivo final es, pues, la instalación de una herramienta de acceso remoto que permite a un atacante tomar el control completo del equipo infectado y disponer a su antojo de los datos almacenados en él.
fuente: Telam

viernes, 21 de octubre de 2011

Así será la Web del futuro

Hablan Chris Hofmann (Firefox), Linus Upson (Chrome), Hakon Wium Lie (Opera) y Roger Capriotti (Microsoft) sobre los avances que se preparan para el servicio más popular de la red de redes.



En agosto último se cumplieron veinte años desde que se puso en línea la página http://info.cern.ch, el primer sitio de la World Wide Web, que dos años antes había creado Tim Berners-Lee.
Desde entonces la Web creció y tuvo un impacto fenomenal sobre nuestra cultura y la forma en que nos comunicamos, nos informamos, nos entretenemos y en cómo trabajamos. Es uno más de los tantos servicios que brinda Internet, pero su peso es tan grande que muchísimos usuarios utilizan la Web para acceder al resto (el e-mail, el chat, las videollamadas, las transferencias de archivos, etcétera).
Ser el vehículo de acceso a la Web es muy atractivo para cualquier compañía. En la década del 90 Netscape y Microsoft pelearon por esa posición, como hoy lo hacen Firefox y Chrome , al menos en términos de innovación.
“Pero cuando nació era algo muy sencillo, una herramienta para compartir información. Cuando estaba en NeXT usé mi primer browser y era muy primitivo; si cliqueabas un link te abría una ventana, y para ir hacia atrás tenías que cerrarla”, recuerda Linus Upson, vicepresidente de ingeniería en Google, que tiene a su cargo el desarrollo del navegador Chrome ( chrome.google.com ), y que trabajó en las primeras versiones del Netscape .
“El éxito de la Web se dio por tres propiedades que tiene desde su inicio -explica-. La primera es que todo es una URL, una dirección Web, lo que implica que podés probar cualquier cosa con un clic, sin instalar nada. La segunda es que en la Web podés hacer búsquedas y llegar rápido a lo que querés, sin fricción. Es un mecanismo universal de acceso a la información. La tercera es que podés embeber algo de otro sitio en el tuyo, crear una nueva combinación. Son los tres elementos que permitieron la masificación de la Web. De hecho, no se me ocurre qué aplicación puede tener hoy tanta importancia en una PC como el browser.”
Según Upson, estas tres cualidades siguen siendo clave, pero aun así la Web está cambiando. La diferencia está en qué hace la Web, dice Hakon Wium Lie, oficial en jefe de tecnología en Opera, la compañía que desarrolla el navegador del mismo nombre ( www.opera.com ), y autor del estándar CSS (hojas de estilo en cascada, según sus siglas en inglés), que permite definir cómo se presenta el contenido de una página Web al navegante.
“Cuando nació, la Web era un medio para intercambiar documentos y texto. Pero con el correr del tiempo pasó de ser una biblioteca a convertirse en una plataforma para todo. Así que necesitamos cambiar cómo hacemos la Web, y por eso hoy la clave está en HTML5″, explicó.
HTML es el lenguaje principal con el que se escriben las páginas Web, se define su estructura y los contenidos, y es lo que interpretan los browsers para mostrar la página en la pantalla del usuario. “Pero necesitamos que el nuevo HTML deje de ser un lenguaje para crear documentos y pase a ser uno que permita hacer que cada sitio se comporte como una aplicación. Eso es HTML5 -afirma Lie-; permite a los programadores hacer cosas que antes no se podían hacer en un sitio.”
Este cambio en la Web ya lo vivimos todos los días con sitios que se comportan como si fueran aplicaciones: el webmail, el álbum de fotos online, el disco virtual, el reproductor de música o videos, el paquete de oficina y otros sitios de la llamada Web 2.0 que comentamos en www.lanacion.com.ar/1060027 .
Lo que buscan los desarrolladores de los navegadores y de las páginas Web es potenciar todavía más su capacidad, agregando gráficos 3D, mayor flexibilidad en la presentación de contenidos, acceso a otros componentes de la computadora, y disponibilidad aunque el equipo no esté conectado a Internet. Las últimas versiones de Chrome , Firefox , Internet Explorer , Opera y Safari son compatibles con HTML5, JavaScript, WebGL y otros lenguajes que están cambiando la Web, y la mayoría de los navegadores de los smartphones lo son en parte. En www.chromeexperiments.com y demos.mozilla.org se pueden ver algunos experimentos que exploran qué se puede hacer desde un navegador.
“La riqueza de gráficos y capacidades interactivas que alguna vez estuvieron asociadas exclusivamente con una aplicación nativa para la PC se está moviendo a la Web -explica Roger Capriotti, director de Internet Explorer en Microsoft (se descarga de www.labellezadeinternet.com )-. Pero nadie abre el navegador porque sí, sino que quieren llegar al contenido online que les interesa. Así que el navegador debería hacerse transparente y permitir a esos sitios y aplicaciones Web mostrar lo mejor de sí.”
Pero este cambio todavía no es una realidad; falta que se defina exactamente cómo será HTML5 -que sigue en desarrollo- y lograr que todos los navegadores interpreten esas directivas de la misma manera.
“Estamos apenas viendo qué rol tiene el navegador en una computadora de escritorio. Estamos como la industria automotriz en la década del sesenta, compitiendo por ser los más rápidos y poderosos, pero eso no alcanza, tenemos mucho por hacer, sobre todo en temas de seguridad y privacidad”, admite Chris Hofmann, director de ingeniería en la Fundación Mozilla, que participó en todo el desarrollo de Netscape y Firefox.
Los entrevistados coincidieron en que los plugins tipo Flash cumplieron su ciclo e, idealmente, en el futuro dejarán de ser relevantes, precisamente por la flexibilidad de HTML5, pero que esto no sucederá de un día para otro.
Según Hofmann, “pasarán como mínimo dos o tres años hasta que HTML5 sea el estándar y los sitios Web lo adopten completamente. Lo bueno es que es un estándar abierto y no lo controla nadie, y eso es fundamental para el futuro de la Web. Pero debemos ir mejorándolo de a poco, es imposible hablar del futuro y lograr que suceda así nomás”.
La virtud de un mundo informático en el que las herramientas están basadas en la Web (en vez de depender de una descarga a la computadora o una tienda de aplicaciones) es que están siempre actualizadas, son más seguras y le permiten una mayor libertad de acción al usuario porque, como dice Upson, “se termina el intermediario”. Se refiere tanto a la tienda de aplicaciones como a toda la interfaz de la PC. Upson lidera también el desarrollo de Chrome OS, el sistema operativo de Google, que no tiene ni admite aplicaciones: todo se hace a través del navegador. En Mozilla también analizan esta alternativa con su proyecto Boot To Gecko.
“En el futuro todos los pixeles de la computadora, sea cual fuere, van a estar controlados por el navegador, que será transparente para el usuario -indica Lie-. Yo creo que la Web tendrá un impacto histórico similar a la imprenta de Gutenberg, o incluso mayor. Así que es fundamental que creemos entre todos una base sólida, y que sea abierta, para que no haya una única empresa que decida cómo deben hacerse las cosas en la Web.”


jueves, 8 de septiembre de 2011

La guerra por la mensajería móvil

amsung develó esta semana su servicio de mensajería instantánea para móviles, ChatON ( http://www.chaton.com/ ), en la exposición tecnológica IFA, en Berlín. Comenzará a funcionar este mes.
Está disponible en sus nuevos equipos; corre sobre Android, Windows Phone 7 y Bada, y la compañía piensa ofrecer también versiones para dispositivos móviles BlackBerry e iOS de Apple, además de versiones para computadoras convencionales.
La movida de Samsung es el más reciente embate en el asedio que está sufriendo en los últimos tiempos uno de los más poderosos negocios móviles, el mensaje de texto.


El SMS fue el primer servicio en lograr, en diciembre de 1992, que el celular dejara de ser simplemente un teléfono móvil para convertirse en un dispositivo de comunicación universal.
Su sucesor directo, al menos en términos de adopción e interés por el servicio, es el BlackBerry Messenger (BBM), que RIM presentó al mundo en 2005; tiene 45 millones de usuarios, y creció un 40% de 2009 a 2010.
El BBM combinó un concepto ya existente, el del mensajero instantáneo (nacido en 1996 con el ICQ) y le dio una vuelta de tuerca para hacer valer la parte móvil. Por un lado, sumando acuses de recibo y alertas de lectura -con lo que ya es muy diferente de cualquier mensajero tradicional, sea el Windows Live Messenger o el Google Talk-; por otro, integrándolo a su plataforma y, por ende, a su sistema de pagos. Es decir: el BBM es de uso ilimitado con cualquier abono BlackBerry, lo que lo hace muy atractivo, y es el referente con el que hoy se miden los servicios que buscan destronarlo.
El mensajero instantáneo móvil, además, es atractivo porque llega al contacto sin importar donde esté; alcanza con que tenga una conexión, a diferencia de la mensajería tradicional, donde el usuario no necesariamente se pasa el día frente a una computadora. Esta noción de chatear con el usuario directamente más allá de su ubicación, y de una manera sencilla y móvil, es la que lo hace parecerse al SMS convencional.
El BBM, sobre todo a partir de la versión 6, funciona como una red social, y eso lo hace aún más valioso para sus creadores, porque ayuda a que los usuarios prefieran esa plataforma (donde están sus amigos, donde pueden comunicarse en forma instantánea y sin costo) a otras.
RIM le ha ido agregando diversos servicios a esta plataforma: desde la posibilidad de compartir fotos o archivos hasta la mensajería grupal.
Hace unos días, por ejemplo, RIM presentó un servicio que permite compartir música entre los usuarios; 50 canciones cada usuario (de las que se dispone por streamingo o descargándolas al móvil), pero con acceso a las que tienen sus contactos en BBM. El acceso a este servicio, BBM Music, requiere un pago extra de 5 dólares y está en período de prueba en Estados Unidos.
La popularidad del BlackBerry Messenger (y la lentitud con la que los mensajeros tradicionales llegaron a los móviles) dio pie a la aparición de diversos contrincantes; todos proponen usar la conexión de datos del móvil (sea usando los datos incluidos en el abono 2G/3G o un acceso Wi-Fi) para permitir compartir mensajes que, dependiendo del plan con el que cuente el usuario, pueden ser gratis o simplemente más económicos que un SMS.
Del lado de los fabricantes de móviles, el primero en intentarlo, sin demasiado éxito, fue Nokia, con Ovi Chat, originalmente basado en XMMP (el protocolo que usa Google Talk) y hoy parte de la plataforma conjunta que crearon Nokia y Yahoo!
Google y Microsoft trasladaron su oferta original a los móviles sin grandes cambios. El gigante de las búsquedas tiene un mensajero específico para móviles, Huddle, que promociona para los usuarios de Google+ que tengan móviles con Android (y podría estar por anunciar un servicio más completo); Microsoft está en el proceso de integrar Skype a su oferta de mensajería, que ya está presente en la mayoría de las plataformas móviles.
Apple anunció iMessage en junio último; estará disponible cuando se libere la versión 5 de su sistema operativo (en la próxima primavera, en teoría) y, como el resto de los mensajeros instantáneos móviles, el énfasis está puesto en poder conversar con grupos de amigos, intercambiar archivos, saber si el mensaje fue leído, etcétera.
No son los únicos: el principal contrincante del BlackBerry Messenger es hoy Whatsapp ( http://www.whatsapp.com/ ), con un servicio similar y un valor agregado importante: funciona en móviles con iOS, Android, BlackBerry OS y Symbian (S40, S60 o S^3), lo que amplía para cualquier usuario el interés de la plataforma. La gran diferencia es que es un servicio pago; después del primer año de uso tiene un precio de 2 dólares anuales, salvo para los usuarios de iOS, que hacen un pago inicial de 99 centavos de dólar.
También están KIK ( http://www.kik.com/ ) y PingChat ( http://www.pingchat.com/ ) con una oferta similar, entre muchos otros. Pero hay más contendientes que se suman a la lucha, como Nimbuzz ( http://www.nimbuzz.com/ ), que nació como un mensajero multiprotocolo y multiplataforma, que también permite llamadas de VoIP, que sumó características como la confirmación de lectura y que está disponible para un gran número de plataformas móviles, incluso teléfonos de gama media que usan Java.
Y Facebook se prepara para desembarcar en el terreno con Messenger, una aplicación de mensajería propia (por ahora para Android e iOS) que tiene el empuje de sus 750 millones de usuarios registrados.
El anuncio de Samsung es interesante porque se desvía de la posición tradicional que tienen los fabricantes: su servicio, ChatON, no apunta a concentrar al usuario -y sus contactos- en una plataforma, sino que el segundo entre los mayores fabricantes de teléfonos del mundo busca tener presencia en todos los sistemas operativos móviles, incluso en los que Samsung no tiene productos (como iOS o BlackBerry). Funciona como una suerte de red social móvil; permite, por ejemplo, compartir contenido multimedia y comentarlo en el perfil del usuario.
En la Argentina hay varios servicios en desarrollo; el único en funcionamiento hoy es Okeyko ( http://www.okeyko.com/ ), de uso gratis y disponible para Android y móviles con Java (Symbian o de gama media); según uno de sus creadores, Pablo Lugones, está en sus planes ampliar su presencia a otros sistemas operativos.
Gondolus, otro desarrollo de fuerte presencia local, espera tener lista su aplicación antes de fin de año para salir a competir con el resto, pero con una particularidad: permite integrar a los usuarios que tienen móviles de gama baja, ya que admite el chatear (sin costo) por SMS. Los que tengan un equipo de alta gama podrán hacerlo usando su conexión de datos; los que no, participan igual de la conversación con un mensaje de texto.
Un servicio similar prepara Movistar Argentina: combina un mensajero instantáneo con el SMS para sumar a los usuarios con móviles económicos. Estará listo a fines de 2011.
Llegar a ser el rey de la mensajería móvil no tiene que ver sólo con cuestiones de popularidad o fidelidad a la marca. También hay mucho dinero en juego, y el todavía activo mundo de los SMS lo demuestra.
Según la Unión Internacional de Telecomunicaciones, se enviaron 6100 billones de mensajes de texto en 2010 (el triple que en 2007), a un precio promedio internacional de 7 centavos por mensaje. Y el 80% de los más de 5300 millones de móviles en uso hoy son capaces de enviar y recibir mensajes de texto.
Se espera que este año los envíos superen los 7000 billones de mensajes, según estimaciones de ABI Research, y la facturación mundial del sector pase de 105.500 millones de dólares de 2010 a 136.900 millones en 2015 (los cálculos son de la consultora Informa). Pero la parte más jugosa del mercado mundial de mensajes de texto incluye los enviados por servicios pagos al usuario (chistes, alertas deportivos, votaciones televisivas y demás). Los cálculos de Juniper Research suponen que este segmento facturará 70.100 millones de dólares en 2016.
Aun así, su crecimiento se está frenando a manos de los mensajeros móviles, que aprovechan la popularidad de los smartphones para expandir su presencia: son la mitad de los celulares vendidos en el último trimestre en Estados Unidos y Europa.
Pero hay una diferencia. El SMS es un estándar interoperable. Es decir, no está bajo el control específico de una compañía. A la vez, es casi imposible para una empresa que no sea una operadora de telefonía móvil competir con este terreno.
La conexión de datos le permite a un tercero nivelar la cancha y soñar con ser central en el futuro de la mensajería instantánea móvil y definir sus términos.
No importa si el resultado son más usuarios para su plataforma, el pago del servicio (o de elementos premium para él) o la proyección de publicidad en millones de pantallas que facture fortunas. Es una disputa por ser el SMS del siglo XXI en la que los contrincantes apenas están comenzando a ubicarse en el campo de juego.


lunes, 8 de agosto de 2011

Tecnópolis 2011, Ciencia y Tecnología en Villa Martelli

Conferencias sobre ciencia, experimentos y talleres, son algunas de las actividades del día en Tecnópolis. Son 60 hectáreas en Villa Martelli, con entrada gratuita, de martes a domingos de 12 a 21, hasta el 22 de agosto.


Consultá la agenda de actividades en: www.tecnopolis.ar

Decir presente mirando al futuro
La muestra Tecnópolis abrió sus puertas al público el 15 de julio y funcionará hasta el 22 de agosto, todos los días de 12 a 21, al cabo de los cuales será presentado el Parque Tecnópolis, un museo permanente que se terminará de erigir en mayo del año próximo. El predio, de 50 hectáreas, se encuentra sobre la avenida General Paz, entre Constituyentes y Ricardo Balbín. La entrada es gratuita.
Está considerado un híbrido de parque científico, museo al aire libre y espectáculo basado en nuevas tecnologías que tiene la superficie de la Villette de Francia –la ciudad de la ciencia de París–, en la que se experimenta la relación del público con la ciencia. Durante la primera semana de funcionamiento medio millón de personas visitaron esta megamuestra, en la que además de los stands hay espectáculos, intervenciones, recitales y shows de todo tipo.

Tecnópolis está dividido en cinco continentes. Tierra, Agua, Aire, Fuego e Imaginación. Algunos de los atractivos de cada continente son:

Continente Tierra
El ícono que representa a este continente es un cubo de 1.400 metros, descripto como “el sitio donde plantas electro-orgánicas e interactivas conviven con pequeñas biósferas encerradas en sí mismas, como minúsculos planetas, un espacio en el que los grafittis no se pintan, sino que crecen sobre las paredes.” En este continente está expuesta la cápsula Felix, con la que fueron rescatados los 33 mineros chilenos. Uno de los stands destacados de este continente es el de Vialidad Nacional, en el que se invita a visualizar, a través de un modelo 3D, la construcción de un camino de manera concreta. También se pueden conocer innovaciones sobre alimentación sustentable, ver orquídeas en distintos estadíos o pasar por debajo del esqueleto de un dinosaurio de 116 millones de años y 14 metros de largo.

Continente Agua
Está representado por un edificio octaedro, con un témpano que emula a los hielos continentales y reproduce las extremas temperaturas de la Antártida. “Yacyretá, el fin de la historia” muestra un viaje al interior de la represa con sonidos que reproducen los de la naturaleza. En el espacio de AYSA se puede seguir todo el proceso tecnológico que hoy en día se pone en juego para que el agua potable llegue a las 10 millones de personas que son abastecidas por el servicio. Impacta el stand de Recursos hídricos, que de noche se transforma en una gran caja lumínica y donde, mediante dispositivos didácticos de última generación, se conocen los beneficios de la correcta administración del recurso esencial. Otro stand permite ver, aprender e interactuar con un modelo a escala real de la Casa del Agua, tal como las que se están construyendo actualmente en la región del Impenetrable chaqueño. El Túnel de la Biodiversidad pone a prueba todos los sentidos al recorrer el extenso territorio argentino y vivir sus regiones: la aridez del desierto, la inmensidad del océano y la exuberancia de selvas y bosques.

Continente Aire
Contiene siete muestras sobre el desarrollo aeroespacial del país, como Argentina en el espacio, con maquetas en tamaño real de los satélites SAC-C, SAC-D y Saocom, y Tronador II, el primer lanzador espacial desarrollado en el país. En este continente se puede conocer el imponente Proyecto Tronador, la lanzadera que representa el futuro del plan espacial argentino. También el visitante puede sentarse en las butacas de un avión de Aerolíneas Argentinas a escala real, y hasta pilotearlo a través de un sorprendente simulador. El laboratorio Pierre Auger contiene hologramas, animaciones y un planetario ideado para personas videntes y no videntes que buscan acercarnos a las eternas preguntas sobre el origen del Universo. Además, se puede comprender el funcionamiento de la energía eólica, ver desarrollos de nanotecnología, y contemplar cuatro aviones que son orgullo de la tecnología argentina: el Pulqui I, Pulqui II, Pucará y Pampa.

Continente Fuego
Está simbolizado por un domo de acero y cristal, donde un simulador nuclear muestra a los visitantes el funcionamiento de una central atómica. En este continente se puede conocer el proyecto desarrollado en el Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear a través de un video 3D en una pantalla de 180 grados, llegar hasta el corazón de la energía nuclear en un recorrido que muestra el proceso que va desde la exploración y explotación minera del uranio hasta las aplicaciones de núcleoelectricidad y medicina nuclear, y vivenciar los procesos de entrenamiento de las tropas argentinas, a través de tres experiencias interactivas asombrosas: el simulador de vuelo Atlas II, el simulador de tanques Neonahuel y el simulador de tiro, todos ellos diseñados por el Ministerio de Defensa.

Continente Imaginación

Todo sorprende en este continente. La robótica y la nanotecnología se ve en diversas formas. Se puede jugar a un metegol manejando robots, manejar un simulador de F1, ver cohetes, misiles y prototipos de simuladores de entrenamiento de vuelo y tiro del Ministerio de Defensa, interactuar con hologramas, ver seres fantasmagóricos en tres dimensiones, habitar una imponente intervención de la Comisión Nacional de Bibliotecas Populares o transitar un recorrido interactivo y conceptual a partir de la selección de 200 piezas clave del arte argentino de los dos últimos siglos de nuestra historia, ingresar a un ambiente que simula la diminuta escala nanométrica o subirse a un camión con proyecciones 3D y conocer un robot especialmente diseñado para investigaciones biotecnológicas.

Espectáculos
Además, todos los días y en todos los horarios hay diversos espectáculos, puestas e intervenciones. La compañía Fuerzabruta realiza diariamente varias funciones de tres espectáculos: Industria nacional, la Pared de fuego (una sorprendente puesta en la que los artistas arrojan elementos metálicos en estado líquido y a más de 1200 grados centígrados sobre una pared, lo que genera un evento visualmente espectacular) y La globa. La compañía La Arena, de Gerardo Hochman, realiza funciones diarias de su show Avalancha. También hay muchos espectáculos para chicos, que mezclan el entretenimiento con la educación, como No es magia es ciencia, de Enrique Federman, o Urraka: música con objetos. Además se realizan recitales periódicamente de grupos de diversos géneros, en espacios como el galpón del Espacio Joven o entre las esculturas sonoras de León Ferrari.

Horarios

Tecnópolis funciona de martes a domingos de 12 a 21. La entrada y todas las actividades son gratuitas. La muestra cuenta también con estacionamiento gratuito. Los días de lluvia permanece cerrada.

Cómo llegar

Tecnópolis está en General Paz entre Balbín y Constituyentes, Vicente López.

Ver mapa

• En colectivo
Hasta General Paz y Avenida San Martín: Líneas 25, 57, 78, 87, 105, 123, 168 (ex 90), 169. Distancia: 3.60 km
Hasta General Paz y Constituyentes: Convergencias líneas 28, 111, 112, 117, 127, 140, 142, 175, 176. Distancia: 1.25 km

• En Tren
FF.CC. Mitre - Ramal José Suarez - Estación Migueletes
FF.CC. Belgrano - Estación Padilla
FF.CC. Mitre - Ramal Mitre Estación J.B.Justo
Distancias: Migueletes 2.7 km - Padilla 2.7 km - J.B. Justo 2.0 km

• En auto
Ingresar al estacionamiento gratuito por Juan Bautista Lasalle 4365 - Villa Martelli

• En forma gratuita
En el hall central de la estación Retiro del Ferrocarril MITRE encontrarás un cartel con la leyenda "SUBE Vamos a Tecnópolis". Allí te entregaran, previa presentación del DNI, un pasaje gratis para visitar Tecnópolis. No olvides guardar el pasaje para regresar. Ya con el pasaje, debés tomar el Ramal Retiro - José León Suárez del ex Ferrocarril Mitre hasta la estación Migueletes, en donde te estarán esperando colectivos con el logo "SUBE Vamos a Tecnópolis", que te dejarán en la puerta de la exposición. Para regresar el mismo transporte estará disponible.

Educ.ar en Tecnópolis

El portal educ.ar ofrecerá talleres sobre nuevas tecnologías aplicadas a la educación y expondrá materiales interactivos. Para ver toda la información, click aquí.
 

lunes, 27 de junio de 2011

Las dos caras de la impresión

Probamos la Epson WorkForce K101, equipo monocromático de inyección de tinta que da pelea a las láser

Sábado 18 de junio de 2011 | Publicado en edición impresa
La WorkForce K101, de Epson, imprime a doble faz. Tiene conectividad por USB y Ethernet. Su precio es de 549 pesos.
Cuántas veces necesité en mi casa imprimir en color, obligatoriamente, son muy contadas. Nunca imprimo fotografías, grandes devoradoras de tinta color, y sólo pongo sobre papel textos extensos que me incomoda leer en pantalla. Páginas y páginas de artículos y trabajos que obtengo en la Web. La tinta negra es suficiente.
Casos como el mío no son muy raros. Somos los que necesitamos una impresora monocromática. Y además que ponga en papel de manera doble faz, por un ahorro de costos.
La impresora monocromática WorkForce K101 de Epson, que estoy probando desde hace varias semanas, cubre mis necesidades por completo: sólo usa tinta negra e imprime a doble faz automáticamente.
¿Cómo hace esto último? Primero imprime de un lado, vuelve a llevar la hoja al interior, la hace rodar en el equipo e imprime del otro lado, sin espera de secado.
Es un dispositivo apto para pymes y el hogar, con conectividad Ethernet, aunque sin Wi-Fi.
La bandeja de entrada de papel tiene capacidad de hasta 250 páginas, mientras que la de salida, de 50. Su velocidad máxima de impresión es de 37 páginas por minutos en modo económico. Para modo normal, 16 páginas por minuto.
La resolución máxima que se obtiene es de hasta 1440 x 720 dpi.
Tiene conectividad por puerto USB. Es compatible con computadoras que tengan Windows XP, Mac OS X y posteriores. Puede imprimir en formatos 10 x 15 cm, 20 x 25 cm, carta, legal, oficio, A4, A5, A6 y B5.
La Epson WorkForce K101 tiene un precio en los comercios de $ 549. Sus dos cartuchos negros, por su parte, están en los 199 pesos. Según aseguran sus fabricantes, con un cartucho pueden imprimirse, aproximadamente, 2000 páginas, por lo que se obtendría un valor de casi 10 centavos por lado impreso. Con los datos brindados por Epson, este precio por hoja la haría más económica que las láser.
¿Qué me habría gustado en este equipo y no tiene? La conectividad inalámbrica. En un mundo donde cada vez hay menos cables es una picardía que esta impresora los tenga.

miércoles, 22 de junio de 2011

El Wi-Fi gratis y público se extiende por todo el país

21/06/11 - 01:34
Ya lo ofrecen en al menos ocho distritos. El sistema funciona en siete plazas de la Ciudad de Buenos Aires y en muchas otras de 22 comunas de Provincia. También en puntos clave de Córdoba, Rosario, Mendoza, San Luis, Chubut y La Rioja.



Ya no es raro que en una plaza pública o en una peatonal del país la notebook, la netbook o el celular iluminen la señal de “red inalámbrica disponible”. Es que –con las limitaciones que los presupuestos imponen– cada vez más ciudades y pueblos están sumando accesos a Internet Wi-Fi públicos y gratis.

En la Ciudad de Buenos Aires se anunció a fines de 2010 un plan por el que se dotaría de accesos Wi-Fi públicos a 25 plazas y parques de la ciudad. De ellos, ya está inaugurado el de la Plaza Houssay, y funcionan en período de prueba en las plazas Irlanda, Angel Gris, Libertad, Rodríguez Peña, Vicente López y en el Parque Avellaneda, según informaron a Clarín del Ministerio de Ambiente y Espacio Público porteño.

A su vez, en la provincia de Buenos Aires, el plan Provincia Digital Municipio por Municipio - Wi-Fi Social ya da conexión de banda ancha inalámbrica libre y gratis en las plazas principales de 22 ciudades donde viven 1,5 millón de personas. La iniciativa se puso en marcha nueve meses atrás y la última inauguración del Wi-Fi social fue en Dolores, según informó a Clarín el secretario General de la Gobernación, Javier Mouriño.

San Luis, en tanto, es la provincia con mayor cobertura de accesos Wi-Fi públicos. La información oficial indica que abarcan toda la provincia. Sin embargo, según pudo comprobar este diario, los accesos Wi-Fi alcanzan una gran parte del territorio provincial, pero dejan algunas zonas sin cobertura.

Por su parte, en la capital cordobesa ya hay tres puntos de acceso Wi-Fi gratis que ofrece el Gobierno a través de la Empresa Provincial de Energía Eléctrica (EPEC). Además, hay seis barrios que están a punto de recibir el servicio. En tanto, en el interior de la provincia hay cuatro localidades (Villa María, Carlos Paz, Río Cuarto y San Francisco) donde la infraestructura está casi lista, según le dijo a Clarín Gustavo Pérez Ares, encargado del área de Telecomunicaciones de EPEC. Para 2013 Córdoba planea tener unos 1.500 nodos de acceso en unas 220 localidades.

En la provincia de Chubut también hay accesos Wi-Fi libres, algunos instalados por el gobierno provincial y otros por los municipios o por cooperativas. En Rawson hay dos zonas Wi-Fi, en Trelew otras dos y en Puerto Madryn la municipalidad dio cobertura a su extensa costanera. Según explicó a este matutino el director general de Gobierno Digital chubutense, Mariano García Araníbal, en casi todos los casos el uso del Wi-Fi tiene limitaciones y filtros “para que no se sature y lo puedan usar la mayor cantidad de vecinos”.

En la provincia de Santa Fe, en Rosario, actualmente la cobertura alcanza un sector del microcentro. Para el futuro se planea llegar a todas las plazas y paseos públicos rosarinos, incluida la costa. En tanto, en Rafaela, desde 2007 existe una Internet pública municipal en la plaza principal de esa ciudad.

En Entre Ríos, la semana pasada comenzó la instalación de una red Wi-Fi en Paraná. El servicio debería estar habilitado en 60 días. La conexión estará disponible en la costanera y las playas de la ciudad, en la peatonal San Martín, en la Terminal de Omnibus y en cinco plazas céntricas, explicó el director general de Sistemas y Telecomunicaciones de la Municipalidad de Paraná, Alejandro Mascardi.

En Mendoza, hay acceso a Internet vía Wi-Fi gratis en algunas plazas municipales, polideportivos y centros comerciales de cinco de los 18 municipios de la provincia. El gobierno de Celso Jaque (PJ) había prometido en 2010 que para fin de año los mendocinos tendrían Internet gratis, pero por razones presupuestarias la promesa no se concretó.

Mientras que en La Rioja desde 2007 se le dio fuerte impulso a la empresa estatal mixta Internet para Todos, y se coloco Wi-Fi en las principales plazas de las principales ciudades. Y se anunciaron mil kilómetros más de fibra óptica.

Informes: Corresponsalias de La Plata, Mar del Plata, Santa Fe, Rosario, Mendoza, Cordoba, Parana, La Rioja, San Luis y Chubut.


Las claves
Se conoce como Wi-Fi (Wide Fidelity, amplia fidelidad) a una tecnología que permite la conexión inalámbrica a Internet y a otras redes informáticas desde diferentes dispositivos.

Para poder conectarse a redes a través de Wi-Fi los equipos (celulares, notebooks, netbooks, tabletas) deben estar equipados con esta tecnología. En la actualidad, prácticamente todas las computadoras portátiles traen Wi-Fi, pero no todos los celulares.
Algunas conexiones Wi-Fi públicas tienen limitaciones: filtran contenidos, no permiten bajar películas o ingresar a redes sociales. En otras, las limitaciones están en el bajo ancho de banda.

Motorola Solutions elabora un ranking latinoamericano de ciudades digitales, y observa “una fuerte tendencia a la aparición de territorios digitales, es decir, proyectos que van más allá de un municipio o localidad y abarcan un área más amplia, como una provincia”.

http://www.clarin.com/internet/mundo_web/Wi-Fi-gratis-publico-extiende-pais_0_503349838.html

martes, 21 de junio de 2011

PRONTO HABRÁ DIRECCIONES WEB CON CUALQUIER PALABRA DESPUÉS DEL PUNTO

Publicado: 20 jun 2011 | 19:27 MSK
Ultima actualizacion: 20 jun 2011 | 19:30 MSK


 ICANN (siglas en inglés de Internet Corporation for Assigned Names and Numbers, Corporación de Internet para la Asignación de Nombres y Números), una de las entidades que controla la actividad de la red, ha decidido ampliar el sistema de los dominios. Hasta ahora han existido 22 dominios básicos a los que se añadían los propios de cada país (como .es en España o .cl en Chile, por ejemplo) y la cantidad total ascendía a 250 terminaciones.

En el futuro la dirección de un sitio web podrá terminar con cualquier palabra en todas las lenguas y alfabetos, incluso el chino y árabe. Las solicitudes para los nuevos dominios serán admitidas desde el 12 de enero de 2012. Se esperan peticiones de compañías internacionales y posiblemente de algunas ciudades. El precio será alto: 185.000 dólares por la dirección electrónica y 25.000 dólares más en pagos anuales.


Esta tasa fue introducida para garantizar que los nombres de grandes marcas serán utilizadas solo por estas mismas y para combatir el fraude denominado 'ciberocupación', cometido por pequeñas compañías que pueden usurpar los nombres de grandes corporaciones y luego especular con ellos. A pesar de tal posibilidad ICANN asegura que el sistema de selección será riguroso y las multinacionales no tienen nada que temer. En caso de que existan dos o más pretendientes legítimos para un solo dominio la organización no descarta la posibilidad de una subasta.

El permiso para obtener una dirección electrónica se compara con el permiso para construir un rascacielos: los estándares serán tan altos que solo un círculo limitado de entidades podrán cumplirlos.


Articulo completo en: http://actualidad.rt.com/ciencia_y_tecnica/internet_redes/issue_25733.html

lunes, 13 de junio de 2011

Fue un éxito el lanzamiento del satélite argentino SAC-D

11/06/11
Se construyó a través de un histórico convenio entre la Comisión Nacional de Actividades Espaciales de Argentina y la NASA. Es el cuarto de su serie y estudiará los efectos del cambio climático.


"Lo que sabemos es una gota de agua; lo que ignoramos es el océano”, sostenía Isaac Newton hace más de tres siglos. Hacia ese desconocimiento apuntó ayer el lanzamiento del satélite SAC-D/Aquarius, una misión conjunta entre la Comisión Nacional de Actividades Espaciales (CONAE) de la Argentina y la agencia espacial de los Estados Unidos, la NASA. Salió a las 11.20 (hora argentina) desde la base Vandenberg, en California, EE.UU., y fue todo un éxito.
“Todo ocurrió tal cual lo esperábamos” , dijo –un poco exaltado– a Clarín el líder científico de la misión por el lado estadounidense, el doctor Yi Chao.
El desarrollo del lanzamiento pasó por varias etapas. Primero, se dio la salida del cohete que llevaba al satélite. A los 57 minutos, se produjo la separación: el satélite abrió los paneles solares y quedó solito. Se encuentra “mirando” hacia la Tierra a 657 kilómetros de altura. En cambio, el cohete que lo transportó –un Delta II– se hundió en el Océano Pacífico.
“La mayoría de los que trabajamos en la misión no dormimos anoche. Había mucho en juego” , contó Conrado Varotto, el director ejecutivo de la CONAE, quien trabaja en el programa espacial del país desde sus inicios, en 1991. Lo que estaba en juego era poner en órbita un satélite mucho más grande y sofisticado que los tres anteriores de la serie SAC que ya se lanzaron, con sello argentino, para la observación de la Tierra.

Esta vez, los instrumentos que el satélite SAC-D tiene a bordo serán clave para determinar los niveles de salinidad en la superficie de los océanos. Es decir, la característica que hace que las aguas de los océanos nos resulten salados. Hasta ahora, ese parámetro se medía desde los barcos o con boyas. “Con el satélite en funcionamiento, podremos tener información sistematizada sobre los niveles de salinidad, que nos servirán como indicadores del ciclo del agua, y nos permitirá hacer predicciones sobre el cambio climático”, aseguró Chao a través de una entrevista teléfonica con Clarín . El científico es de origen chino y está especializado en oceanografía satelital.

No todo será sal en la vida del satélite.
En su interior tiene dos instrumentos clave que también fueron diseñados en la Argentina.
Uno consiste en un sensor infrarrojo que será útil para monitorear los volcanes, los incendios, y la temperatura de suelo y mar. El otro instrumento será una cámara de alta sensibilidad, que se aplicará al monitoreo de tormentas eléctricas, cobertura de nieve, auroras polares, y –por si fuera poco– iluminación nocturna.
Esta última aplicación contribuirá a controlar mejor la pesca ilegal en el mar Argentino.
“La cámara permitirá detectar barcos pesqueros que no cumplan con las normas que limitan las capturas, ya que el satélite estará observando de noche”, advirtió Héctor Otheguy, gerente general y CEO de la empresa pública rionegrina Invap.
A partir de ayer, entonces, cuando quedó en órbita, el satélite empezó a dar las 14 vueltas diarias a la Tierra. Lo hará –como mínimo– durante los próximos cinco años. Y ya es un orgullo para todos.
“Ni los Estados Unidos ni la Argentina podrían haber hecho esta misión solos. La colaboración mutua fue crucial para que hoy estemos celebrando el éxito” , afirmó Chao. En tanto, la presidenta de la Argentina, Cristina Fernández de Kirchner, también expresó sus sentimientos desde la Casa Rosada: “Siento mucho orgullo y esperanza de lo que podemos hacer los argentinos. Hace apenas 10 años lanzábamos piedras, y hoy lanzamos cohetes y satélites”. Además, la presidenta atribuyó a los medios el desconocimiento de la gente sobre la agencia espacial argentina. “Yo estoy segura que uno sale a la calle, pregunta por la NASA y todo el mundo sabe qué es la NASA, y si salimos a la calle y preguntamos por CONAE nos miran con cara de si estamos hablando en español o en algún otro idioma extraño. Esto no es culpa de la sociedad, no es culpa de la gente, esto es culpa de que estas cosas nunca son noticia”, opinó la presidenta.
Como actividad educativa, ayer también se organizó una actividad en un colegio de la localidad cordobesa de Alta Gracia.
Los chicos construyeron artefactos de plásticos que lanzaron a través de infladores y aprendieron sobre física, ingeniería y oceanografía.
El desarrollo de satélites ha destacado a la Argentina en el mundo desde principios de los años noventa. Los cuatro que ya diseñó Invap para la CONAE formaron parte de un plan espacial que empezó en 1991, durante la presidencia de Carlos Menem.
Hace 11 años se lanzó el tercer satélite de la serie SAC.
El plan se renovó en 2004 con el presidente Néstor Kirchner, y tiene plazo hasta 2015. Para el SAC-D, la CONAE invirtió 60 millones de dólares. La NASA (que está a cargo de 14 satélites que hoy están en órbita) puso 287 millones de dólares, incluyendo gastos de lanzamiento. A las 18.36 de ayer, el satélite argentino tomó contacto con el centro de la CONAE en Córdoba. La investigadora principal por el lado argentino, Sandra Torrusio, dijo que había recibido bien sus datos. “Lo que acaba de ocurrir recién es el llanto de un bebé que está sano”, dijo.

http://www.clarin.com/sociedad/ciencia/titulo_0_497350386.html

miércoles, 8 de junio de 2011

Cómo será la nueva Internet que revolucionará nuestras vidas

Compañías como Cisco, Google y Microsoft iniciaron la implementación del protocolo IPV6, una tecnología que permitirá la expansión de las conexiones a la Red de casi cualquier dispositivo, incluso electrodomésticos
(Miércoles 08 de junio de 2011)


Aunque probablemente pase inadvertido para los millones de usuarios que día a día utilizan la Web y envían mensajes de correo electrónico, las principales compañías del mundo tecnológico iniciarán un demorado cambio tecnológico que permitirá eliminar los límites que tiene Internet tras su explosivo crecimiento en los últimos años.

Cisco, Google, Facebook y Microsoft, entre otras firmas, pondrán a prueba el protocolo IPV6 en reemplazo de IPV4, un proceso que ampliará la capacidad actual de la red de redes al permitir la conexión de casi cualquier dispositivo, más allá de las computadoras y teléfonos celulares.
En las última década, Internet tuvo un crecimiento imparable. En todo el mundo habían 250 millones de usuarios con acceso a la Red en 2000, una cifra que se multiplicó por ocho una década más tarde , según cifras de la Unión Internacional de Telecomunicaciones. Cada uno de ellos es probable que acceda desde más de un dispositivo, como computadoras y celulares, que deben utilizar un identificador único denominado número IP.

La actual plataforma IPV4, que se encuentra vigente desde 1981, dispone de unos 4294 millones de números IP . Sin embargo, en el actual panorama, esta versión del protocolo se encuentra agotada, ya que el 90 por ciento de esas direcciones se encuentran utilizadas. Groso modo, en todo el mundo hay más de 4000 millones de dispositivos con conexión a Internet.
La migración a IPV6 le quitará los límites a Internet en este aspecto, y permitirá su ingreso a diversos dispositivos: un lavarropas que se pueda controlar de forma remota, una heladera que emita alertas de compra o un auto eléctrico que indique al smartphone que necesita recargar sus baterías. Sin ir más lejos, ya se encuentran en el mercado diferentes modelos de televisores que ofrecen la posibilidad de conectarse a la Red .

De persistir con IPV4, una actualización que requiere de una inversión económica en el recambio de equipos, el agotamiento de las direcciones IP disponibles impediría la expansión de este tipo de servicios. Si bien IPv6 también tiene un límite, esto no será fácil de alcanzar por muchos años, ya que con él son posibles unos 340 sextillones (340 seguido de 36 ceros) de direcciones IP.
La fecha elegida, denominada Día Mundial del IPV6 , es simbólica, y busca el compromiso tanto de las compañías tecnológicas involucrada en servicios de uso más extendido como Google, Facebook y Microsoft, como de aquellas que son responsables de la infraestructura técnica de la Red, como proveedores de Internet y equipamiento de comunicaciones.

La casa on line. La actualización a IPV6 no tendrá un impacto inmediato en el uso diario de Internet. Sin embargo, permitirá ampliar la perspectiva de crecimiento a una mayor cantidad de dispositivos. En el último encuentro mundial de programadores organizado por Google , las iniciativas apuntaron al ingreso de la Red en el hogar.

Android, el sistema operativo para equipos móviles de la compañía, tendrá la capacidad de ser implementado en diferentes dispositivos hogareños, y ampliará las posibilidades que ofrece la domótica , el conjunto de sistemas que permite realizar y automatizar diversas tareas mediante el uso de la tecnología. De esta forma, se podrá verificar el número de calorías quemadas durante una sesión en una bicicleta fija, o apagar la lámpara LED desde el celular, uno de los últimos avances presentados por Google en la convención.


http://www.lanacion.com.ar/1379863-llego-el-dia-en-el-que-internet-volvera-a-revolucionar-el-mundo

domingo, 5 de junio de 2011

Basura electrónica: se entierran 120 mil toneladas al año, que se podrían reciclar

05/06/11
Basura electrónica. Son viejas PC, pilas, notebook o celulares. El 95% se podría reutilizar. En la Ciudad crece el descarte, que contamina los rellenos.


Computadoras, notebooks, teléfonos, celulares, televisores, pilas, lamparitas, lavarropas, heladeras y pequeños electrodomésticos, entre muchos otros objetos cotidianos en desuso, conforman un universo de “ residuos electrónicos ” con los que convivimos. Abandonados en rincones, cajones, bauleras o placares juntan polvo y preguntas: ¿Qué hacer con la primer compu que compramos? ¿A quién le damos ese lavarropas viejo? ¿Y el celular sin chip? De momento no existe un plan sistemático que permita reciclar este tipo de basura, así que probablemente termine formando parte de un relleno sanitario, en donde comienza un proceso de degradación perjudicial para el medio ambiente.

En función de lo que se vende en materia de electrónica y lo que se vuelve obsoleto, los especialistas calculan que anualmente se descartan 120.000 toneladas de desechos, de los que se recicla sólo el 5% . El promedio en el país es de 2,5 kilos de basura electrónica por año por habitante, mientras que en la Capital y el Gran Buenos Aires trepa hasta los 4 kilos promedio. Y si bien es verdad que no llega a los niveles de Estados Unidos y algunos países de Europa (en donde es de 20 y 15 kilos por persona por año respectivamente), el consumo en el país crece y con él la generación de este tipo de basura.
Pero las cifras pueden ser más alarmantes: “Hay que tener en cuenta que el 80% de los residuos electrónicos se generan en los hogares. Sólo conoceremos las toneladas definitivas cuando se haga separación de residuos en origen”, aporta Sebastián Astorino, de Riesgolab, una empresa que asesora sobre gestión de residuos.
Por ejemplo, en Argentina hay 50 millones de celulares. “Se calcula que en 2010 se descartaron entre 10 y 12 millones. Entre un 30 y 35% fueron a parar a los rellenos sanitarios y el resto probablemente pasaron de mano en mano o están en cajones. La gente reconoce que generan un daño ecológico y se los queda”, explica María Eugenia Testa, Directora de Unidad Política de Greenpeace.
“En la Ciudad todavía se disimula una situación que puede terminar siendo crítica, porque en las casas y en las oficinas hay una gran acumulación de electrónicos”, explica Carlos Scimone, gerente de la Cámara Argentina de Máquinas de Oficinas, Comerciales y Afines. “En 2010 se vendieron un millón de televisores, es decir que la gente tiene que haber descartado a su vez los viejos televisores, sin embargo no los saca a la calle, ni los dona. En Alemania, Austria y Suecia se recicla más del 60% de lo que se descarta”, detalla.
Además, la industria y el marketing colaboran con la renovación de electrónicos. Entre otras cosas recurren a diseños con obsolescencia programada : productos que serán utilizados por un período de tiempo específico. Algunos le dicen “diseño para el basurero”.
“La ecología tiene sus costos. Si no convencemos a la gente por lo ecológico, hay que hacerlo por los beneficios económicos”, opina, pragmático, Gustavo Fernández Protomastro, biólogo y director de la consultora Escrap. “Un ejemplo: los envases de cerveza. Si los supermercados y los almacenes no nos pagaran por devolverlos, habría depósitos de botellas vacías en las casas. Si funciona con la cerveza, por qué no con otras cosas. En el Personal Fest logramos que la gente cambiara 2.000 celulares viejos por remeras”, cuenta.

De momento sólo existen campañas aisladas y de empresas privadas para reutilizar y reciclar artefactos. A nivel nacional tiene media sanción del Senado una ley que promueve el compromiso de los fabricantes de objetos electrónicos (tanto de compañías productoras como importadoras) en la gestión post-consumo. Una vez que el aparato cumplió su ciclo, las empresas tendrían que recuperarlo para reciclarlo. Y el proyecto prevé que les den incentivos de distintos tipos a los usuarios por los viejos equipos. Las empresas tendrían que cumplir objetivos para sacar los aparatos del mercado e impulsar programas para recuperarlos.

Mientras, en la Ciudad no hay proyectos para mitigar el envío de basura electrónica al relleno sanitario de la Ceamse. Por un lado sigue sin reglamentarse una ley, que fue votada en 2008, que obliga a la Comuna a deshacerse de los rezagos electrónicos propios, que se acumulan en los depósitos y subsuelos de las reparticiones. Diego Santilli, el Ministro de Ambiente y Espacio Público, no pudo precisar qué cantidad de aparatos sin uso posee la Ciudad. Pero enfatizó que el Jefe de Gobierno reglamentará la ley en “cualquier momento”. Por otro lado, los nuevos pliegos de la basura tampoco contemplan una recolección diferenciada de residuos tecnológicos. Es decir que al no fomentarse el reciclaje la meta “Basura Cero” está cada vez más lejana.

El affaire que en 2008 protagonizó la Comuna con las pilas también mostró que las acciones aisladas pueden terminar siendo un problema más que una solución: a través de los CGPC se recolectaron 10 toneladas de pilas viejas para ser depositadas en un relleno para residuos peligrosos, pero fueron rechazadas primero por Córdoba y luego en Campana. Finalmente las diez toneladas de pilas, que aún están en la Ciudad, serán exportadas por Duracell y Eveready a países con plantas procesadoras de este tipo de residuos.

http://www.clarin.com/ciudades/entierran-toneladas-ano-podrian-reciclar_0_493750758.html

viernes, 3 de junio de 2011

Lo que hay que saber antes de salir a comprar una PC de escritorio

Las ventajas de los equipos de marca y la opción de armar uno pieza por pieza.

Si algo le sobra a quienes se disponen a elegir una computadora de escritorio para su hogar u oficina son preguntas. Y una habitual entre ellas es –antes de afinar la selección y resolver sobre los componentes internos– ¿qué es lo más conveniente, una PC de marca internacional, una de marca nacional o una de las llamadas clones (computadoras armadas con componentes de diferente procedencia)? Aquí, algunas pautas y sugerencias que pueden ayudar a la hora de elegir.

La respuesta a esta pregunta no es única. Según las consultas que hizo Next con especialistas en PC, las computadoras de marcas internacionales (Dell, HP, entre otras) tienen a su favor que su armado está hecho siguiendo estándares que apuntan a asegurar, por un lado, la compatibilidad de todos los componentes entre sí, y por el otro, la del hardware con el software que vendrá instalado en el equipo.

Más que una reunión de componentes, en esos equipos hay un trabajo de diseño integral que sale al mercado debidamente probado y que asegura un alto grado de confiabilidad, lo que es muy valorado sobre todo si se trata de un equipo destinado a un uso profesional o comercial.
Néstor Russaz, del Instituto de capacitación Cetia, agrega que algunas de las grandes marcas ofrecen además un muy buen soporte técnico que incluye, en algún caso, la atención de la garantía en el domicilio del usuario.

En cuanto a los puntos flojos de las PC de grandes marcas, Russaz menciona la escasa flexibilidad de sus configuraciones, que deja al usuario con pocas posibilidades de personalizar su equipo. Además, las marcas globales son a veces algo lentas para incorporar las últimas tecnologías y no suelen tener equipos de los más potentes.

En cuanto a las marcas locales, Gonzalo Espósito, de Banghó, le explicó a este diario que una de las principales ventajas de las computadoras de marcas locales es que se ubican en un rango medio entre los clones y las marcas internacionales. “Ofrecemos equipos con los mismos componentes internos que las marcas globales, pero a precios más competitivos”, señala Espósito.

Con los clones, en tanto, se gana en posibilidad de elegir pieza por pieza los componentes del equipo –lo que no deja de ser trabajoso– y, en algunos casos, la máquina se puede actualizar sin quedar “preso” del proveedor inicial aún cuando la garantía no haya vencido.
En el caso de optar por un clon, Russaz sugiere comprar todos los componentes en el mismo comercio y llevarse la máquina armada y probada; de lo contrario, ante una falla podría darse que los diferentes proveedores se responsabilicen entre sí y dificulten la solución del problema.
A su vez, Miguel Angel Creatura, de MH Multihard, sugiere tener claro para qué se usará la PC. “Si será para usos habituales de oficina e Internet, cualquiera de las máquinas que se ofrecen hoy en el mercado será suficiente”, afirma Creatura. En cambio, si se tendrán otras expectativas, como jugar a juegos exigentes por ejemplo, habrá que saber los requerimientos a cubrir y en función de ellos elegir con cuidado la motherboard, el microprocesador y la placa de video necesarios. Luego, en función de esos tres componentes, se elegirá la fuente de alimentación, un componente clave, que debe proveer la potencia necesaria.

Otra sugerencia de los expertos es asegurarse que el software que se tiene y se querrá seguir usando en la nueva computadora no vaya a tener problemas de compatibilidad, sobre todo si se trata de programas para usos muy específicos o hechos a medida. Por ejemplo, hay procesadores de 64 bits sobre los que no puede trabajar software de 32 bits.

lunes, 30 de mayo de 2011

Aceleradas y en 3D

Cómo son las nuevas tecnologías de video para juegos y películas tridimensionales. Qué hay que tener en cuenta para instalar estas potentes placas gráficas. Modelos y precios (sábado 28 de mayo de 2011)


Son las bestias del 3D. Esas placas que exigen la tecnología al límite para ofrecer un poco más de pixeles, un modelo tridimensional con más polígonos, una textura más realista, una iluminación más sutil o un modelo de clima más creíble; todo con tal de lograr que los gráficos de la PC sean más complejos, más realistas, más espectaculares.
Este año se cumplen 15 desde que 3Dfx llevó al mercado masivo las aceleradoras de gráficos 3D. La primera de las placas de 3Dfx (que en 2001 quedó en manos de Nvidia), la Voodoo, tenía 4 MB de RAM propio y un chip que corría a 50 MHz para calcular la posición de los triángulos que formaban los cuerpos tridimensionales de un mundo virtual.
Desde entonces la industria cambió bastante: los gráficos 3D hoy son cosa de todos los días, y cualquier computadora moderna tiene un chip de video capaz de calcular objetos en 2D y 3D con un rendimiento aceptable, como parte del procesador central o integrada al motherboard, tanto de Nvidia, de AMD (que compró ATI en 2006) o de Intel -sobre todo con la línea 2011 de los chips Core-. El suplemento Tecnología le dedicó una nota a estos procesadores en enero último que puede leerse en www.lanacion.com.ar/1345043 . Sin embargo, todavía hay demanda para tener placas de video discretas (es decir, que se agregan a un puerto PCI Express 2.0).

Para quienes buscan algo así, y no tienen problemas de presupuesto, hay dos modelos que hoy se disputan la supremacía en las PC: la AMD Radeon HD 6990 y la Nvidia GeForce GTX 590, los dos más avanzados que ofrecen los rojos y verdes (como se los suele identificar por el color de sus logos y, en general, de toda su gráfica).
Ambos modelos llegaron al mercado en marzo último y comparten algunas características: tienen dos procesadores gráficos cada uno (GPU), todos fabricados con tecnología de 40 nanómetros, más pequeños y más eficientes en consumo de energía que las versiones anteriores; 3 o 4 GB de RAM GDDR5 propia (la GTX 590 o la HD 6990, respectivamente), y entre 365 o 375 watts de consumo máximo de energía (dependiendo de si se trata de la tarjeta de Nvidia o de AMD); recomiendan ser usadas con fuentes de 700 o 750 watts.
Ambos equipos, además, dan soporte a video en 3D (es decir, para ver juegos o películas con imágenes estereoscópicas en pantallas compatibles) vía el estándar HDMI 1.4a. La GTX 590, en su versión convencional, tiene tres conectores DVI y uno Mini DisplayPort, mientras que la Radeon HD 6990 ofrece cuatro Mini DisplayPort y un puerto DVI.
DisplayPort es un conector para transmitir audio y video digital, que se espera desplace al DVI en los próximos años.
Ambos equipos usan una ranura PCI-Express 16x y pueden ser conectados a otras tarjetas para funcionar en paralelo, una técnica que se llama SLI en el mundo Nvidia y CrossFireX en el de AMD.
El precio promedio de estas placas en Estados Unidos es de 700 dólares. En Anandtech.com, Tomshardware.com, HardOCP.com, Guru3D.com y otros sitios especializados pueden encontrarse comparativas de rendimiento entre ambos dispositivos (en inglés): el equipo de AMD termina en general con un puntaje apenas superior, pero el de Nvidia es más silencioso. También hay información en los sitios locales http://www.toxico-pc/ , http://www.maximo.net/ , http://www.3dgames.com.ar/ o http://www.alkon.org/

Para otros bolsillos
AMD y Nvidia ofrecen, además, modelos más económicos, basados en el mismo procesador que los dos dispositivos mencionados, pero con prestaciones más modestas (un solo chip, relojes más lentos, menos memoria RAM). En el caso de Nvidia son el GTX 580, 570 y 560i; AMD ofrece, por su parte, los HD 6970 y 6950.
Para presupuestos más limitados también hay otras opciones, disponibles en las tiendas locales. En términos generales, ambos fabricantes eligieron un método de numeración ordinal para orientar al usuario: un modelo con número mayor debería tener, en teoría, un mejor rendimiento que otro con número menor.
En la práctica hay variaciones, fruto de las combinaciones que hacen los fabricantes entre el procesador y su reloj interno, la cantidad y el tipo de memoria, el bus de datos y demás.
Se usan dos tipos de memoria RAM en las placas de video 3D (que no es la RAM general de la PC): DDR (iguales a las que se usan para la RAM de todo el equipo) o del tipo GDDR, especiales para estos dispostivos; estas últimas son más veloces y por lo tanto ofrecerán una mejor performance, al intercambiar datos más rápido con el procesador gráfico, pero también son más caros.
Por ejemplo, una Radeon HD 5770 de XFX o Sapphire con 1 GB de memoria GDDR5 y doble salida DVI, conexión DisplayPort y HDMI tiene un precio local de 860 pesos, pero una XFX con el mismo chip y 1 GB de RAM DDR2 y conectores VGA, HDMI y DVI tiene un precio que ronda los 525 pesos. EVGA ofrece una tarjeta GeForce GTS 450 con 1 GB de RAM GDDR5 y conectores DVI, HDMI y VGA a 820 pesos.
Por 650 pesos, aproximadamente, es posible encontrar placas Radeon HD 5670 de MSI o Sapphire con 1 GB de RAM GDDR5 y los tres tipos de conectores de video.
Más modestas, las GT 430 con 1 GB de RAM DDR3 de EVGA o Zotac rondan los 450 pesos, mientras las GT 220 con 1 GB de RAM DDR2 rondan los 410 pesos, en este caso de XFX o Sentey (todas con conectores VGA, DVI y HDMI).
Otra alternativa son las Radeon HD 5450 de XFX, MSI o Sapphire, que incluyen 1 GB de RAM DDR3 y los tres conectores gráficos a 370 pesos, aproximadamente.
Antes de comprar una placa es recomendable averiguar su performance relativa a otros modelos en los sitios especializados, para despejar dudas sobre el rendimiento que ofrece ese modelo específico.

La importancia del gabinete
Al elegir la placa de video hay que tener en cuenta algunos parámetros de la PC. Primero, por supuesto, hay que verificar que el motherboard del equipo tenga una ranura PCI-Express 16x libre. Luego hay que atender al consumo pico de energía de la tarjeta de video y a la capacidad de la fuente del gabinete, que además debe tener un conector libre para alimentar la tarjeta. Ante la duda es preferible comprar una fuente de mayor capacidad a la estándar (600 watts o más, por ejemplo) para que no esté exigida al máximo durante una sesión agitada de juego.
Los watts se refieren a la capacidad máxima que puede suministrar, no al consumo promedio: si la PC está prendida, pero se está usando sólo para escuchar música o navegar por la Web no consumirá esos 600 watts (de la misma manera que el consumo tope de una tarjeta es para picos de rendimiento, y no para un juego sencillo o reproducir un video).
También hay que notar el tamaño de los modelos más poderosos, que suele ser el doble que una tarjeta convencional para dar espacio al sistema de enfriado, y que por lo tanto puede anular una ranura del motherboard contigua a la tarjeta.
Este consumo de energía implica calor; aunque las placas traen su propio sistema de enfriamiento, lo ideal es agregar ventiladores para sacar el calor de adentro del gabinete. Los más comunes tienen un precio de entre 20 y 30 pesos. Las soluciones más sofisticadas (y más caras) usan agua para enfriar el equipo. En todos los casos, lo ideal es que el gabinete sea grande, para ayudar al flujo de aire dentro del mismo, mantener estable la PC y permitirnos disfrutar de nuestro videojuego.

viernes, 27 de mayo de 2011

Cómo hacer rendir la inversión en celulares, cámaras y PC

26 MAY 2011 01:57h
Guía para comprar tecnología. Algunas características técnicas se muestran como claves, pero en rigor son sólo recursos de marketing. Para gastar menos, qué es lo importante y qué se puede descartar de cada producto.

No todos los días se adquiere un producto tecnológico. Por eso, cuando se presenta la ocasión es necesario evaluar sus principales funciones. Si la cantidad de dinero que se destinará a la compra es limitada, hay que renunciar a unos beneficios para obtener otros. Para lograr una buena inversión, qué aspectos tener en cuenta y cuáles descartar.
Memoria sobre el procesador
Como expone Sam Grobart, en su artículo de The New York Times, al comprar una PC de escritorio, la disyuntiva que se presenta es apostar por un modelo más avanzado de procesador o agregar memoria RAM extra. Raúl Rocchi, consultor informático, señala que “los procesadores suelen tener suficiente velocidad para realizar las tareas habituales. En cambio, la memoria RAM puede convertirse en un cuello de botella”. Así, es mejor no gastar mucho en el procesador pero en lo que no se puede escatimar es en la RAM.

Otro punto conflictivo es el disco rígido, cuya velocidad de transferencia de datos puede limitar el flujo de la información. “Lo importante es la revoluciones por minuto (rpm) a las que gira el disco, que puede ir de 7.200 a las 10.000 rpm y la capacidad de buffer, un espacio reservado para el almacenamiento temporal de información que trabaja en conjunto con la memoria RAM”. Lo mínimo recomendable para el buffer es de 16MB y el techo de 64MB.
Eficacia antes que comodidad
Si el presupuesto es flaco, en los celulares la alternativa es apostar por uno táctil, pero elemental o buscar un modelo más completo, pero menos seductor. Como explica Rodolfo Chesini, asesor corporativo en telefonía móvil “siempre es más ventajoso tener un aparato con Wi-Fi, porque establece una notable diferencia tecnológica con el resto. Mientras este último está más próximo a una computadora en miniatura que te permite navegar gratis por Internet, consultar tu correo electrónico y charlar por Skype sin gastar una moneda, el dispositivo que brinda sólo control manual, no pasa de ser un teléfono delicado”.
Lente grande sí, megapíxeles no
Una difundida estrategia de ventas señala que cuantos más megapíxeles sume la cámara mejores fotos tomará. Pero esto es falso. David Pogue, destacado columnista de tecnología de The New York
Times, hizo de esto el grito de guerra del comprador de cámaras hogareñas. Pero vale la pena repetirlo porque la industria sigue promocionando una especificación hoy inútil y oculta otra mucho más importante. A menos que la cámara sea para uso profesional, aquella que se elija, aunque sea usada y tenga 5 megapíxeles, posee la suficiente calidad para imprimir copias a un tamaño más que razonable. Porque lo que determina la calidad de la imagen es el tamaño del sensor de imagen (lo dicta el tamaño del lente), que en definitiva, logra que las capturas tengan menos ruido y es capaz de realizar tomas en ambientes oscuros.
Cantidad versus productividad
Con el ascenso en el hogar de los sistemas multimedia, los parlantes se convirtieron en los portavoces de esta nueva generación digital. Pero no siempre cantidad es sinónimo de alta fidelidad. Antes de salir a comprar un nuevo juego de bafles es importante tener en claro el uso para el que se los va a reservar.
Como informa Damián Argañaraz, representante de AudioMundo, “si vas a escuchar música desde la computadora, lo ideal es optar por los llamados 2.0 o 2.1 que son dos parlantes y un subwoofer. Para ver películas desde el DVD y aprovechar el sonido envolvente, lo apropiado es un 5.1. Pero si tenés un Blu-ray, lo recomendable son los 7.1”.
Tampoco hay que enredarse en el mito del tamaño: “si el ambiente es pequeño se pueden encontrar cajas de 9 por 9 centímetros de buena calidad. Y si la decoración no es un factor capital, los exigentes pueden armar dos torres de sonido”.
Diseño o rapidez
Si un MP4 es para escuchar música mientras se practica deportes o al regreso del trabajo, lo elemental en este caso es que el pasaje musical entre la PC y el dispositivo sea simple y directo; algo que se resuma en arrastrar y soltar. El caso paradigmático son los iPod de Apple, que son casi perfectos desde la estética pero que requieren un nivel de aprendizaje para poder sincronizarlos con la computadora. El problema es que fueron concebidos para otros mercados, donde los temas no se traspasan desde la máquina sino que se compran a través de la tienda iTunes.
Mejor servicio que marca
Las notebooks y netbooks esconden un secreto que no figura en la letra chica. La diferencia primordial yace en el servicio postventa, que incluye soporte técnico, aplicación de garantía, cursos. Y si bien nadie se compra una laptop pensando que se le va a romper, los accidentes son más frecuentes de lo que uno supone y una respuesta eficaz es más que importante. Así, conviene poner el ojo más en el servicio postventa y no tanto en la marca. Después de todo, lo que hace la diferencia son las piezas internas. La marca coloca el ensamblado, que no es poco, pero tampoco eso casi nunca es vital.
Por Marcelo Bellucci