jueves, 29 de julio de 2010

Hacker australiano libera virus a nivel mundial

Un joven de Adelaide se ha declarado culpable de desatar un virus para capturar detalles bancarios de la gente que resultaba infectada a nivel mundial.



Al parecer Anthony Scott Harrison, de 20 años, creó un virus que atacó 3.000 ordenadores con el fin de obtener detalles bancarios y de tarjetas de crédito. Harrison se declaró culpable de siete cargos ante la Corte Australiana del Distrito Sur el lunes, entre los que se encuentran modificación de información computerizada para causar daños y posesión de datos para cometer una agresión informática severa.



Harrison utilizó el virus para crear una botnet de 74.000 ordenadores alrededor del mundo y "tirar" webs internacionales. Con todo, los detalles no han trascendido demasiado durante el juicio por lo que habrá que esperar al 24 de septiembre, fecha en que se dictará sentencia.

Tecnología de Intel basada en la fotónica de silicio permitirá descargar película HD en un segundo

Hace algún tiempo ya que Intel viene trabajando en una tecnología de transferencia de datos que pueda reemplazar de manera inevitable al USB, el Firewire, o a quien se le ponga en frente.


El primer apronte a esta meta fue algo llamado “Light Peak“, un método bastante prometedor que utilizaba un chip propietario que convertía señales ópticas en datos eléctricos, los cuales viajaban a través de un cable óptico logrando velocidades de transferencia de hasta 10Gbps por lo bajo, ya que sería una tecnología fácil de desarrollar y maximizar, por lo que la promesa de 100Gbps por parte de Intel estaba sobre la mesa para un futuro.
Pero todo esto habría quedado en el olvido, puesto que en algo que es llamado “Silicon Photonics Link”, sería posible, de entrada, mover información a 50Gbps, esto es, cinco veces más rápido que Light Peak, y con la misma promesa de escalabilidad de su hermano menor.
¿Y qué tiene que ver el silicio y los fotones en todo esto? De manera simplista, es válido explicar que el método consiste en convertir datos electrónicos (ceros y unos) en fotones, los cuales se mueven a la velocidad de la luz (literalmente) a través de un hilo de fibra óptica, llegando al otro extremo a otro pedazo de silicio (fotodetectores), que los convierte nuevamente desde fotones a datos eléctricos, los cuales son comprensibles por la computadora.

A medida que nos acercamos a los 10Gbps, los cables de cobre se hacen inútiles para mover la información sin que ésta sea degradada, por lo que recurrir a los cables ópticos y haces de luz parece de ahora en adelante el paso necesario a tomar.
Cabe destacar además que la luz viajera puede dividirse en diferentes canales, los cuales al ser descodificados paralelamente permitirían llegar a una velocidad de transferencia de 1Tbps, logrando un desempeño que difícilmente podemos imaginar.
En sus pruebas, Intel aclama que funcionando durante 27 horas, el vínculo de 50Gbps tuvo un margen de error menor a 3^−15, número que suena bastante positivo considerando la cantidad de datos movidos y su velocidad.
¿El costo? Actualmente la tecnología vale $100 dólares por puerto, sin embargo, cuando en Intel se dediquen a hacerlo asequible podrían llegar a menos de un dólare por puerto, ya que según ellos materiales como el silicio y la fibra óptica están a la orden del día.
Finalmente, Intel nos deja un video explicativo acerca del funcionamiento de Sillicon Photonics Link, bastante interactivo y con buena música, a continuación:

miércoles, 28 de julio de 2010

LG amplía su gama de televisores plasma 3D con vistas a IFA



De las grandes marcas de electrónica, LG es la que más retraso lleva con sus televisores 3D. Su nueva gama Infinia LED la pudimos ver primero en Las Vegas y posteriormente en Barcelona hace unos meses, pero no será hasta la feria IFA de dentro de unas semanas cuando la compañía lance el grueso de su oferta de televisores preparados para las tres dimensiones.

Para hacernos una idea de lo que nos espera en el mercado de los televisores de plasma, la compañía ha mostrado en Corea sus nuevos modelos Infinia que hacen uso de dicha tecnología con sus nuevos paneles 3D con refresco de 600 Hz en las imágenes. Las nuevas pantallas de plasma de LG son la 50PX950 con 50 pulgadas y su hermana mayor con 60.

Como los recientes modelos de Panasonic, el contraste y profundidad de los negros se ve reforzado por nuevos avances, que en el caso de LG han quedado bautizados como True Black Filter, al tiempo que se mejora su conectividad dándole compatibilidad DLNA y WiFi para disponer de contenidos online además de los que tengamos en nuestra red personal en casa.

Los precios se situarán entre los 2.000 y 3.500 euros al cambio, aunque lo confirmaremos cuando acudamos personalmente a Berlín en unas semanas.

Motorola podría tener preparada una tablet Android 3.0 para noviembre


No será ninguna sorpresa encontrarnos con una tablet Motorola con sistema operativo Android antes de terminar el año, la relación entre el sistema operativo de Google y la firma americana pasa un momento excelente, y resultaría hasta natural que se atreviera a dar algunas pulgadas más a sus teléfonos.

La fuente de la noticia es Ashok Kumar, un analista que ya lleva tiempo detrás del tema de la tablet BlackBerry, y parece que los principales medios americanos tienen depositadas sus confianzas en él, por lo que deberíamos prestarle un poco de atención. El analista dice conocer a gente relacionada con el proyecto, del que le han proporcionado algunas informaciones.

Anunciate aquí
Click here to find out more!

Para dar más fuerza al rumor, debemos recordar que en mayo, Sanjay Jha, CEO de la compañía, informó que pensaban en tablets como dispositivos de acompañamiento al teléfono, encargados de servir la conectividad. Por otra parte, la operadora Verizon y Google, importantes socios de Motorola, preparan una tablet de 10.1 pulgadas para navidades, y alguien tendrá que fabricarla.
Cómo podría ser la tablet Motorola

La tablet tendría una pantalla de 10.1 pulgadas y saldría al mercado en el mes de noviembre, saltando directamente a la versión 3.0 de Android (Gingerbread). No hay más detalles de esta “Droid/Moto-tablet” más que acompañará en su camino a Samsung, LG o Asus en el desarrollo de tablets Android para finales de año.

Teniendo en cuenta que sus últimos teléfonos cuentan con chipsets Texas Instruments OMAP a 1GHz y procesadores gráficos avanzados, es lógico que la tablet estuviera al menos en ese nivel, en lo que respecta a la resolución, no creo que 10.1 pulgadas bajen de 1024×768 píxeles. Hablaríamos por lo tanto de un dispositivo algo más grande que un iPad y de una potencia similar o algo superior. En el caso particular de Samsung ha decidido estirar sus teléfonos en pulgadas, es posible que sea la misma dirección elegida por Motorola.

Es fácil pensar que con las empresas citadas, el año próximo Android también tenga un buen pedazo del pastel del mercado de las tablets, siempre con el iPad como referente, ya que Apple fue muy inteligente golpeando primero. Algo muy importante para el desarrollo es que Google habilite el soporte a Android Market en estos dispositivos que mayoritariamente carecen de capacidades telefónicas.

martes, 27 de julio de 2010

Por qué ahora podemos utilizar internet en los aviones

Desde el 14 de julio es legal utilizar internet a bordo de un avión en España. El gobierno lo permite, aunque los aviones no están preparados. Pero la tecnología ya funciona perfectamente en otros países, como en Estados Unidos. Se acabaron los miedos y los peligros, si alguna vez estuvieron fundados.El ejemplo más claro es Gogo Inflight Internet, la primera compañía estadounidense en ofrecer este servicio. Ocho compañías aéreas son parte de esta red, entre ellas las gigantes Delta Airlines y US Airways, que ofrecen esta función sólo en determinados vuelos. El funcionamiento es semejante al de otras redes abiertas de pago por paquetes de tierra firme. El usuario se conecta al punto de acceso mediante su tarjeta de red y, al abrir su navegador, es redirigido al sitio de pago.



Sin embargo, hay dos que han ido más allá: AirTran Airways y Virgin Airways. Virgin ha sido una pionera en la conexión a Internet desde los aviones. A finales de 2008 ofreció el primer vuelo con velocidad de conexión de 1mega, servido a través de la línea 3G. A día de hoy es el estándar ofrecido en todos los servicios.



Un sistema sencillo



Es la razón por la que esta tecnología por el momento sólo funciona en vuelos continentales. La propietaria de Gogo, Aircell, ha colocado torres de comunicación a lo largo del país que emiten la señal a los receptores situados en los aviones: una antena GPS en la parte superior y dos ATG en la panza. De este modo se evita tener que emplear conexiones vía satélite, con un tiempo de respuesta mucho más lento. Después, la señal general es de nuevo enrutada desde el avión a los dispositivos WiFi de cada usuario.



La navegación desde los aviones está tan normalizada que ya están prácticamente todos los servicios disponibles. Desde la consulta del correo y la visita de páginas de noticias a redes sociales, incluido YouTube. Pero hay una restricción, los programas de compartir datos y de streaming, que han sido capados para evitar la saturación de la línea. Eso sí, se han dejado algunas excepciones comerciales. Al fin y al cabo, los aviones disponen de sus propios socios para ofrecer contenido audiovisual en vuelo.



Pasajeros conectados



Las tabletas y los smartphones han llegado para quedarse, y su continua conexión a Internet fuerza esta apertura de los aviones a la red. Estar conectado en la terminal es una tendencia cada más seguida y queda bruscamente interrumpida al embarcar. En pleno vuelo quizá el escaso hueco que dejan los aviones fuese el mayor inconveniente para sacar un portátil y ponerse a navegar, pero es más que de sobra para estos nuevos dispositivos.



Lufthansa ha tratado de dar un giro a los tiempos de espera en los aeropuertos y ha pensado en hacer de él un momento social. Han lanzado una aplicación para iPhone, que también estará pronto en Blackberry, que permite a los pasajeros saber quién más está en ese momento conectado y dónde. Y una vez creado el vínculo, invita a compartir un taxi.



Internet está en todas partes y en pleno vuelo, uno de los momentos más pacíficos de la jornada, tampoco podía faltar. El entretenimiento, el trabajo o la rutina, todo se puede llevar en el equipaje de mano. Y confirmado que el mecanismo es prácticamente el mismo que en tierra firma, su extensión por todo el mundo debería ser cuestión de tiempo.

Intel colabora en el desarrollo de la electricidad sin cables






Intel, además de vender procesadores y otros productos de tecnología, también está involucrado en el desarrollo de nuevas tecnologías, de hecho, en este momento se encuentra trabajando en la tecnología WREL, o “Wireless Resonant Energy Link” (que español es: Enlace inalámbrico de energía por resonancia), que permitirá lograr uno de los sueños de la modernidad, la energía eléctrica sin cables.

Los avances, presentados en el Intel Research Day 2010, permiten transmitir energía eléctrica sin necesidad de usar cables. Para lograr esto, la corriente eléctrica se envía por medio de una espiral que produce un campo magnético transmitido a una frecuencia específica, misma que es recibida por otra espiral receptora, transmitiendo la energía al aparato que lo necesite. En otras palabras, la idea sería enchufar una antena especial al enchufe de corriente, misma que transmitirá la electricidad mediante una frecuencia, misma que será captada por una antena receptora adaptada al aparato o gadget que requiera de corriente.

Esto por supuesto, está aún muy lejos de implementarse para su uso doméstico o comercial, sin embargo, esta investigación de la que Intel es partícipe, es un gran avance tecnológico, que esperemos muy pronto se traduzca en algo utilizable por todos.Intel mostró por primera vez en el Intel Developer Forum (IDF) del 2008 la tecnología WREL en funcionamiento. Justin Rattner, Senior Fellow y Director de Tecnología de Intel, mostró un foco de 60 W encendido sin cables conectados a la toma de la corriente eléctrica. También demostró cómo la tecnología WREL puede alimentar una laptop sin batería o hacer que un altavoz funcione sin necesidad de usar cables.

Ahora en el Intel Research Day, celebrado en Mountain View, California, los investigadores de Intel Labs Seattle mostraron que ahora pueden mover un receptor dentro del “área mágica” (es decir, 70 cm alrededor del emisor WREL) gracias a un algoritmo especial de seguimiento que asegura un nivel de alimentación de energía constante. Además, el receptor ya no necesita estar alineado en paralelo al emisor. En otras palabras, el rango de cobertura de la transmisión de la electricidad inalámbrica ha aumentado, facilitando así su uso, algo así como lo que sucedió con la evolución del infrarrojo (en la que había que apuntar o estar en paralelo) al Bluetooth (conexión inalámbrica funciona sin que los aparatos tengan que estar uno frente al otro). Los algoritmos de autoajuste adaptativos ahora le permiten a las espirales emisora y receptora permanecer en un ángulo de hasta 70 grados, mientras que la eficiencia de la transmisión se mantiene estable en un 70 por ciento.

Existe un amplio espectro de aplicaciones potenciales para la tecnología WREL. Por ejemplo, emisores WREL integrados a mesas podrían cargar automáticamente dispositivos móviles como teléfonos y laptops. Por lo que se podría tener una mesa en la casa o en la oficina en donde los aparatos estén continuamente conectados o cargándose.

También esta tecnología podría tener usos en otros ámbitos de la tecnología, como en la medicina, en donde los marcapasos podrían obtener su energía por medio de WREL y, por lo tanto, volver los cables subcutáneos obsoletos. Controles remotos, auriculares, teclados y mouse son dispositivos que también se beneficiarían de la alimentación eléctrica inalámbrica.

Vivimos en un mundo en donde hay internet inalámbrico, transmisión no sólo de datos sino de audio y video, todo sin cables, el único cordón umbilical que nos hace falta cortar, es el del cable eléctrico, tecnología como la de WREL podría liberarnos por fin de los cables, creando una experiencia de uso más ágil y cómoda para todos.

lunes, 26 de julio de 2010

India anuncia el portátil de 25 euros

El ministro indio de Recursos Humanos, Kapil Sibal, anunció en una conferencia de prensa que su departamento ha comenzado a hablar confabricantes para producir en masa un ordenadorque costaría en principio unos 1.500 rupias, alrededor de 25 euros.



"La placa base, el chip, la conectividad, los procesadores, todo los componentes costarán 1.500 rupias, incluyendo la memoria, la pantalla, todo", especificó el ministro.



El ordenador, del tamaño de un iPad, lleva pantalla táctil, lector PDF, preinstalación para videoconferencias, wifi, puerto USB, 2 GB de memoria RAM, y una batería de 2 watios, pensada para lo lugares con deficiente servicio eléctrico.



El portátil es fruto de años de trabajo de la red de institutos de tecnología del país, que han ido desarrollando los distintos componentes del portátil.



El ministro anunció que el ordenador se empezará a introducir en 2011 en los institutos tecnológicos y otros centros universitarios, y que luego espera que el precio del aparato baje a los 15 euros para acabar finalmente por debajo de los diez euros con lo que se podrán introducir en todos los colegios. En la presentación del ministro, sin embargo, no se enseñó ninguna imagen de cómo sería el ordenador.Los institutos indios de tecnología (ITT), donde se han desarrollado las piezas, están considerados los mejoresdel mundo en su especialidad.

Un grupo de estudiantes españoles, utiliza componentes de medusas para fabricar TV


Lo que estais viendo!!, un grupo de estudiantes de la Universidad Politecnica de Valencia, ha experimentado con medusas para fabricar televisiones con una resolucion y definicion impresionantes.
Al parecer las medusas contienen unas celulas con propiedades luminiscententes, las cuales han estudiado y practicado estos universitarios, que plasmandola en la fabricacion de la pantalla de un televisor, se consigo una alta definicion y con bastante claridad.
Además, están creando el instrumental necesario para obtener impulsos, tanto eléctricos como químicos, con tecnologías tan diversas como la salida de sonido de los altavoces de un ordenador, la conversión de impresoras estándar en impresoras celulares e inyectores de motores de combustión.
Una noticia en el dia de hoy bastante sorprendente por lo menos para mi, como la naturaleza no solo nos sorprende sino que nos ofrece componentes para mejorar y avanzar en el mundo de la electronica.
Como bien a redactado uno de los universitarios… “La cuestión esta en la definición“… y que razon tiene!!

viernes, 23 de julio de 2010

Crean el primer dispositivo de realidad virtual tangible

HUVR es un dispositivo creado por ingenieros y especialistas de la Universidad de California en San Diego, que permite dar un paso adelante en cuanto a las experiencias tradicionales de realidad virtual. Es que la máquina desarrolla una imagen que puede ser tocada por los usuarios como si se tratara de un objeto real, además de obtener estos resultados con un bajo costo de producción.



El dispositivo HUVR combina un panel en 3D de alta definición, un espejo semiplateado y un controlador sensible al tacto, permitiendo a los usuarios literalmente "tocar" una imagen generada como si fuera un objeto plástico convencional, con las tres dimensiones del mundo físico que conocemos.



Los investigadores de la Universidad de California en San Diego resaltan especialmente que este nuevo dispositivo de realidad virtual posee un costo relativamente bajo de producción, lo que permitirá su desarrollo para aplicaciones en distintos campos. Así lo afirman en una nota de prensa difundida por esta casa de estudios.



El avance, que también mereció un reciente artículo en el medio especializado Physorg.com, facilita a los usuarios el reconocimiento táctil de los ángulos y los contornos de la imagen creada, como si fuera cualquier tipo de objeto tridimensional con presencia física real.



Aplicaciones en diversas áreas



Entre las principales aplicaciones que podrá tener HUVR, destacan las tareas que requieren coordinación visual-manual, adaptándose perfectamente a la formación y educación en ingeniería estructural y mecánica, arqueología y medicina, entre otros campos que necesitan especialmente de esta clase de coordinación.



El dispositivo podría ser utilizado, por ejemplo, para visualizar y manipular una imagen en 3D del cerebro de una persona tomada a través de una resonancia magnética. En el mismo sentido, se podría aplicar en el manejo o estudio de artefactos muy frágiles o valiosos, cuya manipulación física puede llegar a resultar peligrosa.



Según explican los ingenieros responsables de este avance, mediante el uso de dispositivos HUVR un médico podría realmente sentir un defecto en el cerebro, en lugar de limitarse a verlo. Lógicamente, las implicancias en este punto resultan realmente inimaginables en cuanto a los cambios que podría suscitar en este tipo de actividades.



La investigación fue desarrollada por especialistas de la Universidad de California en San Diego, con la colaboración de expertos del California Institute for Telecommunications and Information Technology (Calit2). Tom DeFanti y Greg Dawe son los principales responsables del trabajo.



Portátil y económico



Según los científicos e ingenieros, esta aplicación podría evolucionar en gran medida gracias al trabajo en redes, a través del intercambio de la apariencia del objeto creado con otros investigadores y estudiantes. El dispositivo HUVR es una evolución del sistema PARIS, desarrollado hace 12 años por DeFanti, Dawe y sus colegas y estudiantes en el Laboratorio de Visualización Electrónica de la Universidad de Illinois, Chicago.



PARIS utilizaba una tecnología de proyección similar a HUVR, pero obtenía imágenes de baja resolución, además de tratarse de un dispositivo demasiado grande para moverse y con un elevado costo de producción. Es así que HUVR logra un importante avance en todos los puntos negativos que tenía PARIS.



Construido a partir de un aparato de televisión 3D que puede hallarse en cualquier tienda electrónica especializada y que tiene un valor de 2.300 dólares, HUVR ofrece un mejor brillo, contraste y agudeza visual que PARIS, aumentando la satisfacción del usuario en este tipo de experiencias.



HUVR es más ligero, portátil e insume un costo total de 7.000 dólares, cuando en su momento los aparatos desarrollados en el proyecto PARIS suponían una inversión de 100.000 dólares. El siguiente paso en la evolución del sistema HUVR es crear una opción aún más barata, que pueda adaptarse a un dispositivo de sobremesa.

GPUs: Unidades de procesamiento gráfico para salvar vidas

No solo sirvenfrente al monitor por las gráficas relucientes del último juego estrenado y la inmersión que éste provoca, sino que existe un uso algo desconocido para el común de los mortales, el disminuir la cantidad de radiación que reciben los pacientes con tratamiento por cáncer.
Un chiste cruel para aquellos que se encuentran en tratamiento por cáncer el darse cuenta que lo mismo que les está salvando la vida, el tratamiento Image-guided radiation therapy (IGRT) o radioterapia por imagen guiada, no logra minimizar del todo el efecto de aquella radiación a tejidos contiguos sanos, lo que conlleva riesgos de contraer cáncer en esos tejidos.
La IGRT consiste en decenas y hasta cientos de escaneos del tipo cone beam computed tomography (CBCT) o tomografía computarizada de haz de cono.
La nueva técnica para procesar estos rayos X disminuiría la radiación a la que los pacientes son sometidos durante el CBCT en un factor de 10 mediante el desarrollo de un algoritmo de reconstrucción para el “haz de cono” en cosa de minutos, y para ello utilizan el poderoso potencial de la GPU, de forma de mejorar la eficiencia para analizar el haz y reducirlo de 360 “muestreos” por escáner a 20-40 “muestreos”, resultando en 36 a 72 veces menor exposición para el paciente durante el CBCT.
Steve Jiang, autor del método explica:
“Lo más interesante de esta técnica va más allá del tratamiento de cáncer por radioterapia, por cada año de uso de la tecnología de escáner, los canceres resultantes podrían provocar hasta 14.500 muertes. Nuestro objetivo es extender este método al diagnóstico general en donde se utiliza este instrumento, podría proveer una solución única al problema reduciendo la dosis que entrega el “cono” en cada escaneo.”

jueves, 22 de julio de 2010

Nikon lanzaría una nueva cámara con picoproyector y entrada de vídeo


Si algo tienen en común las compañías japonesas, es que el mercado tiene que molerlas a palos hasta que se dan por vencidas con algo. Este es el caso de Nikon, que a pesar de que de su cámara Coolpix S1000pj (arriba) dista de ser una superventas, piensa volver a probar suerte con un nuevo modelo con picoproyector integrado.

La noticia la trae la revista francesa Chasseur d'Images, por regla general bien informada, según la cual, este nuevo modelo tratará de encontrar el éxito que se le escapó a la S1000pj incorporando una entrada de vídeo, de forma que también podrá ser utilizada para mostrar películas y fotos desde un PC. Por supuesto, habrá que ver el precio. Nikon Rumors pone su lanzamiento en la primera mitad de agosto, así que tendremos que seguir esperando un poco más hasta ver qué se les ocurre para promocionarla.

Forcetek's Xio: Brazos robot para videojuegos

Hay que admitir que el brazo robótico de Forcetek, para jugar videojuegos, es muy interesante en concepto. Pero con la competencia que tiene al lado realmente nos cuesta ver un futuro feliz en esa tecnología. El sistema básicamente funciona con dos brazos metálicos que se coloca el usuario y puede utilizar para jugar videojuegos. Eso sí, Xio no ofrece la misma fidelidad de movimiento en tiempo real que Move y Kinect, pero es otro tipo de interfaz.

La última E3 ha demostrado que estamos en la víspera de una enorme batalla por ver quién tiene el mejor control de movimiento. Nintendo ya ofrece su Wii hace tiempo y de a poco la va mejorando, pero no podremos ver los nuevos productos de Microsoft y Sony hasta fin de año cuando salgan respectivamente, Kinect y Move. Sin embargo, estas tres súper potencias no son las únicas combatiendo, sino que Forcetek tiene un control propio, muy diferente, que intenta también darle a los jugadores una experiencia más inmersiva.

Muy diferente a los productos de las otras empresas que intentan ser minimalistas o, en el caso de Microsoft, deshacerse de todo, Xio de Forcetek tiene un enorme control que se coloca en los brazos. Dependiendo de la posición de los codos y las muñecas, el juego responde. Sin dudas no es tan elegante o económico como los otros, pero hay que admitir que como buenos geeks, el diseño es muy atrayente y nos recuerda mucho a varias películas.



El control estuvo presente en la E3 y, más allá de algunos problemas por las conexiones WiFi, parecía funcionar muy bien. Será compatible tanto con PlayStation 3 como con Xbox 360 y mientras que no ofrecerá fidelidad de movimiento en tiempo real, parece una decente interfaz para jugar FPS y juegos de carrera. Además de responder a tus movimientos, el sistema responde a lo que está pasando en el juego con vibraciones, no muy diferentes a las que puede hacer un control de una consola. Lo único que esperamos es que no utilice la misma cantidad de baterías.

Ahora bien, la gran pregunta es si esta interfaz tiene alguna oportunidad contra las de otras empresas más poderosas. Sin dudas tiene un punto a favor, ya que es compatible con las consolas de Sony y Microsoft, pero más allá de eso parece un control menos confiable, más limitado y más caro que los demás. A simple viste no parecería negocio de ninguna manera, pero habrá que esperar que anuncien el precio final y la compatibilidad con los juegos para poder dar una opinión válida. Aún así, Forcetek ya hizo públicas sus intenciones de crear un exoesqueleto con la misma tecnología, algo simplemente ridículo.

miércoles, 21 de julio de 2010

TR10: Electrónica implantable

Implantada bajo la piel, una matriz de diodos emisores de luz podría señalizar la concentración en la sangre de marcadores biológicos tales como la insulina. Con el tiempo, la matriz se disolvería, eliminando la necesidad de llevar a cabo cirugía para extraer el implante. Los componentes electrónicos flexibles de silicio (en la imagen) se mantienen en su sitio gracias a una película de seda. La incorporación de anticuerpos o enzimas en la película permitirá que los dispositivos detecten biomarcadores.


La próxima generación de dispositivos médicos implantables se basará en un materiales de alta tecnología forjados no en fundiciones, sino en el vientre de un gusano. El ingeniero biomédico de la Universidad Tufts Fiorenzo Omenetto está usando la seda como base para dispositivos implantables ópticos y electrónicos que actúen como una combinación entre un monitor de signos vitales, un análisis de sangre, un equipo de toma de imágenes y una farmacia—y que se descomponga con seguridad cuando deje de ser necesario.

La electrónica implantable podría proporcionar una imagen más clara de lo que está ocurriendo dentro del cuerpo y así ayudar a vigilar las enfermedades crónicas o el progreso después de una cirugía, aunque ciertas cuestiones de biocompatibilidad hasta ahora han restringido su uso. Muchos materiales utilizados en la electrónica provocan reacciones inmunes cuando se implantan en el cuerpo. Y en la mayoría de los casos los dispositivos implantables actuales deben ser reemplazados o extirpados quirúrgicamente en algún momento, por lo que sólo vale la pena utilizar implantes para dispositivos de importancia crítica como los marcapasos. La seda, sin embargo, es biodegradable y suave; transmite la luz como el cristal óptico; y aunque no se puede convertir en un transistor o un cable eléctrico, sí puede servir como soporte mecánico de matrices de dispositivos activos eléctricamente, lo que les permite ser colocados encima de los tejidos biológicos, sin causar irritación. Dependiendo de cómo se procese, se puede hacer que la seda se descomponga en el interior del cuerpo casi al instante o que persista durante años. Además, puede ser utilizada para almacenar moléculas delicadas tales como las enzimas durante mucho tiempo.

Omenetto empezó a trabajar con la seda hace tres años, cuando David Kaplan, un ingeniero biomédico al otro lado del pasillo, le pidió ayuda para convertir el material en andamios complejos que sirviesen para el cultivo de nuevos tejidos. El proceso consiste en hervir capullos de seda y purificar la solución resultante para crear el ingrediente principal, una solución a base de agua de la proteína de la seda, llamada fibroína. Esta solución puede ser vertida en moldes para crear estructuras de características con hasta 10 nanómetros de ancho. Omenetto la ha moldeado en una amplia variedad de dispositivos ópticos, tales como lentes, espejos, prismas y fibras ópticas, los cuales podrían ser utilizados para dirigir la luz hacia y desde biosensores implantados en el cuerpo. Si se mezclan anticuerpos o enzimas en la solución de seda antes del moldeo, se obtiene como resultados unos dispositivos que algún día podrían utilizarse para detectar bajas concentraciones de casi cualquier molécula biológica, desde la glucosa a marcadores tumorales.

En colaboración con Kaplan y el científico de materiales John Rogers de la Universidad de Illinois en Urbana-Champaign, Omenetto ha producido implantes que combinan la seda con componentes electrónicos de silicio flexibles. Por ejemplo, el grupo ha utilizado películas de seda para mantener en su lugar matrices de diminutos transistores de silicio y LEDs—una posible base para un tipo de dispositivos implantables que ayuden a identificar la concentración de marcadores de enfermedades. Los investigadores han demostrado que los dispositivos funcionan bien en pequeños animales, sin evidencias de cicatrización o respuesta inmune. La seda se disuelve, dejando tras de sí una pequeña cantidad de silicio y otros materiales utilizados en los circuitos.

Otro dispositivo utiliza la seda como sustrato para un electrodo metálico de malla diseñado para reemplazar los electrodos con forma de punta que se usan en la superficie del cerebro para diagnosticar y tratar enfermedades tales como la epilepsia. Cuando se le aplica una solución salina, la seda envuelve la malla alrededor de la superficie del cerebro (incluso metiéndose en los pliegues), ayudando a que los electrodos midan la actividad neuronal con mayor precisión. Los electrodos de seda probablemente sean el primer dispositivo del grupo que se ponga a prueba en seres humanos, quizás en dos o tres años.

Omenetto ve otras posibilidades en el futuro: por ejemplo, la fibra óptica de seda podría transmitir la luz desde de un conjunto de LEDs hasta un sensor de seda implantado, el cual cambiaría de color para indicar que el cáncer ha vuelto a surgir en el cuerpor. El dispositivo podría liberar una dosis cuidadosamente calibrada de medicamentos. Una segunda fibra de seda podría transmitir esa información a la superficie de la piel del paciente, donde el resultado podría ser leído en un teléfono móvil. Todos los componentes para fabricar este tipo de dispositivos ya existen, afirma Omenetto. Una vez que las piezas se unen, un poco de seda podría ayudar a salvar vidas.

Toshiba Libretto W100: resurge la marca 'UMPC'


¿Un portátil con pantalla dual y de Toshiba? Oh, sí. La vida puede darte este tipo de sorpresas, sin duda. En plena celebración del 25 aniversario de la compañía dentro del mundo de los portátiles, los japoneses han querido engordar la marca Libretto con el W100. Un peculiar dispositivo que cuenta con dos pantallas táctiles de 7 pulgadas y 1.024 x 600 de resolución, movido por un procesador Intel Pentium a 1,2 GHz.

El equipo cuenta, además, con 2 GB de memoria, 64 GB de SSD y corre Windows 7 Home Premium. Toshiba lo llama "concept PC" y espera traerlo al mercado por 1.099 dólares (884,91 euros al cambio) durante los próximos meses, en unidades limitadas. Te dejamos con unas fotos de este peculiar dispositivo.


martes, 20 de julio de 2010

Guerra de pantallas: AMOLED vs SuperAMOLED vs LCD (vídeo)

A estas alturas ya sabrás que el talón de Aquiles de la pantalla AMOLED es la lectura en condiciones de luz solar directa, y en este sentido, Samsung ha trabajado duro para solucionar este problema con su nueva tecnología Super AMOLED. La gente de Techblog, con todo, ha querido comparar el rendimiento de esta y otras pantallas, poniendo frente a frente al Samsung Galaxy S (4 pulgadas, 480 x 800 Super AMOLED), HTC Desire (3,7 pulgadas, 480 x 800 AMOLED) y el Sony Ericsson Xperia X10 (4 pulgadas, 480 x 854 LCD TFT).

En el vídeo que podrás ver tras el salto, comprobarás que la pantalla LCD es la que mejor supera la prueba del astro rey, mientras que la Super AMOLED muestra una visión mucho más nítida que la AMOLED. De hecho, las diferencias entre las pantallas Super AMOLED y LCD son apenas perceptibles, como puedes ver en la foto. Nos falta por ver en esta prueba (suponemos que será una cuestión de tiempo), la Pantalla Retina de la que tanto alardeó el bueno de Jobs. Te dejamos con el vídeo un poco más abajo.



Nokia X6, amor por la música



Teniendo la Nokia World a la vuelta de la esquina (recuerda que se celebra el 2 y 3 de septiembre en Stuttgart), no es de extrañar que los finlandeses estén ya mostrando parte del arsenal que presentará en el evento. De esta manera, junto al Nokia N97 Mini, han decidido también dar luz verde al nuevo X6, un terminal claramente orientado el disfrute audiovisual.

El terminal, que recuerda bastante a los diseños más recientes de LG, se presenta así con una generosa pantalla táctil de 3,2 pulgadas (en formato 16:9) y presumiendo de aguantar hasta 35 horas de reproducción continua de música. Ofrece además fácil acceso a la Ovi Tienda, al servicio Comes with music y a redes sociales sociales tipo Facebook. Su memoria interna también es reseñable: 32 GB de almacenamiento.

Disponible en el cuarto trimestre del año, el Nokia X96 saldrá a la venta por un precio de 450 euros (IVA no incluido), cifra que fácilmente podrá colocarse en unos 520 euros cuando comience su comercialización.

lunes, 19 de julio de 2010

Pantallas táctiles, flexibles y de gran resistencia gracias al grafeno impreso


El futuro de las pantallas táctiles pasa por el grafeno impreso, un material realizado por una lámina de carbono con un grosor de un sólo átomo nos traerá pantallas flexibles de gran resistencia, transparencia y con una conectividad eléctrica realmente buena.

Un grupo de investigadores de la Universidad de Sungkyunkwan en Corea y Samsung han logrado realizar una capa de grafeno del tamaño de una televisión de 24 pulgadas, más concretamente se trata de una lámina de 63 centímetros fabricada con la ayuda de una lámina de poliéster.

Actualmente para crear este tipo de pantallas se usan el óxido de estaño e indio, un material que resulta frágil además de ser demasiado caro. Con la llegada del grafeno fabricado sobre hojas de poliéster flexible abre una nueva ventana para realizar pantallas de gran resistencia, que serían más baratas de fabricar.

Los investigadores señalan que todavía es pronto para la llegada al mercado de pantallas realizadas con esta tecnología, principalmente debido a que la fabricación actual se basa en procesos muy diferentes usando óxido de indio y será el propio mercado el que haga llegar la fabricación con grafeno impreso cuando haya una mayor necesidad de pantallas más flexibles, transparentes y duraderas.

Algo que tarde o temprano tendrá que llegar al mercado donde poco a poco habrá cada vez más una necesidad de este tipo de pantallas y que sin duda será de gran utilidad para las pantallas de los smartphones, netbooks y en general cualquier tipo de producto que quiera implementar las funcionalidades táctiles.

Justin: Un mecánico espacial robótico

Con el transbordador espacial prácticamente fuera de juego y sin un reemplazante natural indiscutido a la vista, el Instituto de Robótica y Mecatrónica del Centro Aeroespacial Alemán intenta que Justin sea el encargado de atrapar satélites en órbita para repararlos o enviarlos a la atmósfera terrestre para su destrucción final. En realidad, Justin no es un robot autónomo, sino que funciona como la extensión mecatrónica de un operador remoto. Pero, ¿puede un cacharro como este realizar estas tareas, o solo se trata de algo bonito pero poco realista?

En los próximos años, el negocio de la reparación de satélites artificiales en órbita puede quedar en manos de un robot. Cuando uno de estos artefactos sufre algún desperfecto, por lo general se evalúa el tipo de falla que ha tenido lugar y se decide si es viable repararlo o si simplemente se lo hace caer para que se queme en el reingreso a la atmósfera. Las reparaciones han estado durante años a cargo del transbordador espacial, un vehículo ideal para ir al espacio, cargar el satélite en problemas en su bodega y -si no es posible efectuar la tarea en órbita- devolverlo a Tierra para ser reparado. Pero como hemos visto, la “era del transbordador” está llegando a su fin y a pesar de los planes y anuncios de todo tipo que la NASA nos da a conocer periódicamente, no es seguro que en un futuro cercano tengamos a disposición algo parecido. ¿Cómo haremos para reparar los satélites en problemas?



Una de las alternativas parece ser Justin. Se trata de un dispositivo con apariencia humanoide -posee cabeza, tronco, brazos, etc.- capaz de realizar movimientos sorprendentemente suaves y precisos. Justin no es un robot convencional, al menos no es un cacharro autónomo que pueda ir por ahí por las suyas. Se trata de la “extensión mecatrónica” de un operador humano, es decir, un mecanismo que puede “copiar” los movimientos que realiza la persona encargada de manejarlo. Este tipo de aparato, similar al prototipo Robonaut de la NASA, es ideal para realizar tareas en ambientes que son peligrosos para el hombre. Un artefacto como este puede trabajar en el núcleo de un reactor nuclear, en un sitio contaminado con algún agente químico o biológico, o en el espacio, mientras que un operador remoto controla sus movimientos y “ve” lo que sus cámaras están enfocando.



El operador de turno mantiene un lazo realmente fuerte con Justin. Además de ver en sus gafas de realidad virtual las imágenes que recogen las cámaras montadas en la cabeza del muñeco, también “siente” la resistencia que oponen los objetos que este manipula. Si hace que la mano de Justin recoja una herramienta y la levante, el dispositivo de control se opondrá a los movimientos del operador con una fuerza de intensidad similar a la que sentiría si realmente estuviese utilizando esa herramienta. Esto hace que con poco tiempo de entrenamiento un técnico pueda efectuar trabajos a través de Justin casi con la misma precisión que si utilizase sus manos. Mientras que el humano se encuentra cómodamente instalado en un sitio seguro, Justin puede hacer el trabajo en un sitio tan hostil como el espacio.

Justin ha sido desarrollado en el Instituto de Robótica y Mecatrónica en el DLR -el Centro Aeroespacial Alemán- y al igual que otros artefactos similares, ha atravesado un número importante de versiones hasta llegar a la actual. La última reencarnación disponible de Justin ha sido exhibida en el Pabellón del Espacio de ILA 2010 el Berlin Airshow, donde se realizó el primer vídeo de este artículo.



Sus creadores creen que pueden montar el cuerpo lleno de sensores y motores de Justin a bordo de un satélite propio, y enviarlo al espacio para hacer reparaciones. Sería una especie de torso autopropulsado -sus piernas resultarían completamente inútiles en el espacio- dirigido mediante telepresencia por un ingeniero instalado en la Tierra. Si el plan se concreta, Justin podrá perseguir y anclarse a los satélites en problemas, para intercambiar piezas o -en el peor de los casos- enviar los que resulten irreparables fuera de la órbita. ¿Lograrán este objetivo los creadores de Justin? No parece muy probable. A pesar de que el concepto es muy bueno, y que el cacharro se mueve con una soltura impresionante, lo cierto es que para reparar un satélite en órbita hacen falta una serie de elementos que posiblemente se encuentren fuera de sus posibilidades. En primer lugar, los satélites artificiales no son todos iguales. De hecho, cada uno es concebido y fabricado para una tarea específica, por lo que necesita repuestos específicos. Con decenas de miles de artefactos diferentes en órbita, Justin necesitaría arrastar varias toneladas de repuestos para poder hacer su trabajo. En segundo lugar, y a pesar de lo bien que suene, poner o sacar un pequeño tornillo o soldar un componente electrónico de montaje superficial a través de un mecanismo de este tipo es casi tan difícil como hacer el pino con las dos muñecas fracturadas.

Seguramente Justin podría servir como reemplazo para muchas de las “caminatas espaciales”, evitando que los astronautas de carne y hueso tengan que salir de su nave para recoger un satélite o para hacer algún ajuste simple, pero no mucho más que eso. Esto no significa que sea un artefacto inútil. En absoluto. Decenas de actividades peligrosas en los laboratorios de la Tierra podrían ser realizadas a través suyo y, de hecho, esta seguramente será una de las aplicaciones más importantes de este robot. Y si todo falla, siempre podrá dedicarse al baile (mira al final del tercer vídeo).

viernes, 16 de julio de 2010

IBM podría estar preparando la vuelta de OS/2

IBM desarrolló OS/2 como sistema operativo en modo texto, en 1993 Microsoft comenzó a separarse del proyecto con su MS-DOS y posteriores versiones de Microsoft Windows, sin embargo IBM continuó su desarrollo hasta la versión 4.52, año 2005, dejando de ofrecer soporte el año siguiente.

Varias fuentes cercanas a IBM han afirmado que la compañía ha vuelto a trabajar en OS/2 y que podrían volver a lanzarlo al mercado con base Linux.

IBM ni ha confirmado ni desmentido dicha información, pero tiene bastante sentido que IBM quiera volver a entrar en un mercado dominado por Windows, Mac OS y algunas distribuciones GNU/Linux. Si hablamos de que IBM ofrecería otra alternativa con base Linux y con un servicio de soporte es posible que acaparase parte del mercado, en su mayoría profesional.

HTML5Rocks: El sitio de Google sobre HTML5

Hace poco tiempo la gente de Apple presentó en su sitio oficial una demostración de lo que se puede lograr utilizando de forma exclusiva a HTML5. La prueba de que HTML5 tiene un enorme potencial en materia de desarrollo fue muy clara, salvo por el detalle de que sólo funcionaba en el navegador Safari. Ahora Google, el otro gran defensor de HTML5, lanzó un sitio especial llamado HTML5Rocks, en donde se podrá ver muy de cerca cómo está evolucionando el lenguaje de hipertexto en varios de sus aspectos principales... siempre y cuando se utilice un navegador compatible.

Puede que algunos no estén de acuerdo con esto, pero hasta ahora lo único que ha logrado HTML5 es dividir más profundamente a los navegadores web, en vez de hacerlos más compatibles entre sí. La forma de utilizar e interpretar a HTML5 que tiene cada empresa es diferente, por lo que de una forma u otra se pueden seguir detectando intereses propios por encima de la adopción definitiva del estándar. El alineamiento de Apple con HTML5 está directamente asociado con la pelea que la gente de Cupertino mantiene con Adobe y su producto Flash. Por el lado de Mountain View, HTML5 se ha convertido en una necesidad imperiosa para hacer funcionar a su gran cantidad de aplicaciones en línea, algo que se verá de forma más tangible cuando Chrome OS salga al ruedo. El delicado tema del códec para la distribución de vídeo por HTML5 aún no ha sido resuelto, y actualmente tiene dos frentes: Google con su WebM (más la adopción planeada de Mozilla de este códec), y tanto Apple como Microsoft con H.264. En cuanto al resto de las diferencias, sólo basta ver una misma demo de HTML5 en todos los navegadores, para exponerlas a la luz.


Recientemente, Apple publicó unas demos basadas en HTML5. Aunque algunas de las pruebas podían ser ejecutadas en Chrome, la idea detrás de la demostración era verlas sobre el navegador Safari, tanto en su versión de escritorio como en la versión móvil. En lo que parece ser un intento por contrarrestar esta percepción de Apple sobre HTML5, Google creó un sitio exclusivo llamado HTML5Rocks. Allí es posible encontrar una presentación interactiva que muestra muchos de los avances en el desarrollo del lenguaje, una sección con tutoriales para quienes desean comenzar a explorar a HTML5, e incluso una caja de arena para que los desarrolladores puedan probar su propio código en varios API disponibles.

Como detalle adicional, podemos decir que la presentación en HTML5Rocks es un poco más compatible que otras demos. Funciona de manera superior bajo Chrome, pero también puede ejecutarse en Safari, e incluso algunas de sus secciones pueden ser exploradas en Firefox, aunque hay que tener cuidado ya que ciertos scripts pueden provocar un cuelgue del navegador (algo que casi nos sucedió). Al mismo tiempo, no podemos negar que el sitio tendrá poco valor para el usuario común. No habrá mucho para quien desea ver un HTML5 funcional y completo, sin inmiscuirse en el campo del desarrollo, pero los desarrolladores encontrarán material muy interesante allí.

jueves, 15 de julio de 2010

Nao Robots: Los robots bailarines

Si el mundo de Michael Jackson fuese real, donde el simple hecho de bailar puede vencer ejércitos, Aldebaran Robotics presentó máquinas asesinas y sedientas de sangre. Por suerte vivimos en un mundo más aburrido donde estos robots no son más que perfectos bailarines sincronizados entregando un regalo para la vista. Durante la Shanghai World Expo la compañía francesa mostró sus robots y la audiencia se quedó sin palabras.

La coreografía dura casi 10 minutos y es una compilación de música dividida en tres partes. Tal vez se diga muy seguido hoy en día, pero en verdad este vídeo es imperdible. Un grupo de 20 robots programables, creados por la empresa francesa Aldebaran Robotics, se subieron al escenario y bailaron con mucha delicadeza el Bolero de Ravel, entre otras. Estos Nao Robots existen desde principios de 2005, no pesan más de 50 kilogramos y miden cerca de 58 centímetros de alto.



En cuanto a las especificaciones técnicas, poseen un procesador x86 AMD Geode 500 Mhz, 2GB de memoria Flash, dos parlantes, capacidad de procesamiento de visión, conexión WiFi y hacen mucho más que caminar hacia atrás y adelante, como bien quedó demostrado en el vídeo. El robot Nao tiene 21 grados de movimiento, pero versiones más avanzadas (como las que usan en universidades) llegan a los 25. Sin embargo, todas las versiones incluyen sensores ultrasónicos que proveen estabilidad y posicionamiento.

Si por alguna razón te estás preguntando, estos robots cuestan €10,000 cada uno y no estarán disponibles al público hasta 2011. Entre alguno de sus tantos logros, en 2007 reemplazó al perro robótico Aibo de Sony en la RoboCup, el torneo de fútbol de robots que se celebra anualmente alrededor del mundo con el objetivo de promover el avance en el campo de la inteligencia artificial. Y aunque no estará disponible para el público hasta dentro de un año, varias universidades y laboratorios tienen una versión del robot Nao, para realizar estudios e investigaciones... y coreografías de baile.

Desarrollan un algoritmo que detecta a los mejores jugadores de fútbol


En estos días, en casi todos los deportes, no hay quien no utilice las estadísticas, tanto los entrenadores como los dueños de equipos y hasta los fans realizan el seguimiento y análisis de cada jugador o equipo.

Y ahora, gracias a un ingeniero químico y biológico en la Universidad de Northwestern, que también es un fanático del fútbol, podemos comparar estas estadísticas aisladas con un las obtenidas por un potente algoritmo.

El profesor Luís Amaral presentó el sistema el miércoles en la revista en línea PLoS ONE, donde primero expuso lo estudiado en la Copa de Europa de 2008, cuando se clasificaron según datos estadísticos a los 20 mejores futbolistas que han jugado, una lista que se alinea muy bien con el análisis general.

Pronto debería ser capaz de establecer quienes fueron los mejores jugadores de la Copa del Mundo 2010 en Sudáfrica, y ver si coinciden con quienes realmente fueron los mejores jugadores.

Él y sus colegas tratan a los equipos como redes de jugadores individuales, que actuarían como nodos, analizando no solo los datos individuales sino también el flujo de pases entre los jugadores.

Se analizó la forma en que la pelota puede viajar y terminar con un tiro al arco, mientras más formas que un equipo tenga para mover una pelota que luego termine en un tiro, más puntos tendrá el equipo. Y cuantas más veces la pelota pase por un determinado jugador, terminando luego en un remate, más puntos tendrá dicho jugador.

El modelo asigna un punto a cada jugador involucrado en una secuencia de pases y encuentra el total de puntos promedio que pasa por esa red de jugadores.

Después de que Argentina jugase ante Nigeria este fin de semana pasado, el sistema identificó a la figura de Argentina Lionel Messi como el que tuvo mejor desempeño. No hay dudas que aquí acertó el sistema, no olvidemos que Messi es ampliamente considerado como uno de los mejores jugadores del mundo.

Mediante el análisis de decenas de miles de partidos, el algoritmo de Amaral podría identificar el mejor jugador de todos los tiempos, tal vez para terminar definitivamente el gran debate de Pelé vs Maradona.

miércoles, 14 de julio de 2010

Caja Fuerte con GPS


Todos, absolutamente todos tenemos algo pequeño pero muy valioso tesoro así que no esta demás protegerlo muy bien y que mejor que con una caja que solo se abre ubicando una direccion especifica mediante GPS.

El mecanismo que utiliza es el denominado reverse GeoCache en el cual, la caja está ligada a ciertas coordenadas las cuales son necesarias para poder abrir el pequeño tesoro que guardas ahí por lo tanto solo se podrá accesar a ella si te encuentras en la dirección establecida en el pequeño GPS que contiene.

Lo más interesante es que contiene un pequeño botón rojo el cual sirve para determinar a cuantos metros estamos de la distancia establecida en el GPS y por seguridad tendría un numero limitado de intentos llegando a causar el bloqueo permanente.

El proyecto es un DIY por lo que podemos, si tenemos las ganas y los conocimientos llevarlo a cabo y no se ustedes, pero lo primero que me viene a la mente es por ejemplo: Una propuesta de matrimonio muy original con un estilo diferente.

Blu-ray BDXL de 128 GB: ya tenemos sus especificaciones



La Blu-ray Disc Association acaba de publicar por fin las especificaciones del monstruoso BDXL, dando luz verde a los fabricantes para que empiecen a incluir esta tecnología en sus unidades ópticas. Lo cierto es que el anuncio no nos pilla del todo desprevenidos, puesto que habla de lo que más o menos esperábamos desde hace tiempo: se destinará a empresas e instituciones –aunque también puede interesar a los usuarios con "síndrome de Diógenes tecnológico" –que necesiten almacenar gran cantidad de datos en el menor espacio posible. Estarán disponibles tanto en discos de tres capas de 100 GB (regrabables o no), como en formato cuatro capas de 128 GB –ojo, este modelo no será regrabable. Por si te quedaba alguna duda, un lector Blu-ray tradicional no tiene nada que hacer ante tanta capa, así que más vale que vayas empezando a ahorrar para su llegada al mercado.

martes, 13 de julio de 2010

RemoteCam: Una cámara de video con forma de mando a distancia para auto



Hemos visto este tipo de cámaras espía en el pasado, por lo que la RemoteCam de Swann no sería ninguna novedad de no ser por su aceptable resolución. Según explican, el interesante gadget almacena videos AVI a 720 x 480 en una tarjeta micro SD interna de 2GB. También es posible cambiar la tarjeta a una de 8GB, y así almacenar hasta 60 minutos de video, que es lo que dura la batería con cada recarga. La opción de tomar fotos 1280 x 1024 es una opción adicional, que al igual que los videos, podrán ser transferidas a un ordenador gracias al puerto mini USB, que a la vez sirve para recargar la batería del aparato. El precio de 100 dólares no es malo si tomamos en cuenta que nos hará sentir como todo un agente 007.

- os dejo un video grabado con esta camara para que veais la calidad,la verdad es que no esta mal..


SD Wi-Fi Toshiba de 8 Gbytes

La compañía japonesa Toshiba acaba de presentar su tarjeta Secure Digital que integra soporte Wi-Fi, de manera similar a los productos Eye-Fi. De esta manera Toshiba promete el acceso a los datos contenidos de manera inalámbrica sin necesidad de desconectarla del dispositivo donde se encuentra conectada. Además parece ser que se podrá compartir imágenes entre dos dispositivos con sendas tarjetas Toshiba SD Wi-Fi directamente sin necesidad de una red inalámbrica existente que sirva de enlace.



Toshiba es una gran compañía dentro del mercado del almacenamiento NAND Flash incluyendo tarjetas de memoria. Es cierto que ya existen soluciones muy similares en el mercado, las tarjetas Eye-Fi de las que ya he hablado alguna vez, pero Toshiba puede lograr la fabricación de su tarjeta de 8 Gbytes a un precio mucho más bajo que Eye-Fi.


Toshiba acaba de anunciar su propia tarjeta SDHC de 8 Gbytes con conectividad Wi-Fi 802.11b/g que puede trabajar en cualquier cámara que disponga de una ranura SDHC. Como características destacadas de esa solución Wi-Fi contamos con la sincronización remota con un servidor, un PC e incluso poder compartir con otras cámaras que integren otra tarjeta imágenes JPEG y RAW.



La compañía Toshiba está en conversaciones con Trek para crar un nuevo Forum llamado "Standard Promotion Forum for Memory Cards Embedding Wireless LAN" para promocionar la tarjeta Wireless Toshiba y promocionar un estándar para usar tecnología inalámbrica en tarjetas de memoria.

lunes, 12 de julio de 2010

Adolescente inventa panel solar con cabello humano


Milán, cuyo héroe es el inventor Thomas Eddison, se describe como afortunado porque su familia pudo pagarle una educación adecuada. Él y otros cuatro compañeros de clase, dieron con el descubrimiento mientras realizaban un experimento.

El cabello sustituye el silicio, un elemento costoso que suelen utilizarse en los paneles solares, lo que significa es que los paneles pueden ser producidos a un costo bajo para los que no tendrían acceso a los mismos, explica.

La melanina, un pigmento que da su color de pelo, es sensible a la luz y también actúa como un tipo de conductor. Dado que el cabello es mucho más barato que el silicio hace que el aparato sea menos costoso.

YouTube gana el juicio contra Viacom

Una de las batallas legales más grandes de la informática moderna ha llegado a su fin. Después de más de tres años de idas y venidas, la justicia ha fallado a favor de YouTube en el caso que enfrentaba al portal de vídeos con Viacom. En marzo de 2007, Viacom demandó a YouTube por violaciones de copyright en 160 mil cortos, reclamando mil millones de dólares en concepto de daños. Sin embargo, la decisión del juez ratificó que YouTube está protegido por el "puerto seguro" presente en el acta del DMCA, liberando a YouTube de cualquier responsabilidad sobre copyright frente al contenido que los usuarios han cargado al sitio. Viacom ya ha anunciado que apelará la decisión lo antes posible.

Lo anticipamos en marzo pasado, y ahora se hace realidad. Después de más de tres años de conflicto legal, el caso que enfrentaba a Viacom contra YouTube llega a su fin. La demanda, presentada durante marzo del año 2007, reclamaba el retiro de aproximadamente 160 mil vídeos publicados, y una suma de mil millones de dólares como compensación. Además de vídeos personales, cortos, tutoriales, y material de otra índole, los usuarios del sitio no dudaron en subir vídeos de sus artistas favoritos, trozos de series, películas, documentales, y hasta encuentros de fútbol. Viacom insistía en que YouTube era consciente de la violación y obtuvo beneficio económico de esos vídeos ilegales, por lo tanto era responsable directo. En la otra acera, YouTube reclamó la protección del "puerto seguro" ofrecida por el Digital Millenium Copyright Act, que cubre al sitio de cualquier reclamo general sobre violaciones de copyright, sin importar el tipo de contenido que carguen sus usuarios.


El caso se había presentado como uno de los más complicados en el mundo informático, ya que ambos lados habían dado explicaciones convincentes. Sin embargo, la defensa de YouTube reveló que Viacom había estado subiendo vídeos con copyright de su propiedad, utilizando técnicas de sigilo, y que luego demandó a YouTube por ellos. Como si fuera poco, algunos de los vídeos fueron ignorados por Viacom, con la intención de ser promocionados en el sitio. La decisión de la corte federal fue publicada en línea, y cualquier interesado podrá acceder a las treinta páginas del fallo en formato PDF. En consecuencia, YouTube también evita demandas similares presentadas por otras corporaciones y entidades, entre las que por ejemplo encontramos a la Premier League, Paramount Pictures y la Black Entertainment Television.

Es una gran victoria para YouTube y Google, aunque existe cierto detalle técnico que se deberá respetar. El "puerto seguro" del DMCA protege a YouTube de demandas por copyright a nivel general. Por lo tanto, YouTube deberá continuar retirando los vídeos en línea que violen derechos de autor, ya que la posibilidad de demandas individuales sigue presente. Mientras YouTube coopere con los dueños intelectuales de los vídeos y actúe con celeridad, no podrá ser demandado. Como era de esperarse, Viacom está que arde. Se ha anunciado que apelará la decisión, y algunos creen que podría tener las bases suficientes como para obtener dicha apelación, pero de momento, YouTube se ha quitado un peso de encima. Obviamente, esto no quiere decir que habrá una explosión de vídeos piratas en el sitio, pero es muy probable que esta clase de mega-demandas, sean historia.

viernes, 9 de julio de 2010

EMILY, la robot-socorrista que terminará de jubilar a David Hasselhoff


Ejemplos de robots sustituyendo a sacos de carne seres humanos en profesiones de riesgo tenemos a puñados, pero mira tú por dónde, jamás pensamos en que un día se convertirían en buenos socorristas. Hydronalix tiene un poco más de imaginación, sin embargo, y buena prueba de ello es EMILY (EMergency Integrated Lifesaving lanYard), una especie de salvavidas autónomo que desde este verano patrulla las aguas de Zuma Beach, en Malibú.

Su propulsor, similar al de una moto acuática, la permite navegar a 45 km/h mientras busca con un sonar los chapoteos que haría una persona en peligro para dirigirse hacia ella a toda velocidad. Una vez cerca, EMILY utiliza una cámara y unos altavoces para que los servicios de emergencias puedan tranquilizar a la víctima desde tierra. A continuación el bañista tiene dos opciones: quedarse abrazado a EMILY mientras llegan los refuerzos, o dejarse remolcar a la orilla.

Hydronalix espera tener a EMILY trabajando en 25 nuevas playas de EEUU para el mes de diciembre, y lanzará una versión comercial a comienzos del próximo año por aproximadamente 3.500 dólares (2.800 euros al cambio).

Video: http://link.brightcove.com/services/player/bcpid3924348001?bctid=102803700001

Nokia C7, con pantalla nHD y Symbian^3 está en camino


Puede que el Nokia N8 parezca un smartphone tremendamente atractivo, pero quizá sea demasiado para las pretensiones de muchos bolsillos. Quizá entonces el nuevo miembro de la Serie C de la factoría finlandesa sea lo que muchos esperan. El nuevo Nokia C7 aglomera algunas de las mejores características del N8, pero sin el glamour de ser el abanderado de la compañía. Y es que según las últimas filtraciones, en el código fuente de la propia web oficial de Nokia se ha colado detalles sobre el C7-00 como que incluye un procesador ARM, con Symbian^3, una pantalla con resolución nHD (640 x 360 píxeles), y conexiones 3G UMTS / HSDPA, WiFi, Bluetooth y radio. Obviamente no hay precios ni detalles oficiales al respecto, pero estamos convencidos de que, para lo que ofrecerá, será bastante asequible.

jueves, 8 de julio de 2010

Android 2.2 en el Nokia N900

Los Nokia N900 han sido las últimas víctimas de los gurús de la modificación de plataformas móviles, ya que estos smartphones ya han sido visto ejecutando Android 2.2 Froyo, y de hecho se ha logrado sin demasiados problemas. El vídeo publicado en el que se ve a un N900 con Android 2.2 en acción demuestra que el funcionamiento de este sistema operativo en los terminales de Nokia es realmente notable, aunque no todo el hardware está soportado y aún quedan algunos flecos por resolver.



Hace tiempo que el proyecto NITDroid trata de ofrecer una versión estable y funcional de Android para los Nokia Internet Tablets (N8x0 y N900), y de hech oya hay una guía de instalación para tratar de lograr este sistema operativo tanto en los N900 como en los N8x0.


Los foros de Maemo.org son una excelente fuente de información para todos los que busquen datos sobre este proceso, y allí se explican las capacidades y prestaciones que se pueden obtener al instalar Android 1.6/2.1 en estos dispositivos.



Sin embargo ya hay quien ha superado ese logro y ha instalado con éxito Android 2.2 Froyo en un Nokia N900, demostrando el funcionamiento en un vídeo que deja claro que tareas como la navegación web va a toda velocidad en este dispositivo, y que aunque hay ciertas carencias a nivel de soporte hardware -no se soportan las tarjetas de memoria, por ejemplo- es probable que la cosa vaya a más en las próximas semanas.

mSpot lanza un servicio de escucha de música sin descarga previa


La firma estadounidense mSpot lanzó un servicio de escucha de música sin descarga previa que permite a los usuarios acceder, a través de Internet y gratuitamente, a sus colecciones musicales desde ordenadores y teléfonos móviles inteligentes.

Mediante el servicio mSpot, que funciona mediante el modelo computación en nube, los usuarios pueden subir sus colecciones de música a Internet y luego escucharlas desde ordenadores con acceso a la Red y, por ahora, mediante teléfonos que funcionan con el sistema operativo Android, de Google.

El sistema evita que los usuarios tengan que descargar sus archivos en tarjetas de memoria o en dispositivos que necesitan actualizarse con la información que se añade o elimina en las librerías musicales de los ordenadores.

"Ante el creciente número de dispositivos fijos y portátiles capaces de reproducir música, nuestro servicio hace realidad el concepto de 'entretenimiento en todas partes' sin necesidad de sincronizar los dispositivos", dijo en un comunicado de prensa el consejero delegado de mSpot, Daren Tsui.
Sincronización automática

La compañía explicó que mSpot se sincroniza automáticamente cuando se detectan nuevas canciones o álbumes en los archivos de los usuarios, por lo que "se elimina la necesidad de puertos USB y cables con ese tipo de entrada, además de la sincronización manual", con la que funcionan normalmente los reproductores musicales.

"Los usuarios no necesitan tener sus ordenadores encendidos cuando utilicen sus teléfonos para acceder sus archivos", añaden los responsables de la empresa estadounidense, que explicaron que su tecnología garantiza "un uso muy eficiente del ancho de banda y ofrece una experiencia excelente en redes 2,5G y 3G, así como WiFi".

mSpot ofrece por el momento hasta 2 gigas gratuitos de almacenamiento, lo que equivale a 1.600 canciones, y permite que los usuarios adquieran más espacio a cambio de una mensualidad que va desde los 2,99 dólares al mes por diez gigas hasta 13,99 dólares por 100 gigas

miércoles, 7 de julio de 2010

Rumor: Google podría lanzar su propia red social

Como si al mundo no le bastara con los problemas de privacidad de los que hoy hace gala Facebook, ahora resulta que Google podría hacer lo suyo lanzando una red social llamada “Google Me“.


Nacido de un tweet publicado por el fundador de Digg, Kevin Rose, el rumor de turno (supuestamente derivado de una “fuente muy creíble”) apunta al lanzamiento próximo de una nueva red social (si es que ya pudiéramos contar a Google Buzz como una) de la mano de la gran G, y cuyo cometido no sería otro que darle pelea al servicio creado por Mark Zuckerberg en la disputa por el título de “la” red social de Internet.

Si bien más vale mantenerse serenos frente a la información, en tanto no se confirme, desde mi humilde punto de vista la fórmula “Google + manejo de información privada” no parece ser tan confiable como podría esperarse. Sólo es cuestión de ponerse a pensar en la cantidad de áreas que hoy maneja domina la empresa de Eric Schmidt, y preguntarse si sería conveniente dejar en sus manos la misma información que hoy, de manera a veces poco sensata, millones de usuarios entregan a otra empresa como Facebook, la cual ya ha dado clases magistrales en el manejo de la seguridad y privacidad.

De todas formas, y para no pecar de conspiranoico, no es menos cierto que la privilegiada y omnipotente posición que hoy ocupa Facebook debiera ser contrarrestada por una cuestión de “salud” y competitividad en Internet. ¿Y qué mejor candidato que la todopoderosa e insigne gran G?

¿Sería posible que un eventual “Google Me” pueda destronar a Facebook y sus 400 millones de usuarios? Muy difícil, al menos en el corto plazo, pero no dejaría de ser interesante que un gigante del tamaño y relevancia de Google entre de lleno al juego de las redes sociales e intente desbancar a otro gigante que, nos guste o no, hoy por hoy ostenta un cuasi-monopolio.

Proponen en EE.UU. un "botón" para apagar Internet

En el senado de los Estados Unidos, uno de sus senadores se ha pronunciado con la intención de crear un mecanismo de control gubernamental para desactivar Internet en caso de emergencia nacional para “proteger a la comunidad”. Dicho político, Joseph Lieberman, incluye esta iniciativa en la propuesta de acta Protecting Cyberspace as a National Asset Act of 2010, la cual se implementaría mediante una orden a todos los ISPs para que desconecten sus servidores sin derecho a reclamo y sin preguntas por parte de los clientes, llevándose serias sanciones si se niegan a cumplir la orden.


Queda claro, que algunos políticos no ven a la red como una herramienta de comunicación libre sino como una posible amenaza, esperemos que dicha idea nunca se apruebe.

martes, 6 de julio de 2010

11 grandes fails tecnologicos del primer semestre


Estamos a julio y ya se nos fue la mitad del año (increíblemente rápido si me preguntan a mí). Mirando hacia atrás estos primeros meses, nos dimos cuenta de que ha habido un montón de FAILs en el mundo tecnológico e hice un recuento.

No están ordenados necesariamente por “gravedad” porque les dejo esa tarea a ustedes en la encuesta que está más abajo. Nuestra selección de fails es la siguiente:

1. El iPhone 4 pierde la señal cuando lo tomas con la mano izquierda

2. Las Vuvuzelas en el Mundial, que hacen sufrir a tus oídos en las transmisiones de partidos por TV

3. Google Street View admitió que recolectó datos privados de redes WiFi “sin querer”

4. Viacom perdió su demanda contra YouTube por copyright, después de que se probara que la misma Viacom había subido los videos por los que estaba demandando.

5. Google Buzz agregó a todos los usuarios de Gmail automáticamente a la red y le asignó amigos según los correos que enviabas

6. Asociación porcina se quejó por la venta de carne de unicornio

7. Adobe descubrió una falla crítica en Flash y Reader, justo después de defenderse con uñas y dientes de los ataques de Apple por ser estar lleno de bugs.

8. Dell y Sony vendieron equipos defectuosos y debieron retirarlos del mercado

9. McAfee lanzó una actualización de su antivirus que causó que todos los PC con Windows XP SP3 entraran en un loop de reinicios y BSOD. El problema afectó alos politicos, que no pudieron trabajar un día completo porque todos los PCs estaban locos.

10. El Canon Digital en México: una semana después de proponerlo en el congreso, el diputado retiró la idea por la avalancha de críticas que recibió.

11. La muerte prematura del Kin, el smartphone de Microsoft

HDbaseT: El HDMI tiene sus días contados


Hoy en día, tener una tele con HDMI es tener una tele actualizada. "Es el nuevo euroconector", dicen algunos. Pues sí, más o menos podríamos resumir la actualidad audiovisual de esta forma pero, como viene siendo normal en todo lo relacionado con la tecnología, debemos de informarte que el HDMI ya tiene sustituto, y atento que es un viejo conocido.

Nos referimos al cable Ethernet de categoría 6, un medio elegido por LG, Samsung, Sony y Valens Semiconductor para crear la especificación HDbaseT. Este nuevo estándar permitiría transmitir vídeo en alta definición 1080p e incluso 3D hasta una distancia máxima de 100 metros (ampliable con la electrónica correspondiente), además de distribuir la transmisión por cualquier lugar de una supuesta oficina utilizando la propia red local. Posiblemente, ya hayas visto esta solución en el marcado, ya que son varios los fabricantes los que ofrecen productos con los que poder enviar la señal de un HDMI a través de RJ45. Aún así, lo verdaderamente interesante de la noticia, es el anuncio oficial de la creación de la Alianza, una medida que tarde o temprano dará sus frutos. Y es que de momento las demostraciones se hacen con codificadores externos, pero quién sabe si algún día los fabricantes decidirán integrar esos dispositivos en sus televisores. Ya veremos cuánto piden por un cable Cat 6 con etiqueta "especial para vídeo"; mientras tanto te dejamos con una interesante tabla en la que se pueden comparar las diferentes conexiones del mercado con la nueva especificación HDbaseT

lunes, 5 de julio de 2010

Opera 10.60 Final


Opera Software lanzó la versión final de su navegador Opera 10.60, del que ya le habíamos adelantado su primer beta a mediados del mes de junio.

Dentro de las principales novedades que se han incorporado en esta nueva versión del navegador noruego esta la Gelocalización y el soporte para la reproducción de videos bajo el formato WebM.

Mediante la geolocalización ahora es posible determinar nuestra ubicación directamente en el navegador, con lo que podemos –por ejemplo- revisar la ruta que debemos tomar para llegar a un lugar específico a partir de nuestra ubicación actual. De manera de garantizar la privacidad de los usuarios, el navegador solicita confirmar la activación de esta característica.

Gracias al soporte para la reproducción de video con el formato abierto WebM, Opera se transforma en uno de los primeros navegadores que dan soporte nativo a este nuevo estándar, garantizando nuevamente su constante apoyo a los estándares de la web.

Sumado a lo anterior la nueva versión de Opera permite trabajar en aplicaciones basadas en la web incluso cuando no se tiene conexión a Internet (Appcache).

Como suele ser ya una característica con cada versión de este navegador, Opera 10.60 es hasta un 50% más rápido respecto a la versión anterior e incluye importantes mejoras en otras tecnologías propietarias como Opera Turbo.

En materia de seguridad Opera ahora cuenta con el apoyo de la compañía AVG para mejorar la seguridad contra el phishing, por lo que a partir de esta versión del navegador se actualiza en línea la información referente a los últimas amenazas aparecidas en la red (malware, estafas en línea, etc.).

IBM comienza a distribuir supercomputadores enfriados por agua

El día de hoy la gigante multinacional de la computación y tecnología, IBM, entregó su primer supercomputador enfriado por agua, Aquasar, a un instituto suizo de tecnología. Aquasar está formado por procesadores Cell e Intel y posee una capacidad de cálculo de 10 TFlops.

El sistema necesita un 40% menos de energía para su funcionamiento que una máquina enfriada por aire y el calor residual puede utilizarse para calefaccionar algún edificio o instalación.

La “magia” es realizada gracias a un sistema de enfriadores que poseen micro-canales por donde pasa el líquido, los cuales están adheridos directamente sobre los procesadores, uno de los sectores que más calor generan dentro del supercomputador. El agua de por sí es 4.000 veces más eficiente que el aire para disipar el calor y posee mejores propiedades para transportarlo.

Lo común en estos casos es utilizar agua fría, pero lo interesante del sistema de IBM es que utiliza agua tibia, más bien algo caliente a 140 °F o 60°C. Funciona porque está aún suficientemente “fría” para disipar el calor producido por los procesadores y mantenerlos a un máximo de 85°C. El agua de salida abandona el sistema a 65°C, suficiente para utilizarla para calefaccionar el edificio donde se encuentra, alguna oficina, por ejemplo.

Si consideramos que los data centers actuales utilizan un 50% de toda la energía en el enfriamiento por aire de sus sistemas, Aquasar es una excelente opción para ahorrar y de paso darle una manito al planeta.


viernes, 2 de julio de 2010

5 mejoras que traerá Firefox 4



Mozilla Foundation está volcada de lleno en el desarrollo de la nueva versión de Firefox que traerá consigo novedades en seguridad y rendimiento y que probablemente vea la luz en noviembre de este año.


Según parece traerá consigo cinco grandes cambios, que os dejamos a continuación:


1. Rediseño de la interfaz de usuario: Mozilla ha decidido mover las pestañas a la parte superior, tal y como hacen navegadores como Chrome y Opera, pero habrá más cambios estéticos en la disposición de iconos y en el propio diseño de estos elementos gráficos.


2. Motor JavaScript JagerMonkey: la ejecución de código JavaScript vuelve a ser una de las claves del desarrollo del navegador, que se ha quedado atrás en sus versiones 3.6.x con respecto a Opera y Chrome, pero que con el nuevo motor quiere volver a competir en este terreno.


3. Nuevo gestor de complementos: con esta utilidad podremos controlar más fácilmente la instalación de nuevos complementos y extensiones, pero también podremos gestionar los temas y plug-ins instalados, y aunque se mantiene la filosofía del actual gestor, los cambios en la interfaz mejorarán la experiencia de usuario.


4. TaskFox: una de las características más interesantes es la integración de esta utilidad que es una implementación de la potencia de Ubiquity en el navegador y que permitirá realizar todo tipo de operaciones sobre las páginas y servicios que visitamos.


5. Más compatibilidad con estándares: el soporte de formularios y secciones en HTML5, de vídeo WebM, del estándar WebGL y de las transiciones y las capacidades multitáctiles en CSS son algunas de las mejoras en ese soporte de estándares que también ha evolucionado y que será igualmente determinante para el éxito de Firefox 4.


Evidentemente veremos mucho más, ya que Firefox está viendo amenazado su terreno con alternativas como Chrome, queda claro que la próxima versión de Firefox promete un salto cualitativo desde Firefox 3.6.x.

Kin One y Kin Two de Microsoft han muerto

Si el otro día venía con el que probablemente haya sido el lanzamiento más exitoso de un smartphone de todos los tiempos, hoy toca hablar de dos terminales presentados recientemente a los cuales les ha pasado justo lo contrario. Concretamente me estoy refiriendo al Kin One y Kin Two, los dos dispositivos de Microsoft con los que la mentada empresa se incursionó por primera vez en el diseño de teléfonos, y los mismos que, tan sólo seis semanas después de que fueran presentados, Microsoft acaba de matar.
Eso es lo que en las últimas horas ha comunicado Microsoft, que el Kin One y el Kin Two no solamente no serán lanzados en Europa sino que la línea se cancela por completo y también se dejarán de vender en los EE.UU. ¿Por qué toman esta decisión? Pues bueno, tenemos la explicación oficial y la no oficial pero obvia. La explicación oficial es que cancelan la línea de teléfonos Microsoft Kin ya que desde ahora quieren centrar todos sus esfuerzos en Windows Phone 7, y la no oficial es que simple y llanamente los terminales no han funcionado en ventas ni medio bien (se habla de que en estas seis semanas solamente se han vendido unas 500 unidades de ambos dispositivos en los EE.UU).
Varios comentamos en su momento que la estrategia emprendida por parte de Microsoft con el Kin One y el Kin Two pintaba bien y era inteligente, pero claramente nos equivocábamos. Con la “saga Kin” Microsoft no se metía en la guerra de terminales entre Apple, Google y otros sino que apostaban por algo muy concreto: público juvenil “siempre conectado”.
En cualquier caso, aunque es indiscutible que Microsoft se la ha pegado con Microsoft Kin, también se puede sacar una lectura muy positiva de todo esto y es la siguiente. El gran problema de los de Redmond hasta ahora con el tema móvil ha sido que se han diversificado demasiado llegando a tener 4 plataforma diferentes orientas a dispositivos móviles y tanta diversificación provocó que no se pudieran centrar en condiciones en ninguna de ellas. La cancelación de Microsoft Kin marca un punto de inflexión pues en la estrategia móvil de la compañía: centrarse solamente en Windows Phone 7.
Y poco más se puede añadir, Microsoft se marca otro fracaso, pero si eso ha contribuido a tomar la decisión, como todo indica, de dejar de dar tumbos de una vez y enfocarse exclusivamente en Windows Phone 7, no ha sigo algo tan malo.