búsqueda

jueves, 25 de abril de 2013

VIDEO TUTORIAL MS-DOS .

Comandos básicos
Aquí se muestran algunos de los comandos que utilizaba MS-DOS, y que actualmente pueden ser utilizados desde la línea de comandos en sistemas operativos Windows. Para acceder a la ayuda de estas, MS-DOS, a partir de la versión 6.2 permite lo siguiente: comando_a_consultar /? (Ej.: copy /?). Pueden ser internos (incluidos dentro del propio COMMAND.COM) o externos (archivos ejecutables en el directorio del MSDOS):

 Comandos internos

  • CD o CHDIR - Cambia el directorio actual.
  • CD.. Cambia al directorio jerárquicamente superior.
  • CLS - Limpia todos los comandos y toda la información que hay en pantalla, excepto el incitador de comandos (prompt) usualmente la letra y ruta de la unidad usada (Por ejemplo C:\>)
  • COPY - Copiar un archivo de un directorio a otro
  • COPY CON Copia a un archivo los caracteres introducidos en pantalla (CONsola)
  • DATE - Visualiza o cambia la fecha del sistema.
  • DEL - Se usa para eliminar archivos.
  • DIR - Lista los directorios y archivos de la unidad o directorio actual.
  • FOR - Repite un comando
  • PROMPT- Cambia la línea de visualización de la orden.
  • MD o MKDIR - Crea un nuevo directorio.
  • RD o RMDIR- Elimina un directorio.
  • REM - Permite insertar comentarios en archivos de proceso por lotes.
  • REN o RENAME - Renombra archivos y directorios.
  • SET - Asigna valores a variables de entorno.
  • TIME - Visualiza o cambia la hora del sistema.
  • TYPE - Muestra el contenido de un fichero. Se utiliza, principalmente, para ver contenidos de ficheros en formato texto.
  • VER - Muestra la versión del Sistema Operativo.
  • VOL - Muestra la etiqueta del disco duro y su volumen (si lo tiene).
  • MEM - Muestra la cantidad de memoria RAM, la cantidad ocupada y la libre.

 Comandos externos

  • ATTRIB - Sin parámetros, visualiza los atributos de los directorios y archivos. Con parámetros, cambia los atributos de directorios y archivos.
Los atributos de los directorios, y los ficheros son: de lectura (r), de escritura (w), de archivo (a), oculto (h), de sistema (s). Parámetros: signos (más o menos) y letras r, w, a, y h "v". Ejemplo: Attrib +r *.* (atributo de sólo lectura, para todos los ficheros de ese directorio)
  • APPEND - Sirve para especificar trayectorias para ficheros de datos.
  • BACKUP - Ejecuta una copia de seguridad de uno o más archivos de un disco duro a un disquete.
  • CHKDSK - Verifica si hay errores en el disco duro. (También se puede utilizar para corregirlos con el parámetro "/F")
  • DELTREE - Borra un directorio sin importar que contenga subdirectorios con todos sus contenidos.
  • DISKCOMP - Tras realizar una copia de disquetes podemos realizar una verificación, para ver si ha copiado todos los contenidos, comparando. Este comando compara discos o disquetes.
  • DISKCOPY - Permite hacer una copia idéntica de un disquete a otro, pertenece al grupo de las órdenes externas.
  • DOSKEY - Permite mantener residentes en memoria RAM las órdenes que han sido ejecutadas en el punto indicativo.
  • FC - Compara ficheros.
  • FORMAT - Permite crear la estructura lógica, en una unidad física de almacenamiento (discos duros, disquetes y unidades de almacenamiento masivo).
  • PRINT - Permite imprimir ficheros.
Se pueden utilizar estos parámetros combinados.
  • KEYB - Establece el idioma del teclado según el parámetro adicionado (Ejemplo: KEYB SP para el teclado español).
  • LABEL - Muestra o cambia la etiqueta de la unidad de disco duro.
  • MEM - Muestra la memoria RAM, el espacio ocupado y el espacio libre.
  • MOVE - Mueve o cambia de posición un directorio y/o ficheros. También renombra subdirectorios.
  • SUBST - Crea una unidad lógica virtual a partir de un directorio.
  • TREE - Muestra los directorios en forma de árbol.

Redireccionamientos

  • < - Re direccionamiento de la entrada estándar. Su sintaxis es comando < fichero.
  • > - Re direccionamiento de la salida estándar. Su sintaxis es comando > fichero. Si el fichero no existe, lo crea. Si ya existía, sobreescribe su contenido.
  • >> - Re direccionamiento de la salida estándar a un fichero existente. Su sintaxis es comando >> fichero. Si el fichero no existe, lo crea. Si ya existía, añade el resultado del comando a continuación del contenido previo del fichero.

VERSIONES .
  • PC DOS 1.0 - Liberado en 1981 como complemento al IBM-PC. Primera versión de DOS. Soporta 16 Kb de memoria RAM, disquetes de 5,25 pulgadas de una sola cara de 160 Kb. 22 órdenes. Permite archivos con extensión .com y .exe. Incorpora el intérprete de comandos COMMAND.COM.
  • PC DOS 1.1 - Corregidos muchos errores, soporta disquetes de doble densidad 1.25 - Primera versión liberada con el nombre MS-DOS.
  • MS-DOS 2.0 - Complemento del IBM XT liberado en 1983. Más del doble de nuevos comandos, soporte de disco duro (alrededor de 5 MB).
  • PC DOS 2.1 - Complemento del IBM PCjr. Añadidas algunas mejoras.
 
  • MS-DOS 2.11 - Añadido soporte para otros idiomas y soporte LAN.
  • MS-DOS 3.2 - Añadida capacidad para disquetes de 3,5 pulgadas y 720 KB.
  • PC DOS 3.3 - Añadido soporte para el ordenador PS/2 de IBM y los nuevos disquetes de 3,5 pulgadas de alta capacidad (1,44 MB). Nuevas páginas de código de caracteres internacionales añadidas, con soporte para 17 países.
  • MS-DOS 3.3 - Capacidad para crear particiones de disco superiores a 32 MB. Soporte de 4 puertos serie (antes sólo 2). Incorporación de la orden "Files" para poder abrir hasta 255 archivos simultáneamente.
  • MS-DOS 4.0 - Generado con el código fuente de IBM, no con el de Microsoft.
  • PC DOS 4.0 - Agregado DOS Shell, algunas mejoras y arreglos.
  • MS-DOS 4.01 - Versión para corregir algún error.
  • MS-DOS 5.0 - Implementado en 1991, incluyendo más características de administración de memoria y herramientas para soporte de macros, mejora del intérprete de órdenes o shell
 
  • MS-DOS 6.0 - Liberado en 1993, incluye soporte para Microsoft Windows, utilidades como Defrag (desfragmentación del disco), DoubleSpace (compresión de archivos), MSBackup (copias de seguridad), MSAV (Microsoft Anti-Virus), MemMaker, etc.
  • MS-DOS 6.2 - Versión para corregir errores.
  • MS-DOS 6.21 - Eliminado el soporte de compresión de disco DoubleSpace.
  • PC DOS 6.3 - Liberado en abril de 1994.
  • MS-DOS 6.22 - Última versión distribuida por separado. Incluido DriveSpace para sustituir a DoubleSpace.
  • PC DOS 7.0 - Añade Stacker para reemplazar a DoubleSpace.
  • MS-DOS 7.0 - Distribuido junto con Windows 95. Incluye soporte para nombres de archivo largos (hasta ahora habían tenido la restricción del 8+3).
  • MS-DOS 7.1 - Integrado en Windows 95 OSR2 y posteriormente en Windows 98 y 98 SE. Soporta sistemas de archivos FAT32.
  • MS-DOS 8.0 - Incluido en Windows Me. Es la última versión de MS-DOS.

 

jueves, 14 de marzo de 2013

TUBOS DE RAYOS CATÓDICOS .

El tubo de rayos catódicos (CRT, del inglés Cathode Ray Tube) es una tecnología que permite visualizar imágenes mediante un haz de rayos catódicos constante dirigido contra una pantalla de vidrio recubierta de fósforo y plomo. El fósforo permite reproducir la imagen proveniente del haz de rayos catódicos, mientras que el plomo bloquea los rayos X para proteger al usuario de sus radiaciones. Fue desarrollado por William Crookes en 1875. Se emplea principalmente en monitores, televisores y osciloscopios, aunque en la actualidad se está sustituyendo paulatinamente por tecnologías como plasma, LCD, LED o DLP.
Orígenes

El tubo de rayos catódicos, o CRT, fue inventado en 1897 por Ferdinand Braun, un científico alemán, pero no se utilizó hasta la creación de los primeros televisores a finales de la década de 1940. El primer televisor fue creado el 26 de enero de 1926 por John Logie Baird. A pesar de que los CRT que se utilizan en los monitores modernos tuvieron muchas modificaciones que les permitieron mejorar la calidad de la imagen, siguen utilizando los mismos principios básicos.
La primera versión del tubo catódico fue un diodo de cátodo frío, en realidad una modificación del tubo de Crookes con una capa de fósforo sobre el frontal. A este tubo se le llama a veces tubo Braun. La primera versión que utilizaba un cátodo caliente fue desarrollada por J. B. Johnson y H. W. Weinhart de la sociedad Western Electric. Este producto se comercializó en 1922.

 Electricidad estática

Algunas pantallas o televisores que utilizan tubos catódicos pueden acumular electricidad estática inofensiva, sobre el frontal del tubo, lo que puede implicar la acumulación de polvo, que reduce la calidad de la imagen. Se hace necesaria una limpieza (con un trapo seco o un producto adecuado, ya que algunos productos pueden dañar la capa antirreflejo, si esta existe).
Posibles riesgos

Campos electromagnéticos

Aunque no hay pruebas de ello algunos creen que los campos electromagnéticos emitidos durante el funcionamiento del tubo catódico pueden tener efectos biológicos. La intensidad de este campo se reduce a valores irrelevantes a un metro de distancia y en todo caso el efecto es más intenso a los lados de la pantalla que frente a ella.

Riesgo de implosión

Cuando se ejerce demasiada presión sobre el tubo o se le golpea puede producirse una implosión debida al vacío interior. Las explosiones que a veces se ven en cine y televisión no son posibles. En los tubos de los modernos televisores y monitores la parte frontal es mucho más gruesa, se añaden varias capas de vidrio y láminas plásticas de modo que pueda resistir a los choques y no se produzcan implosiones. El resto del tubo y en particular el cuello son en cambio muy delicados. En otros tubos, como por ejemplo los osciloscopios, no existe el refuerzo de la pantalla, en cambio se usa una lámina plástica antepuesta como protección. El tubo catódico tiene que ser manejado con atención y competencia; se tiene que evitar en particular levantarlo por el cuello y sujetarlo siempre por los puntos indicados por el fabricante.

 Toxicidad

En los tubos más antiguos fueron empleadas sustancias tóxicas para incrementar el efecto de los rayos catódicos sobre el fósforo. En la actualidad han sido reemplazadas por otras más seguras. La implosión o en todo caso la rotura del vidrio causa la dispersión de estos materiales. En la eliminación y reciclado de los tubos se tiene que tener en cuenta además la presencia de plomo en el cristal, que es muy contaminante.

 Parpadeo

El efecto de parpadeo no es exclusivo de los tubos de vacío. También se observa en pantallas planas aunque en estas es habitual encontrar sistemas para reducirlo.
La señal de TV convencional está formada por 25 imágenes por segundo en el sistema PAL y de 30 en el sistema NTSC. Con el entrelazado se consigue reducir el parpadeo dividiendo cada imagen en dos. Una con las líneas pares y otra con las impares que se muestran una detrás de otra aumentando la frecuencia a 50/60 Hz.
Este continuo parpadeo es el que causa mareos y molestias visuales cuando vemos la televisión durante demasiado tiempo. En algunas personas sensibles puede incluso desencadenar crisis epilépticas.
Algunos modelos de televisores solucionan este problema almacenando la señal en una memoria y repitiendo cada imagen completa sin entrelazado varias veces. El sistema más extendido en PAL es el de 100 Hz que repite cada imagen 4 veces y reduce notablemente el parpadeo. Los primitivos sistemas de 100 Hz anunciaban un aumento de calidad pero al emplear conversores analógicos/digitales primitivos con poco muestreo y cuantificación la calidad de imagen era sensiblemente menor. El método de digitalización intentaba usar el mínimo de memoria posible ya que la memoria era muy cara por entonces. El abaratamiento de los circuitos integrados de memoria y el avance de la electrónica en general han conseguido que en el mercado podamos encontrar pantallas de 200 Hz que hacen el parpadeo imperceptible manteniendo la calidad de la señal.

Alta tensión

Para dirigir el haz en los tubos de rayos catódicos se emplean tensiones eléctricas muy altas (decenas de miles de voltios). Estas tensiones pueden permanecer en el aparato durante un tiempo después de apagarlo y desconectarlo de la red eléctrica. Se debe evitar por lo tanto abrir el monitor o televisor si no se dispone de una adecuada preparación técnica.



ANALÓGICO VS DIGITAL.

Digital y analógico son, básicamente, los dos métodos utilizados hoy en dia, para el procesamiento electrónico de información. A su vez, por información entendemos todo aquello que tiene significado para nosotros, desde la palabra hasta la música.
Hay que tener en cuenta que la información no existe sino en el cambio. El sonido, por ejemplo, no es más que la vibración del aire (o cualquier otro fluido). Una fotografía es también la variación de algo, en este caso de tonalidades a lo largo y ancho de una superficie; una hoja de papel en blanco, por el contrario, no contiene información alguna.
Sabiendo esto, es fácil entender que procesar información por medios electrónicos no consiste sino en provocar variaciones dentro de esos medios, que de alguna manera se correspondan con las variaciones originales de aquel medio que contenía la información en su forma primaria.
La manera más sencilla de representar la información electrónicamente consiste en hacer variar alguna magnitud eléctrica, como el voltage, en proporción exacta a las variaciones del medio original. Un ejemplo claro de esto es el micrófono.
 
 
 

Un micrófono típico tiene una membrana delgada que está acomplada a un fino alambre de cobre enrollado en torno a un a un imán (ver figura). Cuando el micrófono se expone a las ondas sonoras, estas hacen vibrar a la membrana, con lo cual el enrollado de cobre también vibra respecto al imán. Este movimiento relativo del enrollado respeto al imán, induce una corriente eléctrica en el primero, cuya intencidad y sentido son proporcionales a las vibraciones de la membrana, y por ende, a las del sonido captado por esta. La corriente electrica así producida se llama "señal eléctrica" (señal, porque contien información), y puede ser conducida a lo largo de un cable eléctricon hasta otro dispositivo electrónico para su ulterior procesamiento.
Pudiéramos intentar representar a la onda sonora original en un plano cartesiano, poniendo el tiempo en las absisas y la presión sonora instantánea en las ordenadas. Otro tanto pudiéramos hacer con la señal eléctrica producida por el micrófono, poniendo el tiempo en las absisas y la intencidad instantánea de la corriente eléctrica en las ordenadas. No nos sorprenderíamos al ver que ambos gráficos son casi idénticos, o sea, el micrófono ha producido una señal eléctrica "análoga" a la señal original. Es justamente por eso que este método recibe el nombre de "analógico".
El método digital es completamente diferente, y bastante más complicado. No es sorprendente que la tecnología electrónica haya surgido y se haya desarrollado por décadas siguiendo exclusivamente el método analógico. No fue sino hasta finales de la Segunda Guerra Mundial que este panorama cambió, con la invensión de las computadoras electrónicas.
En un principio, estas máquinas estaban orientadas a resolver problemas numéricos, de modo que la información a representar y procesar dentro de ellas era, basicamente, el número. El método analógico sin embargo, hasta entonces tan éxitoso con magnitudes continuas como el sonido, no resultaba igualmente adecuado para representar objetos de naturaleza discontinua, como lo son los números. En realidad se llegaron a construir computadoras analógicas, pero pronto se desechó este camino y se adoptó el método digital.
En el mundo digital, todo se representa con numeros binarios. El ejemplo más sencillo es, por supuesto, el número mismo, como en el caso de una calculadora de bolsillo.
Desde el punto de vista del medio electrónico, lo único que se necesita es una magnitud eléctrica que solo pueda presentarse en dos estados, por ejemplo un voltage que solo pueda ser 0 voltio ó 3 voltios. De esta manera un voltage puede representar a un digito de información o "bit".
Teniendo una gran cantidad de "cosas" que proporcionen esos voltages bi-estado, tendremos consecuentemente esa misma cantidad de "bits". En la electrónica moderna, esas "cosas" se llaman "bi-estables" y están contenidas en grandes cantidades dentro de circuitos integrados como memorias y microprocesadores. Es de notar que no podemos tener infinitos bi-estables dentro de un circuito integrado dado, de modo que en electrónica digital no se puede trabajar con numeros arbitrariamente grandes. Por esta razón, la presición de los números tiene que ser limitada a una cierta cantidad de bits, tipicamente 8, 16, 32 ó 64.
Para representar otros tipos de información como la imagen y el sonido digitalmente, se necesitan dos pasos. Primero hay que capturar la información por metodos analógicos y obtener una señal eléctrica analógica, por elemplo, capturar el sonido utilizando un micrófono. Luego hay que realizar una operación llamada "muestreo". Esta operación consiste en medir la intencidad de la señal analógica a tiempos regulares, y por cada medisión, guardar el valor numérico (representado en binario) de la magnitud medida (Ver figura).
 
 



En la figura, se está muestreando una señal arbitraria, a tiempos regulares T. Por cada muestreo, se mide el nivel de la señal, representandolo mediante un numeros de 4 bits. La suseción de números binarios asi capturados (0100, 0110, 0111, 0110, 0111, 1100, 1101) constituye una representación digital de la señal en cuestión. Esta suseción es guardada en memoria y/o procesada de forma absolutamente numérica.
Al final del proceso, es preciso realizar la operación contraria, es decir, reproducir a la salida una versión analógica de la señal digital. Este proceso se llama conversión digital-analógica (D/A) mientras que el primero se llama conversión analógico-digital (A/D).
Es obvio que en el muestreo no pueden medirse todos los momentos de la señal analógica, puesto que entre una muestra y la siguente (tiempo T), cualquier valor real que tome el nivel, no será registrado en el proceso. Todo parece indicar que el muestreo introduce un error inevitable, es decir, una distorción. En realidad no es asi; el error se puede eliminar por completo si el intervalo de muestreo (T) se hace suficientemente pequeño. Asi lo garantiza un teorema matemático llamado Teorema de Shannon, el cual establece que tomando una frecuencia de muestreo igual o mayor que el doble de la máxima componente de frecuencia de la señal a muestrear, se consigue representar completamente a dicha señal.
En la práctica la frecuencia de muestreo se toma un poco por encima del doble, por ejemplo el sonido, cuya máxima componente de frecuencia es 20 KHz, se muestrea a 44 KHz y no a 40.
El verdadero error se introduce debido a la presición de los números con que representamos a los niveles. En la figura, por ejemplo, la segunda y la cuarta muestra miden con el mismo numero (0110) dos niveles de la señal original que en realidad no son iguales. A este error se le llama "distorción por cuantificación" y solo se resuelve aumentando el numero de bits. En la práctica 16 bits son suficientes para capturar el sonido con óptima calidad, como en el caso de los discos compactos de música.
A pesar de su gran complejidad, las ventajas del método digital sobre el analógico son cada vez más notorias. Esto está dado principalmente por los continuos avances en la ciencia y la tecnología de la computación, los cuales están inmediatamente disponibles para cualquier señal siempre que esta se represente digitalmente. Es por ello que el método digital tiene una amplia y creciente supremacía en la electrónica de nuestros dias.

lunes, 11 de marzo de 2013

SEGUNDO PASO DE LA IMAGEN

 

CODIFICADORES Y DECODIFICADORES:
 
El codificador es un circuito combinacional con 2N entradas y N salidas, cuya misión es presentar en la salida el código binario correspondiente a la entrada.

Existen dos topos fundamentales de codificadores activada: codificador sin propiedad y codificador con propiedad, en el caso de codificadores sin prioridad, puede darse el caso de salidas cuya entrada no pueda ser conocida: por ejemplo, la salida 0 podría indicar que no hay ninguna entrada activada o que se ha activado la entrada número 0. Además, ciertas entradas pueden hacer que en la salida se presente la suma lógica de dichas entradas, ocasionando mayor confusión. Por ello, este tipo de codificadores es usado únicamente cuando el rango de datos de entrada está correctamente acotado y su funcionamiento garantizado.




El decodificador o descodificador es un circuito combinacional, cuya función es inversa a la del codificador, esto es, convierte un código binario de entrada (natural, BCD, etc.) de N bits de entrada y M líneas de salida (N puede ser cualquier entero y M es un entero menor o igual a 2N), tales que cada línea de salida será activada para una sola de las combinaciones posibles de entrada. Estos circuitos, normalmente, se suelen encontrar como decodificador / demultiplexor. Esto es debido a que un demultiplexor puede comportarse como un decodificador.




PRIMER PASO DE LA IMAGEN .


primer paso de la imagen :

LA CAPTURA DE IMÁGENES :

La imagen captura 25 frames por segundo, un frame es un fotograma o cuadro, una imagen particular dentro de una sucesión de imágenes que componen una animación. La continua sucesión de estos fotogramas producen a la vista la sensación de movimiento, fenómeno dado por las pequeñas diferencias que hay entre cada uno de ellos.

La frecuencia es el número de fotogramas por segundo que se necesitan para crear movimiento.Aqui te muestro su formula.


Cada frame se divide en 516 lineas

Las pantallas de televisiones están compuestas por pequeñísimas celdas con pixeles con los colores rojo, verde y azul .

lunes, 4 de marzo de 2013

10 AVANCES TECNOLÓGICOS


                                            EL PRIMER LÁSER DIGITAL .

El láser es una de las tecnologías emblemáticas del mundo moderno. Lo más probable es que la mayoría de los lectores estén a menos de un metro de distancia de un láser de algún tipo mientras leen esto. En nuestro mundo, los láseres están en todas partes. En principio, son dispositivos simples. Se componen de un par de espejos, una fuente de energía, normalmente luz, y una cavidad láser en la que la luz puede rebotar de un lado a otro. El truco está en llenar la cavidad láser con un material conocido como medio amplificador que amplifica a una frecuencia específica cuando es estimulado por luz con otra frecuencia. Cuando esta luz amplificada se dirige al exterior de la cavidad, usando un medio espejo, forma un haz estrecho de luz coherente de una única frecuencia específica: un rayo láser.

Para muchas aplicaciones, la forma de este rayo -la manera en la que la intensidad de la luz varía a través del rayo- es importante. Los físicos actualmente cambian la forma colocando frente al láser diversos tipos de dispositivos que forma al rayo, entre los que se incluyen lentes, espejos y hologramas digitales generados utilizando moduladores espaciales de luz. No obstante, debido a que estos dispositivos se instalan esencialmente atornillados en la parte delantera del láser, todos ellos requieren costosas ópticas personalizadas que tienen que ser calibradas cada vez que se cambian.

Ahora, Sandile Ngcobo, de la Universidad de KwaZulu-Natal, en Sudáfrica, y algunos compañeros, afirman haber encontrado el modo de evitar este problema. Y han diseñado y construido un dispositivo para probar su idea. La solución es simple. En lugar de poner un modulador espacial de luz en frente del láser, han incorporado uno en el dispositivo, donde actúa como el espejo en un extremo de la cavidad. De esta manera, el modulador espacial de luz da forma al haz a medida que está siendo amplificado. El resultado es que el haz ya tiene la forma requerida cuando emerge de la cavidad láser.






 
 


                                 NUEVA TÉCNICA PARA DETENER HEMORRAGIAS .

Dos líquidos que se convierten en una espuma sólida tras ser inyectados en el cuerpo podrían, algún día, salvar la vida de los soldados y los civiles heridos al frenar las hemorragias internas, de modo que puedan llegar a un hospital. La agencia estadounidense DARPA (Defense Advanced Research Projects Agency) concedió a Arsenal Medical una subvención de 15,5 millones de dólares en diciembre para ampliar el desarrollo de esta tecnología, que se administraría a un soldado herido a través del ombligo.

En la actualidad, los médicos y paramédicos del campo de batalla no tienen herramientas para detener las hemorragias internas antes de que el herido llegue a un hospital. Ahora, la compañía Arsenal Medical, de Watertown, Massachusetts, ha diseñado una sustancia que llena la cavidad abdominal y forma una espuma sólida capaz de retardar la hemorragia interna. La espuma se forma a partir de dos líquidos.

"La mezcla de los dos componentes líquidos origina una reacción química que impulsa el material a lo largo de la cavidad abdominal", señala Upma Sharma, director de investigación de la tecnología en Arsenal. La idea es que la espuma ejerza suficiente presión sobre la zona de la lesión como para ralentizar el sangrado hasta tres horas, con el fin de que el soldado pueda ser trasladado a un hospital. Allí, un cirujano retirará el bloque de espuma y atenderá las heridas del soldado.

La empresa probó más de 1.200 mezclas diferentes antes de encontrar la combinación con las propiedades adecuadas. La espuma no puede formarse demasiado rápido ni demasiado lento, no puede ser demasiado dura ni demasiado blanda cuando se vuelve sólida y los cirujanos deben ser capaces de retirarla sin causar más daños al soldado. La espuma endurecida es un poliuretano, una familia de materiales que ya se utiliza en el cemento óseo, en injertos vasculares y en otras situaciones médicas; además de en los asientos de automóviles y el aislamiento.

El equipo está probando la espuma en cerdos a los que se les causa una lesión interna que corta el hígado y una vena importante. Con el tratamiento, casi tres cuartas partes continúan vivos tres horas después. Además, están realizando un seguimiento de los cerdos para estudiar los efectos a largo plazo una vez retirada la espuma. La compañía planea empezar a trabajar con la FDA (Food and Drug Administration) estadounidense este año para determinar cómo probar la tecnología en el campo de batalla.






                                                   CÁMARA SIN LENTE .

De la investigación de un sistema de formación de imágenes sin lente podrían surgir unos sensores baratos que ayuden a evitar colisiones de automóviles. Unos científicos estadounidenses han usado metamateriales para construir el sistema de formación de imágenes, que muestrea la luz infrarroja y de microondas.

Los metamateriales son materiales cuyas propiedades están diseñadas con un fin, en lugar de estar determinadas por su composición química. El sensor también comprime las imágenes que captura, a diferencia de los sistemas de compresión actuales, que sólo comprimen imágenes después de que hayan sido tomadas.

La mayoría de los sistemas de formación de imágenes, como los que se encuentran en las cámaras digitales, utilizan una lente para enfocar una escena en un sensor repleto de millones de sensores diminutos. Un mayor número de sensores implica que se captan más detalles y, en general, produce una imagen de mayor resolución.

El sistema de formación de imágenes desarrollado por el estudiante de posgrado John Hunt y sus colegas de la Universidad de Duke, en Carolina del Norte, no tiene ninguna lente y, en su lugar, combina una abertura o máscara de metamateriales y unas matemáticas complejas para generar una imagen de una escena. La abertura se utiliza para enfocar, sobre un detector, diferentes longitudes de onda de la luz presente en diferentes partes de una escena. Las diferentes frecuencias captadas en la escena se muestrean secuencialmente. Este muestreo ayudó a elaborar la distribución y mezcla de las longitudes de onda de la luz captadas en una escena, y sus intensidades relativas, señaló Hunt. "Luego utilizamos algunas matemáticas muy elegantes desarrolladas en la formación de imágenes computacional para convertir esos datos en una imagen 2D", añadió.

El muestreo de las longitudes de onda se lleva a cabo electrónicamente, por lo que tiene lugar muy rápido. Actualmente, el sistema de formación de imágenes podría tomar cerca de 10 imágenes por segundo, según el investigador. Aunque ya existen sistemas de formación de imágenes que captan las longitudes de onda infrarrojas y de microondas, por lo general son muy costosos, voluminosos o complicados de construir. Por el contrario, el sistema de formación de imágenes de Duke utiliza una tira delgada de metamaterial combinada con algo de electrónica y un software de procesamiento. Y si bien todavía no ha trabajado con longitudes de onda visibles de la luz, Hunt señala que podría dar lugar a una serie de sensores baratos, pequeños y portátiles que podrían tener un papel importante en muchos campos diferentes.





 
 
 
 
    
                                                   LG OLED DE 55 PULGADAS.
 
 
LG ha lanzado un televisor OLED de 55 pulgadas (140cm), dando inicio a la batalla de la próxima generación de pantallas de alta calidad. Las pantallas OLED, que significa "diodos emisores de luz orgánicos", son más eficientes que las alternativas de plasma y LCD (pantallas de cristal líquido). El modelo de LG se venderá primero en Corea del Sur y, posteriormente, le seguirán otros mercados, incluyendo Europa.

Tanto LG como Samsung anunciaron las pantallas OLED de 55 pulgadas el año pasado, pero LG ha sido el primero en sacarlas al mercado. Las empresas presentaron sus televisores en la última Feria de dispositivos electrónicos de consumo, la Consumer Electronics Show, que tuvo lugar en enero del año pasado en Las Vegas, pero hasta ahora ninguna compañía había conseguido sacar un producto al mercado.

Esta ventaja inicial de LG sobre su rival le ha dado un impulso del 5,4% al precio de sus acciones. El televisor OLED 1080p (1920 x 1080 píxeles) se va a vender por 10.300 dólares. Según los analistas es poco probable que la tecnología se vuelva más asequible, al menos hasta el 2015; y consideran que el objetivo de su salida al mercado es más bien cimentar la posición de LG como líder del mercado.

Independientemente, según la firma de investigación DisplaySearch, se espera que las ventas globales de televisores OLED aumenten hasta 1,7 millones para el 2014.

Las pantallas OLED se han promocionado como sucesoras de las populares pantallas de cristal líquido (LCD). La tecnología permite visualizar unos negros más oscuros y profundos; y puede ser más delgada que los otros métodos de visualización con los que compite.

Las pantallas OLED más pequeñas ya se distribuyen en masa. Samsung utiliza la tecnología en sus teléfonos inteligentes y la consola portátil PlayStation Vita de Sony también utiliza esta tecnología delgada y ligera. Sin embargo, las pantallas OLED de mayor tamaño han resultado ser difíciles de fabricar debido, principalmente, a las restricciones de coste y fiabilidad. Otra tecnología conocida como 4K también ha recibido mucha atención por parte de los fabricantes. Apodada "Ultra HD", la tecnología 4K ofrece 8 millones de píxeles por frame (cuatro veces la resolución de las pantallas 1080p de alta definición), por lo que es especialmente adecuada para pantallas extra grandes. Se espera que se muestren modelos de 110 pulgadas (279cm) en la Feria CES de la próxima semana. Los actuales televisores 4K están basados en los LCD. Sin embargo, según algunos puristas, los OLED ofrecen una calidad de visualización más rica, por lo que podrían ser una mejor opción para las pantallas de 55 pulgadas.
 
 
 
 
 
 






                        PANTALLAS FLEXIBLES EN TABLETS Y SMARTPHONES.


Las pantallas flexibles son una pequeña variación de los actuales paneles de imagen que se venden comercialmente, con la peculiaridad de poder ser dobladas.
Las pantallas flexibles se anunciaron en 2009, en un principio eran destinadas para un uso militar, pero solo un año después, en 2010, la empresa japonesa Sony, consiguió realizar un prototipo de este tipo de pantallas.
El primer prototipo de Sony , disponía de una pantalla de 4,1 pulgadas de diagonal, y un grosor inferior al de un pelo humano. Este grosor posibilita y mejora la capacidad de flexión de la pantalla, dotándola de una torsión tal para ser enrollada en un lápiz. El prototipo implementó un panel de tecnología OLED (LED orgánico), que conseguía una calidad más que suficiente.
Después de este lanzamiento, otras multinacionales, como la surcoreana Samsung, han conseguido resultados similares a los de Sony, pero esto no fue hasta 2011. En este mismo año, la finlandesa Nokia, ha presentado al público un prototipo de reproductor multimedia que disponía de esta tecnología.







 
 
 
 
Facebook Phone.
 
 






Ex ingenieros de Apple han sido contratados por Mark Zuckerberg para dar vida al teléfono de Facebook, que los rumores sugieren, que llegará a las tiendas en 2013. De hecho, los rumores sobre un teléfono inteligente que llevaría la marca de la red social más popular del mundo allí desde finales de 2010 que cada año promete ser el año de su lanzamiento.
Pero, de nuevo, esto no debería suceder este año. Aunque las publicaciones de peso como The New York Times han propagado el rumor, diciendo incluso que Facebook también adquirió algunos software de Apple para esta empresa, Mark Zuckerberg, dijo él mismo a mediados de 2012 que la version del dispositivo aun No esta lista.
Por supuesto, no sería el primer caso en que un ejecutivo niega una versión que se confirmaría más tarde, pero tal vez no es realmente el momento para Facebook desde el mundo de los dispositivos, ya muy pobladas y lleno de gente. Recuerde también que la red social ahora se ha asociado con HTC, que produce dos modelos de servicios totalmente integrados creados por Zuckerberg.
 
 
 
 
 
 
 
 
 
 
                                                   APARATO APPLE TV.
 
Apple podría lanzar un televisor inteligente (que se llamaría iTV), todo el mundo ya lo sabe, algunos rumores incluso sugirieren que estos dispositivos ya se están generando en las fábricas de Foxconn en China.Pero, al parecer, tiene una pantalla inteligente de Apple no será posible en el corto plazo. No es que cualquier limitación que impida la propia empresa, sino todo lo contrario, ya que el presidente de Apple, Tim Cook, dijo el año pasado que este era “ un área de gran interés ”de la compañía de Cupertino.El principal obstáculo parece ser el mercado de la televisión por cable, un socio clave para llevar el contenido directamente a su TV, dándole un tono distintivo de otros televisores inteligentes. Dado que este es un mercado bastante cerrado y burocrático – y esto no debe cambiar a lo largo de 2013, Apple debería seguir negociando el decodificador de su televisor Apple, al menos por ahora.
 
 
 
 
 
 

                                                  
 
 
                                                            GOOGLE GLASS .
 
 
 
2013 tampoco será el año de las gafas de realidad aumentada de Google que fueron considerados por la revista Time como el mejor invento del año 2012 . Sin embargo, el dispositivo, que funcionaría como un ordenador de verdad ante sus ojos, probablemente no llegue en este año.

Además de las críticas con respecto a temas tales como la invasión de la privacidad, la seguridad de datos e incluso riesgos para la salud, todo lo relacionado con Google Glass, el dispositivo debe ser puesto en marcha y se accede inicialmente sólo por un público muy restringido también por precio. En junio de 2012, los rumores eran conscientes de que el kit “Explorer” costaría alrededor de $ 3000.
 
 
 
 
 
 
 
 
 
 

                                                     REALIDAD VIRTUAL .
 
 
 
No es de hoy que la realidad virtual habita en la imaginación humana, pero aún debe tomar un tiempo para que usted sea capaz de comprar un dispositivo que funciona con este tipo de tecnología. Aunque algunos proyectos en etapa más avanzada, como Glass Google.La cantidad de investigación en el área, e incluso la robustez de algunos proyectos creen que pronto este tipo de productos debe estar disponible en el mercado. Sin embargo, para asegurarse de que no va a suceder en 2013.
 
 
 
 
 
 
 
 
 
 
   CARGADORES WIRELESS DE BATERIAS EN LUGARES PÚBLICOS .
 
 
Recientemente, Nokia y HTC han lanzado teléfonos con soporte para la recepción de carga por inducción, un método que no requiere ningún cable conector para recargar la batería de su tableta o smartphone. La noticia refuerza la posibilidad de que esta práctica se convierte en una tendencia a estar disponibles en lugares públicos, como ya está ocurriendo con el internet inalámbrico.
Sin embargo, es poco probable que esto suceda ya en 2013, y en gran parte responsable de la demora es una “guerra de estándares” que se dibuja. Los teléfonos de Nokia y HTC usan el estándar Qi para la carga inalámbrica, sin embargo el móvil gigantes Samsung y Qualcomm llegaro a un acuerdo con el estándar AW4P (acrónimo de Alianza para el Wireless Power o en traducción libre, Alliance for Power Wireless).
Esto significa una cosa: las grandes compañías siguieron patrones distintos, que debe dejar los establecimientos que deseen ofrecer este tipo de servicio es un poco reacio a que uno elija. Hasta que se encuentre una solución al impase, cargue la batería de su dispositivo en un lugar público sin conectores será sólo una idea lejana.
 


 
 



 
 
 
 

jueves, 28 de febrero de 2013

FERIA TELEFÓNICA DE BARCELONA .

El Mobile World Congress (abreviado por sus siglas MWC) también conocido como World Mobile Congress (WMC) es un congreso de carácter anual en torno al mundo de la comunicación móvil, que actualmente se celebra en la Fira Barcelona de Barcelona, siendo el más importante de su sector. En este congreso sobre la tecnología global y la plataforma I+D para fomentar la colaboración internacional en las comunicaciones inalámbricas móviles. Fue fundado por el Delson Group Inc, y ahora fuertemente apoyado por autoridades de China e industrias principales.
El MWC/WMC suele ser el espacio donde se produce un mayor número de presentaciones de avances en comunicaciones inalámbricas y móviles. La cumbre ofrece una oportunidad única de ingenieros, científicos e inversionistas de las áreas de sistemas inalámbricos y aplicaciones móviles para mantener el dinero técnico, y conectar a la red con expertos principales globales y los ejecutivos en el 4G abren el movimiento móvil.
Se celebra en Barcelona desde el año 2006 y se seguirá celebrando ahí hasta el año 2018.