:::: MENU ::::
  • Suitable for all screen sizes

  • Easy to Customize

  • Customizable fonts.

Simple, responsive theme, suitable for personal or corporate blog.

lunes, 11 de diciembre de 2017

jueves, 7 de diciembre de 2017

Instrucciones: Imprima las imagenes y el contenido de ambos temas y pegarlos en su cuaderno.

Escritorio de Windows

El escritorio es la pantalla que ve después de iniciar sesión en Windows y es una de las características más importantes en el equipo.ipo.

Ventana de Windows


  1. BOTONES ATRÁS Y ADELANTE A: permiten navegar hacia atrás (a la carpeta de la que venimos) y hacia adelante (si hemos usado el botón atrás). También podemos utilizar la tecla de borrar situada arriba de ENTRAR para ir atrás.
  2. BARRA DE DIRECCIONES: Esta barra nos indica dónde estamos situados y qué otras carpetas están en el mismo nivel jerárquico.
  3. BARRA DE BÚSQUEDA: Este cuadro inicia la búsqueda de forma automática al escribir la primera letra, sin necesidad de pulsar en ningún botón. Busca en la carpeta en que estamos situados y en todas sus subcarpetas, si es que las tiene.
  4. BOTONES DE CONTROL: Permiten realizar cuatro (04) operaciones  básicas con la ventana del Explorador de Windows (Minimizar, minimizar tamaño,maximizar y cerrar ventana)
  5. BARRA DE MENÚS: Contiene todas las opciones disponibles, agrupadas en menús desplegables.
  6. BARRA DE HERRAMIENTAS: Nos permite acceder directamente a la opciones mas comunes del explorador de Windows.
  7. PANEL DE NAVEGACIÓN: En este panel sólo aparecen las unidades y carpetas, no archivos. Las vemos ordenadas jerárquicamente y distinguimos qué carpeta pertenece a qué otra, gracias a una leve tabulación a la derecha. Es decir, tiene estructura de árbol, con sus ramificaciones.
  8. ÁREA DE TRABAJO: Es el espacio que nos va a permitir realizar las operaciones con los archivos y/o carpetas; es decir, crear, modificar o eliminar.
  9. PANEL DE VISTA PREVIA: Nos muestra un vista preliminar del archivo seleccionado
  10. PANEL DE DETALLES: Esta barra nos permite visualizar la información del archivo o cartea seleccionado.




viernes, 1 de diciembre de 2017

1. Sistemas Operativos

Un Sistema Operativo (SO) es un programa (software) que después de arrancado o iniciado el ordenador se encarga de gestionar todos los recursos del sistema informático, tanto de hardware (partes físicas, disco duro, pantalla, teclado, etc.) como el software (programas e instrucciones), permitiendo así la comunicación entre el usuario y el ordenador.


Ejemplos de sistemas Operativos:

  1. Linux
  2. Ubuntu
  3. MacOS
  4. Android
  5. Windows NT
  6. Windows Server 2008
  7. Windows XP
  8. Windows Vista
  9. Windowz 8.1
  10. Windows 10



Evaluación de Sistemas operativos

  1. Desarrolle un resumen máximo de diez lineas en su cuaderno sobre los sistemas operativos y explique al final que experiencias a tenido usted usando la computadora.
  2. Cree un Álbum en su cuaderno de los 10 Sistemas Operativos anterior mente mencionado, escribe el nombre del sistema operativo, pega una imagen que represente su logo y una definición de tres lineas mínimo.

2. Hardware, Software 

¿Qué es el hardware?
El hardware es la parte que puedes ver del computador, es decir todos los componentes de su estructura física.
La pantalla, el teclado, la torre y el ratón hacen parte del hardware de tu equipo.

Hardware

¿Cuál es el software?
Estos son los programas informáticos que hacen posible la realización de tareas específicas dentro de un computador. Por ejemplo, Word, Excel, PowerPoint, los navegadores web, los juegos, los sistemas operativos, etc.


Evaluación de Hardware y Software

  1. Anote en su cuaderno el concepto de Hardware  y Software.
  2. Escribe en tu cuaderno la forma como haz utilizado un hardware y un software usando la computadora, celular u otro dispositivo.


3. Dispositivos de Entrada Salida y Almacenamiento


DISPOSITIVOS DE ENTRADA: Los dispositivos de entrada permiten introducir a la computadora dados en cualquiera de sus formatos(texto, sonido e imagen). unos de los ejemplos de los dispositivos de entrada son:

El teclado
El mouse
El jostick
La camara web
El micrófono
El escaner
Lapiz óptico
Dispositivos de entrada y de salida

DISPOSITIVOS DE SALIDA: Son los que permiten representar los resultados (salida) del proceso de datos. El dispositivo de salida típico es la pantalla o monitor. Otros dispositivos de salida son: impresoras (imprimen resultados en papel), trazadores gráficos (plotters), bocinas, entre otros.
Dispositivos de entrada y de salida

DISPOSITIVOS DE ALMACENAMIENTO: Son los dispositivos que sirven para almacenar información como usb, disco duro, dvd, CD el cpu etc. Que sirven como soporte o respaldo.

Evaluación de dispositivos de entrada, Salida y almacenamiento.

  1. Crea un trifolio usando tu creatividad sobre dispositivos de entrada, salida y almacenamiento.



Nota: todas las evaluaciones de cada tema serán revisadas el día que nos presentemos a clases.

Lic. Stanly Rodriguez.
Email: stanly25ro@gmail.com
www.stanlyroca.blogspot.com

domingo, 26 de marzo de 2017

viernes, 24 de junio de 2016

La evolución de la computación ya está aquí, el grafeno y la computación cuántica permitirán procesar en unos pocos segundos los amplios volúmenes de información que actualmente llevaría siglos archivar.
El poco entendimiento sobre el mundo de la física cuántica es el límite a los avances actuales en computación, la idea principal es la presencia de una misma partícula en dos sitios a la vez, y con solo mirar las partículas estas ya cambian su estado por lo cual su estudio no es para nada sencillo.

Si no mejoran las formas de trabajar en el desarrollo computacional, en poco más de 10 años ya no se podrán crear procesadores con mayor velocidad ya que será imposible crear transistores de menor tamaño.
La electrónica depende de los transistores, son a los dispositivos tecnológicos lo mismo que un ladrillo a un edificio. Con ellos se puede bloquear o habilitar el paso de la energía eléctrica. El desarrollo actual de nuevos procesadores depende de la posibilidad de incluir más transistores en un mismo espacio, y a su vez que estos sean viables económicamente.
¿Qué sucederá si llegamos a un límite en la producción de transistores? Allí aparece el grafeno, uno de los nuevos materiales que ganó el premio Nobel de física en 2010. Se trata de un supermaterial de hojas de carbono con el espesor de un átomo; tiene durabilidad, flexibilidad y una gran conductividad eléctrica.


Gracias a este material se podrán crear transistores más rápidos, pero hasta ahora ha sido muy complicado trabajar con el grafeno por su tamaño. Sin embargo esto está cambiando, científicos de la Univerisdad de Stanford ya crearon nanocables de grafeno utilizando ADN, ahora queda esperar que estas tecnologías se perfecciones y se hagan viables económicamente para realizar la producción masiva de transistores de grafeno. El Futuro está a la vuelta de la esquina.


¿Cómo es el material del Grafeno?

El grafeno es un material que combina una gran cantidad de propiedades que no se dan juntas en cualquier otro compuesto. ¿Qué significa esto? Que es capaz de mejorar por completo las condiciones de cualquier superficie donde se aplique.
Y es que es un material muy duro, resistente, flexible y muy ligero; lo que permite moldearlo según las necesidades de cada caso. Conduce muy bien tanto el calor como la electricidad; y permanece en condiciones muy estables cuando se le somete a grandes presiones.

Su futuro en terrenos como la medicina se presenta realmente prometedor. ¿Un ejemplo de en qué se podría usar? En las máquinas con las que se realizan las radiografías. Éstas funcionan mediante radiaciones ionizantes, unas formas de energía que hacen que los materiales que se encuentran a su alrededor se desgasten muy pronto. Pues bien, el grafeno ofrecería una duración casi infinita, por lo que la inversión que habría que realizar en la adquisición del material sería, a la larga, mucho menor.
Pero además, el grafeno es capaz de generar electricidad a través de la energía solar, lo que le convierte en un material muy prometedor en el campo de las energías limpias. Para que te hagas una idea de su potencial, si se construyeran con grafeno las placas solares, podrían generar varias veces más energía por hora que las actuales. ¿Será este material una de las herramientas necesarias para superar la crisis energética que previsiblemente se desatará cuando se agoten las reservas de petróleo?

¿Cómo se obtiene el Grafeno?

Llegados a este punto, seguramente te preguntarás por qué, si el grafeno tiene tantas cualidades y ofrece tantos beneficios, no se emplea para mejorar nuestra calidad de vida.
La respuesta es sencilla. Para que conserve todas sus propiedades, el mineral ha de ser de la mayor calidad posible. Con el método tradicional de obtención a base de deshojar el grafito con cinta adhesiva, se consigue grafeno de muy alta calidad, pero la cantidad producida es mínima y resulta insuficiente para  su uso industrial.

Por otro lado, el empleo de otros métodos para su obtención enfocados en aumentar la cantidad producida no consiguen un producto con la calidad suficiente.
Actualmente, se comercializa el grafeno bajo dos formas: En lámina y en polvo. ¿En qué se diferencian?
• Grafeno en lámina: es de alta calidad y se emplea en campos como la electrónica, la informática o incluso la aeronáutica, donde se requiere un material muy resistente. Su producción es actualmente muy costosa.
 Grafeno en polvo: se usa en aquellos ámbitos que no requieren de un material de alta calidad. Su proceso de obtención es más barato y permite una mayor producción del producto, pero renunciando a parte de sus propiedades.

El siguiente gran reto en la historia de este mineral es la búsqueda de un método de obtención que supere esta barrera. Diversos equipos de científicos en todo el mundo dedican sus esfuerzos a este fin y aunque los resultados obtenidos son prometedores, aún queda camino por recorrer.




Los autos voladores del futuro que creíamos que eran pura ciencia ficción de las películas parece que comenzarán a ser una realidad. Si bien no es el primer concepto de coche volador, el Aeromobil 3.0 ha sido anunciado que estará a la venta en el 2017, de acuerdo con su fabricante de origen eslovaco; el vehículo/aeronave puede conducirse en caminos normales y despegar desde una franja de pasto.

Años antes el Terrafugia Transition se había hecho de fama por ser uno de los primeros prototipos realizados físicamente, pero no llegaron a realizar producción para la venta al público. Finalmente, el tan esperado auto volador ya casi está aquí. AeroMobil, es una empresa eslovaca, la cuál planea comenzar a vender su creación denominada Aeromobil 3.0, en 2017.
Según el sitio web de la empresa, se dice que el vehículo volador se transforma en segundos de un automóvil a un avión utilizando la infraestructura existente creada para automóviles y aviones.
El vehículo funciona con gasolina y tiene alas que se pliegan, lo cual permite que se estacione como un auto, aunque a diferencia de un auto convencional, este tiene casi 6 metros de largo.
Además de otra información, en el sitio web de la compañía se presenta un vídeo en el que se puede ver al AeroMobil 3.0 como es conducido fuera de un hangar espacial y a través de una carretera, compartiendo el camino con automóviles normales hasta que llega a una pista de aterrizaje. El auto entonces despliega sus alas y despega desde un tramo de pasto, en lugar de una pista pavimentada y vuela como cualquier otro avión pequeño.



La empresa no se ha aventurado a decir algún precio, pues la producción aun no se pone en marcha. El prototipo es un trabajo en progreso, dijo Stefan Vadocz, portavoz de la empresa Aeromobil. Sin embargo, añadió que espera que el precio ronde los cientos de miles de euros, algo entre un auto deportivo y una aeronave deportiva ligera, un lujo exclusivo para algunas personas millonarias.
El vehículo tiene una capacidad para dos personas -el piloto y un pasajero- y su única hélice se encuentra en la parte trasera del coche/avión.
La velocidad máxima del vehículo en la carretera es de al menos 160 kilómetros por hora y durante el vuelo es de al menos 200 kilómetros por hora. Puede volar 700 kilómetros antes de quedarse sin gasolina, según datos informativos de la empresa.

El Aeromobil 3.0 tendrá una estructura de acero y revestimiento de carbono y es impulsado por un Rotax 912, un motor de avión de cuatro cilindros de la compañía austriaca BRP.
Aunque los autos voladores no son exactamente nuevos. El concepto ha existido desde mucho antes de que en la caricatura de Los supersónicos lo popularizaran en la década de 1960. Desde entonces ha sido un tema habitual en Popular Science desde que el piloto de la Primera Guerra Mundial Eddie Rickenbacker escribiera sobre él en 1924.


Pero hacer despegar un auto volador desde la tierra ha sido un serio desafío. Glenn Curtiss, un rival de los hermanos Wright, descubrió esto en 1918 cuando desarrolló el Curtiss Autoplane. Resultó ser más de saltador que volador, por lo que no logró posicionarse entre el público.

El AeroMobil 3.0 tiene al menos un competidor, el Terrafugia Transition, que también funciona con gasolina y tiene alas plegables. Terrafugia ha dicho que planea lanzar a la venta el Transition al mercado este año.

CHIC® SMART es un revolucionario dispositivo de movilidad personal inteligente desarrollado y patentado en colaboración con la facultad de ingeniería de la Universidad de Zhejiang, con número de patente 002597443-0002. Dispositivos de apariencia similar y dudosa procedencia comienzan a aparecer en el mercado violando los derechos de propiedad intelectual y comprometiendo la seguridad del usuario. Fuimos la primera compañía que comenzó a comercializarlos en España en Enero de 2015 y es la gama más alta en hoverboards del mundo. CHIC® SMART utiliza componentes de la máxima calidad y prestaciones, garantizando la seguridad del usuario y pasando los más estrictos controles de calidad. CHIC® SMART es distribuidor en España y dispone de un departamento de soporte técnico en el territorio Español.
CHIC® SMART es una nueva forma de entender los desplazamientos de cortas y medias distancias atendiendo al estilo de vida actual y movilidad urbana . Su batería SAMSUNG de Ión Lition se recarga en cualquier toma de corriente de nuestro hogar o centro de trabajo, siendo un dispositivo de movilidad totalmente sostenible y fácil transporte. CHIC® SMART es compatible con el transporte público o su propio vehículo gracias a su fácil portabilidad con solo 10Kg de peso y reducidas dimensiones.chic-smart-negro-peqestabilizadorCHIC® SMART utiliza la tecnología giroscópica más avanzada en dispositivos de autoequilibrio sintiendo la misma sensación que cuando estamos en el propio suelo. Los micro sensores de CHIC® SMART obedecen a nuestros movimientos al avanzar o retroceder con una ligera inclinación de nuestros pies o cuando queremos girar a la derecha o izquierda con un radio de giro cero. CHIC® SMART tiene una autonomía de 15-20 km y alcanza una velocidad máxima de 10 km/h. Incluso en pendientes de hasta 15 grados de inclinación.El tiempo de recarga de CHIC® SMART es de 3 horas a su máximo nivel y se carga en cualquier toma de corriente como un teléfono móvil. CHIC® SMART dispone de dos programas, iniciación y avanzado. Al activar el modo iniciación CHIC® SMART nos avisará con un pitido cuando lleguemos a la velocidad de 6km/h. Al activar el modo avanzado nos avisará cuando lleguemos a los 10km/h. CHIC® SMART está concebido para ser utilizado por cualquier persona a partir de 10 años de edad con supervisión adulta. En 5 minutos cualquier persona puede familiarizarse con CHIC® SMART y en 20 minutos desplazarse con total naturalidad.avanzar
imagen3

El centro de control de CHIC® SMART nos avisará cuando la batería está por encima del 50% de capacidad con una luz verde. Cuando la batería esté por debajo del 50% la luz del centro de control se volverá amarilla. Cuando la luz de CHIC® SMART se vuelve roja significa que hemos entrado en la reserva y debemos poner a cargar nuestro CHIC® SMART. CHIC® SMART viene equipado con un mando a distancia más uno de repuesto que bloquean CHIC® SMART dejandolo completamente desactivado cuando no lo estamos utilizando. En la caja de CHIC® SMART encontrará un cargador y un manual de usuario en Español con todas las características técnicas y de mantenimiento. CHIC® SMART es un vehículo sostenible, silencioso y respetuoso con el medio ambiente al no genera emisiones de CO2


SAMSUNG GALAXY S6 Y S6 EDGE

La penúltima maravilla tecnológica de Samsung se llama Galaxy 6 y viene acompañado de otro modelo denominado S6 Edge que se caracteriza por sus dos pantallas curvas en los laterales.
El Galaxy S6 salió a la venta allá por el mes de marzo de 2015 y ahora mismo sigue siendo uno de los teléfonos móviles punteros que hay en el mercado. Destacan, entre muchas otras cosas, su diseño y acabados de auténtico lujo en metal y aluminio, sus cámara delantera de 5 Megapixels y trasera de 16.
Otra de sus jugosas novedades seguro que agradan a los más jugones, y es que el Galaxy S6 también destaca por su pantalla QHD HD Super AMOLED y 5’1 pulgadas. Además, viene equipado con su propio dispositivo VR para disfrutar de la realidad virtual en cualquier lugar.
Sin duda, es uno de los móviles del momento.

LG G4



LG es otra de las marcas destacadas en los terminales de teléfono y sus dispositivos siempre están pugnando por ser los mejores del mercado. El LG G4 no es una excepción, ya que vuelve a estar entre los mejores teléfonos de gama alta que podemos tener, a un precio de unos 500 euros.
El LG G4 monta un procesador Snapdragon 808, tiene una pantalla de 5’5 pulgadas con una resolución de 2560 x 1440 píxels. Su cámara delantera es de 8 MP, mientas que la traser aes de 16 MP. Uno de los terminales más atractivos del momento, con el que podrás hacer todo lo que te imagines (o casi).

HTC ONE M9


Otro de los móviles más destacados del momento, aunque también es cierto que HTC lleva un tiempo arriesgando muy poco y presentando un modelo muy similar año tras año. Da la sensación de que van muy sobre seguro. A pesar de todo, es un muy buen teléfono, con cámara delantera de 4 MP y trasera de 20,7 MP. Su pantalla es de 5 pulgadas, con resolución de 1920 x 1080 pixels. Incorpora un procesador Qualcomn Snapdragon 810.
¿Su precio? Pues alrededor de los 500 euros.

SONY XPERIA Z3, Z3 COMPACT Y Z3+

La gama alta del Xperia de Sony ha vuelto a la carga con tres nuevos modelos, el Xperia Z3, el Z3 Compact y el Z3+.
Entre las mayores virtudes de la gama Z3 de Xperia podemos citar la gran resistencia a golpes, polvo o agua, una buena duración de la batería, la calidad del sonido de los altavoces y una de las mejores cámaras traseras de todo el catálogo de teléfonos móviles. Este móvil ya tiene un tiempo pero, a falta de que salga algo mejor, sigue siendo un móvil muy actual. 

NEXUS 5
El nuevo teléfono de Google lleva por nombre Nexus 5. Un smartphone que por lo visto cuenta ya con la nueva actualización del sistema Android, el nuevo Android 4.4 KitKat. Tiene pantalla de cinco pulgadas con resolución Full HD, con una cámara de ocho megapíxeles.
Piz Daint

El supercomputador Piz Daint está situado en el Swiss National Supercomputing Centre y fue inaugurado en abril de 2013, aunque solo unos meses después comenzarían sus actualizaciones y mejoras que han permitido que se doble su capacidad de cálculo. Piz Daint ha pasado de tener 12 cabinas de computadores a contar con 28, lo que ayuda a que su pico de rendimiento teórico se sitúe en los 7,8 petaflops."Piz Daint es el sexto superordenador más potente a nivel internacional"

Con estas mejoras, Piz Daint se ha convertido por derecho propio en el supercomputador más potente de Europa. Su rendimiento permite que el continente siga la estela de países como China, Japón y Estados Unidos, que encabezan la conocida lista Top500 de mejores supercomputadores del mundo.



Stampede

Stampede (estampida), fue construida por el Centro de Computación Avanzada de Texas (TACC por sus siglas en inglés) que forma parte de la Universidad de Texas en Austin, conjuntamente con Dell e Intel.

La computadora tiene varios miles de servidores “Zeus” de Dell, cada uno con 2 procesadores de 8 núcleos y cada uno con 32 Gigabytes de memoria. Además tiene 128 procesadores de video. En su pico la computadora tiene 10 petaflops, 272 terabytes de memoria y 14 petabytes de capacidad de almacenamiento. El sistema funciona con Linux.




JUQUEEN

JUQUEEN, en Alemania, es el primer supercomputador en Europa en llegar a 5 petaflops de rendimiento máximo de cómputo - aproximadamente el equivalente a la potencia de 100.000 PCs. Es un sistema abierto de estudio para la ciencia, que es parte de la infraestructura de investigación de la PRACE paneuropea, abre nuevas posibilidades de grandes descubrimientos científicos.




Vulcan

Vulcan en el Laboratorio Nacional Lawrence Livermore (LLNL) es un superordenador de 24-racks, 5 PFLOPS (pico), sistema Blue Gene/Q que estuvo disponible en 2013. Vulcan servía a proyectos industriales y de laboratorio a través del Centro de Innovación Computación de Alto Rendimiento de Livermore (HPC), así como a colaboraciones académicas en apoyo de las misiones del DOE/Administración Nacional de Seguridad Nuclear (NNSA).




SuperMUC

SuperMUC es una supercomputadora perteneciente al Centro Leibniz de Supercomputación (en alemán: Leibniz-Rechenzentrum, LRZ) situado en la ciudad deGarching, próxima a Munich. Su capacidad de procesamiento tiene picos superiores a 3Petaflops y su principal singularidad es su sistema de refrigerado con agua caliente.

SuperMUC tiene 18.432 procesadores Intel Xeon Sandy Bridge-EP montados en un sistema de servidores de IBM tipo System X iDataPlexde, equipado con 147,456 núcleos de procesador, que ofrecen en total una capacidad máxima de cálculo de algo más de 3 Peta flops(3 × 1015 FLOPS). La memoria principal tiene una capacidad de 288 terabytes (288 × 1012 bytes) a la que se añaden 12 petabytes (12 × 1015 bytes) de espacio de disco duro gestionados por el sistema GPFS (General Parallel File System, en inglés) de IBM.

Además, cuenta con un sistema de refrigeración desarrollado por IBM, denominado Aquasar, que utiliza agua caliente para enfriar los procesadores, y que permite reducir el consumo energético en refrigeración en un 40% comparándolo con un sistema tradicional de aire.



Looxcie, una cámara en tu oreja que se lleva bien con Android

Curioso cacharro el que saca la gente de Artiman Ventures al mercado, Looxcie casa a la perfección con la cultura de compartir en Internet que estamos viviendo. Nos encontramos con una cámara de vídeo diseñada para llevar en la oreja, que además se lleva bastante bien con terminales Android, gracias a la aplicación incorporada.
La comunicación entre Looxcie y nuestro teléfono Android se realiza mediante Bluetooth, con ello podemos conseguir dos funcionalidades a valorar en la compra: la primera y motivo de existencia del dispositivo es la grabación de vídeo, pudiendo utilizar la pantalla del móvil como visor de la cámara, además de poder compartir desde él los contenidos generados.
La segunda y no menos importante es que por los 200 dólares que cuesta el aparatito, también tenemos un manos libres Bluetooth convencional, bueno, todo lo convencional que puede ser tener un dispositivo tecnológico con este diseño en la cabeza.


Looxcie, grabando el pasado

El funcionamiento es sencillo, la cámara está constantemente grabando, si quieres que registre alguna escena sólo hay que pulsar sobre un botón debajo de la misma y tendremos una escena que comienza 30 segundos antes de que pulsáramos.
La aplicación Android que trae consigo se encuentra en fase beta, y nos permite, además de visualizar los contenidos y servir de visor, compartir los archivos por correo. Está dando bastantes problemas con el tamaño de los vídeos, y la compañía desarrolladora está trabajando en la integración con Facebook y YouTube en una próxima actualización.
Los medios que han probado Looxcie lo califican de confortable, ya que no cuenta con un peso ni tamaño exagerados, pero que si necesita de reajustes constantes en su utilización, ya que nuestro propio movimiento va cambiando el punto de enfoque original.



Terminando con las primeras impresiones, y como es previsible, la cámara funciona bastante mal en situaciones de poca luz, y debemos tener en cuenta que aunque esté situada a la altura de los ojos, el objetivo no capta exactamente lo que vemos, por lo que a veces nos llevamos la sorpresa de que algo se quedó fuera.


Definición de Nanotecnología

  Nanotecnología, es el estudio y desarrollo de sistemas en escala nanométrica, “nano” es un prefijo del Sistema Internacional de Unidades  que viene del griego νάνος que significa enano, y corresponde a un factor 10^-9,  que aplicado a las unidades de longitud, corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1 Nanómetro, la nanotecnología estudia la materia desde un nivel de resolución nanométrico, entre 1 y 100Nanómetrosaprox.  hay que saber que un átomo mide menos de 1 nanómetro pero una molécula puede ser mayor, en esta escala se observan propiedades y fenómenos totalmente nuevos,  que se rigen bajo las leyes de la Mecánica Cuántica, estas nuevas propiedades son las que los científicos aprovechan para crear nuevos materiales (nanomateriales) o  dispositivos nanotecnológicos, de esta forma la Nanotecnología promete soluciones a múltiples problemas que enfrenta actualmente la humanidad, como los ambientales, energéticos, de salud (nanomedicina), y muchos otros, sin embargo estas nuevas tecnologías pueden conllevar a riesgos y peligros si son mal utilizadas.

La siguiente imagen  muestra la unidad de medida de diversos sistemas,  y la escala a la que pertenecen (Nano o Micro).


Historia de la Nanotecnología

  

Uno de lo pioneros en el campo de la Nanotecnología es el Físico estadounidense Richard Feynman, que en el año 1959 en un congreso de la sociedad americana de Física en Calltech, pronunció el discurso “There’s Plenty of Room at the Bottom” (Hay mucho espacio ahí abajo) en el que describe un proceso que permitiría manipular átomos y moléculas en f
orma individual, a través de instrumentos de gran precisión, de esta forma se podrían diseñar y construir sistemas en la nanoescala átomo por átomo, en este discurso Feynman también advierte que las propiedades de estos sistemas nanométricos, serían distintas a las presentes en la macroescala.

 En 1981 el Ingeniero estadounide nse Eric Drexler, inspirado en el discurso de Feynman, publica en la revista  Proceedings of the National Academy of Sciences, el artículo “Molecular engineering: An approach to the development of general capabilities for molecular manipulation” en donde describe mas en detalle lo descrito años anteriores por Feynman.  El término “Nanotecnología” fue aplicado por primera vez por Drexler en el año 1986, en su libro “Motores de la creación : la próxima era de la Nanotecnología” en la que describe una máquina nanotecnológica con capacidad de autoreplicarse, en este contexto propuso el término de “plaga gris” para referirse a lo que sucedería si un nanobot autoreplicante  fuera liberado al ambiente.

Además de Drexler, el científico Japonés Norio Taniguchi, utilizó por primera vez el término nano-tecnología en el año 1974, en la que define a la nano-tecnología como el procesamiento, separación y manipulación de materiales átomo por átomo.


El rayo láser es un tipo especial de luz que posee unas características físicas especiales que permiten su uso en aplicaciones específicas. Aunque determinados modelos de generadores de rayos láser puedan quemar o fundir objetos, ésta no es la principal utilidad que se les puede dar. El láser se emplea como instrumento para transmitir información, para grabación y recuperación de datos, música e imágenes en los discos compactos, en giróscopos para aviones, para fabricación de circuitos integrados y en medicina como bisturí cauterizante.
La tecnología empleada en el diseño y construcción de dispositivos láser se basa en un fenómeno físico conocido como emisión estimulada de radiación. Este tipo de emisión fue enunciado por primera vez en 1916 por Albert Einstein, que definió las bases teóricas por las que se regiría dicha emisión.
Pero no fue hasta 1928 cuando se detectó la primera radiación de este tipo. Por aquella época todavía era considerada una curiosidad científica sin aplicación práctica.


El primer dispositivo que se construyó utilizando el concepto de emisión estimulada de radiación fue el máser (iniciales de «microwave amplification by the stimulated emisión of radiation» --«amplificación de microondas por la emisión estimulada de radiación»--). El sistema empleaba un haz de moléculas que se separaba en dos grupos, moléculas excitadas y moléculas no excitadas.
Las moléculas excitadas eran empleadas para emitir microondas en una cámara de resonancia diseñada para favorecer dicha emisión. Este máser fue diseñado y construido por Charles H. Townes, de la Universidad de Columbia, en 1953, aunque simultáneamente y de forma independiente, los doctores Aleksander M. Prokhorov y Nikolai Basov, del Instituto de Física Lebedev de Moscú, publicaron un estudio teórico de las condiciones requeridas para que un dispositivo de este tipo funcionara.
Una vez obtenido el máser, los físicos empezaron a estudiar el método de producir el mismo tipo de radiación estimulada en otras zonas del espectro, como la de la luz visible, cuyas aplicaciones prácticas fueran de interés. Charles H. Townes entró a trabajar en los laboratorios de investigación de la prestigiosa compañía Bell (después llamada AT&T) y junto con Arthur L. Schawlow publicó un documento en 1958 en el que definía las diferencias principales que tenían que existir entre un máser convencional y el que ellos denominaban «máser óptico».
Éste no era otro que el láser actual. Pero este nombre (iniciales de «light amplification by the stimulated emission of radiation» --«amplificación de luz por la emisión estimulada de radiación»--) le fue dado por Gordon Gould, estudiante de la Universidad de Columbia que hizo sus propios estudios independientes a la vez que Townes y Schawlow, en 1957.
Una vez establecidos los conceptos teóricos, se inició la carrera para construir el primer láser. Por un lado, Gould, en unión de una compañía denominada TRG, consiguieron un contrato del Pentágono para construir un láser con aplicaciones militares, mientras que Schawlow realizaba otras investigaciones por separado.
En ambos casos, se consideraba que el material base para producir la emisión estimulada de luz debía ser un gas. En cambio, Theodore H. Maiman, físico que trabajaba en los laboratorios de investigación de Hughes, empezó a trabajar con cristales de rubí sintéticos. Y en 1960 presentó el primer láser de la historia, que constaba de un cristal de rubí, que en sus dos extremos poseía espejos y que se activaba por medio de una lámpara de flash produciendo un fino haz de luz roja.
A partir de ese momento, el desarrollo del láser empezó a acelerarse vertiginosamente; el primer láser que empleaba gas (una mezcla de helio y neón) fue producido en 1960 por Ali Javan y dos compañeros de los laboratorios Bell. El año 1962 fue testigo de una carrera entre grupos de investigación de General Electric, IBM y de los laboratorios Lincoln del MIT (Instituto de Tecnología de Massachussetts) para producir un diodo láser, obteniendo los tres resultados casi simultáneamente. En 1964 se diseña uno de los láseres de potencia media más comunes a partir de entonces, el denominado Neodimio-YAG.
En las últimas décadas las investigaciones se centraron en el desarrollo de láseres de rayos X. Este tipo de dispositivos tienen aplicaciones principalmente militares, por lo que no se sabe mucho sobre su funcionamiento, aunque su característica más llamativa es que la fuente de excitación no es la luz de un flash o una descarga eléctrica, como en otros modelos, sino una explosión nuclear, ya que es la única fuente abundante y rápida de rayos X.


Ondas y partículas

Toda la materia se compone de átomos, que a su vez se componen de tres partículas básicas: electrones, protones y neutrones. Los electrones tienen una masa muy pequeña y carga negativa; los protones y neutrones poseen aproximadamente la misma masa, pero mientras los protones tienen carga eléctrica positiva, los neutrones no tienen carga. Cualquier elemento químico, hierro, oxígeno, carbono, etc. y los compuestos que se obtienen juntando estos elementos, están constituidos por combinaciones de estos tres tipos de partículas.
El concepto clásico de la física de partículas define, además de las tres partículas elementales que se acaban de citar, las ondas electromagnéticas. Dicho concepto define a las ondas como portadoras de energía que no poseen masa, sino una frecuencia de oscilación que varía en función de la energía que llevan; dicha dependencia se establece con la fórmula E = h · f, donde f es la frecuencia de la onda electromagnética, E la energía que lleva y h la denominada constante de Planck. Según esta concepción clásica, las ondas y las partículas se hallan perfectamente diferenciadas. La luz sería una onda, con una frecuencia muy elevada y sin masa. Esta diferencia dejó de existir con la aparición de la física cuántica, que definió la teoría onda-corpúsculo, unificando los dos conceptos.
Según la teoría onda-corpúsculo, toda partícula, independientemente de su tamaño y otras características físicas, puede considerarse como una onda electromagnética o como una partícula física. Por ejemplo, los electrones se difractan al pasar por una rendija de forma similar a la luz, pero también colisionan unos con otros como si fuesen partículas. Según la física convencional, la energía que lleva una partícula en movimiento, no sometida a ningún campo, es su energía cinética E = 1/2 m · v2. Igualando esta fórmula con la relación de Planck dada anteriormente, se establece una relación entre la masa, la velocidad y la frecuencia de la onda-corpúsculo, que es: m = 2 h f / v2.


La teoría también puede aplicarse a lo que convencionalmente se consideran ondas. La luz, por tanto, puede considerarse también una onda-corpúsculo. Como onda electromagnética posee las características físicas a que estamos acostumbrados, se difracta en las rendijas, unas ondas crean interferencias en otras, se difractan en los prismas, etc.
Si se considera a la luz como una partícula, se obtienen algunos resultados inesperados. Dicha partícula se denomina fotón, y en contra de la creencia habitual, tiene masa. Esta masa es muy pequeña, casi inmedible, pero físicamente es de gran importancia e incluso existen aplicaciones de los láser que se basan en dicha masa.


Emisión de luz por los átomos

Un átomo se compone de un núcleo formado por una agrupación de protones y neutrones y de un conjunto de electrones situados a cierta distancia alrededor del núcleo. Cada uno de estos electrones posee una energía que depende de su distancia al núcleo. Esta distancia posee una característica importante: está cuantificada. Esto significa que un electrón no puede estar situado a cualquier distancia del núcleo ni poseer cualquier cantidad de energía. En cambio existe una serie de niveles de energía y de orbitales permitidos que son los únicos en los que se puede hallar.

Para pasar de un nivel a otro más alto el electrón absorbe una cantidad fija de energía, que es la diferencia entre la energía que poseen los dos niveles. Cuando desciende de un nivel a otro más bajo, desprende la misma cantidad de energía que absorbería para saltar del más bajo al más alto.
Esta energía absorbida o emitida puede tener diversas representaciones, puede ser energía rotacional, al girar una molécula o átomo, energía vibracional de la partícula, que puede oscilar como un péndulo, o se puede presentar también como la absorción o emisión de un fotón, que es la que interesa para el funcionamiento del láser. El paso de un electrón de un nivel de energía inferior a otro superior se produce siempre que exteriormente reciba la suficiente energía.
El descenso de un nivel a otro inferior se realiza en condiciones normales espontáneamente sin ayuda externa, ya que el nivel más estable es el más bajo, desprendiéndose en el proceso la energía correspondiente a la diferencia entre los dos niveles. El único impedimento que puede existir para que un electrón descienda a un nivel inferior es que dicho nivel ya esté completo.
Para comprender el proceso se puede establecer una equivalencia con una serie de estantes colocados a distintas alturas y con pelotas en algunos de ellos. La pelota situada en el estante más inferior se quedará en él, ya que no puede bajar más, en cambio una pelota situada en un nivel más elevado tenderá a caer disminuyendo su energía.
Para pasar del estante inferior a uno superior es necesario subir la pelota, suministrándole una cantidad de energía que tendrá que ser la necesaria para cubrir la distancia entre los dos estantes. Si se le suministra menos energía, no podrá subir y se quedará en el mismo estante; si se le suministra más, sólo empleará la necesaria para alcanzar el estante superior.
Como ejemplo de dos transferencias de energía como las comentadas tenemos el de una bombilla normal. El flujo de electrones libres a lo largo del filamento transfiere parte de su energía de movimiento a los electrones de los átomos del material que constituye dicho filamento.
Esto ocasiona que salten a un nivel de energía superior, pero como ese nivel es inestable (ya que hay otro inferior) vuelven a bajar desprendiendo un fotón con la diferencia de energía existente entre los dos niveles.

Diferencias entre la luz normal y el rayo láser

Inicialmente se dijo que el láser es un tipo especial de luz. Las características que lo diferencian de la luz generada por las bombillas o por el Sol es que el rayo láser es un haz de luz monodireccional, monocromático y coherente. A continuación se explican los tres términos.
Una onda electromagnética se desplaza con una velocidad que depende del medio por el que viaje (en el vacío son 300 000 kilómetros por segundo, pero en otros medios es más lenta) y con una dirección fija. Pero un emisor de luz, como una bombilla o un láser, no emite una sola onda, sino millones de ellas, pudiendo tener todas la misma dirección, como sucede en el láser, o tener cada una dirección distinta, que es el caso de la bombilla.
En este caso la luz es omnidireccional, se transmite en todas direcciones, mientras que la del láser es monodireccional, va en una sola dirección.
El segundo término de la definición es monocromática. Significa que todas las ondas tienen la misma frecuencia, y por tanto el mismo color, ya que el color de una luz depende de su frecuencia. En una bombilla normal, el filamento está compuesto de múltiples átomos y moléculas distintos, y por tanto la energía que se absorbe y desprende en forma de fotones puede adoptar muchos valores.
Según la fórmula de Planck dada anteriormente (E = h · f) la frecuencia del fotón depende de su energía, por lo que al variar la energía, variará la frecuencia emitida. Como resultado se obtiene que la luz desprendida por la bombilla posee múltiples frecuencias que dependen del filamento empleado.

 n un láser, la luz la produce un gas o un sólido muy purificados, o un sólido con estructura cristalina; en ellos todos los átomos poseen los mismos niveles energéticos, por lo que todos los fotones generados poseen la misma energía y frecuencia.
Aparte de los láseres, existen otros sistemas de producción de luz monocromática, como las lámparas de descarga que emplean gases purificados, pero carecen de las otras dos características, monodireccionalidad y coherencia.
El último término es coherencia. Toda onda electromagnética, por su propia naturaleza de señal alterna, cambia constantemente de valor, variación que normalmente tiene forma de curva senoidal. La parte de la curva senoidal en que está la onda en un momento dado y en una posición dada se denomina fase. Tomando dos ondas de la misma dirección y frecuencia, normalmente cada una estará en una fase distinta.
Una, por ejemplo, puede hallarse en un máximo y la otra en un mínimo, en cuyo caso se anularían, o una con un valor instantáneo cero y la otra con un valor de 3/4 del máximo. También puede darse la situación en la que ambas señales tengan la misma fase y por tanto los mismos valores siempre, con lo cual el efecto resultante a escala macroscópica es similar a una onda con el doble de tamaño.
En la luz normal las ondas no se hallan en fase, y gran parte de la energía que llevan se pierde al anularse unas señales con otras. En cambio, en el láser todas las ondas tienen la misma fase, por esta razón se dice que es un haz coherente y la energía obtenida es la máxima posible, al no anularse ninguna onda.

Emisión estimulada de luz

Al explicar las interacciones entre fotones y átomos, se comentó la absorción de la energía de un fotón por un electrón y la emisión espontánea de energía por un electrón en forma de fotón. Existe una tercera interacción que es la emisión estimulada de fotones.

Ésta se produce cuando al lado de un electrón que se halla en un estado excitado, es decir, con una energía superior a la normal, pasa un fotón con una energía igual a la que posee el electrón excitado. Este paso del fotón «estimula» al electrón a pasar al nivel inferior de energía y a liberar un fotón con la misma dirección, frecuencia (ya que posee la misma energía) y fase que el fotón que estimuló la emisión, con lo cual ya hay dos fotones iguales.

Este tipo de emisión no se produce en condiciones normales. Cuando un electrón es excitado, vuelve muy rápidamente a su nivel normal. Este hecho, unido a que la energía recibida del exterior no suele ser lo suficientemente elevada como para proporcionar energía para todos los electrones del material, hace que haya más electrones en estado de reposo que excitados.

Todo fotón que entra tiene más posibilidades de encontrar un electrón en reposo que le absorba. En cambio, la posibilidad de encontrar uno excitado para originar una emisión estimulada es muy pequeña. La poca emisión estimulada que se produce se absorbe por otros electrones en reposo, anulándose dicho efecto.

La diferencia entre la luz producida por una emisión espontánea de un electrón que no necesita estímulo y una emisión estimulada, es que esta segunda genera un haz coherente.

En una emisión espontánea el electrón emite el fotón en un momento cualquiera, y los fotones no tienen por qué estar en fase, ni moverse en la misma dirección. En la emisión estimulada, el fotón incidente obliga a que se conserve la dirección, la frecuencia y la fase.


A call-to-action text Contact us