24
Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología. Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable. Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590. El arte de la computadora muestra un nano tubo convertido en anillo. La Nano- litografía es un método usado para crear tableros de circuitos El poder de la información

revista traducida

Embed Size (px)

DESCRIPTION

traducida sobre tecnologia

Citation preview

Page 1: revista traducida

Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la

técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología.

Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el

fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un

microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos

son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de

la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha

permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de

nano escala como la materia programable.

Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.

El arte de la

computadora

muestra un nano

tubo convertido en

anillo. La Nano-

litografía es un

método usado para

crear tableros de

circuitos

El poder de la información

Page 2: revista traducida

Nanotubos de Carbono (1991)

En 1991 el físico Japonés Sumio Lijuma

descubrió los nanotubos de carbono,

considerado uno de los más importantes

descubrimientos en la historia de los físicos.

Los nanotubos pueden ser construidos por

un método de evaporación en arco, en el

cual una corriente de 50 amp pasa en

medio de dos electrodos de grafito en

helio. Los resultados son notables a la

medida de 3 a 30 nanómetros en diámetro.

Una de la más impresionante propiedad de

los nanotubos de carbono es su fuerza. Su

resistencia a la presión es 5 veces que la del

metal, y su fuerza de tensión está 50 veces

arriba que la del metal. Los nanotubos de

carbono pueden ser también usados como

semiconductores. Algo de la conductividad

de los nanotubos es más grande que la del

cobre, por ejemplo.

Científicos e ingenieros están buscando

maneras de usar los nanotubos en la

construcción industrial tanto como en

aplicaciones aeroespaciales.

Hoy en día, las pantallas de paneles planos

y algunos microscopios y aparatos sensibles

incorporan nanotubos de carbono. En el

futuro muchos artículos diarios desde los

chips de las computadoras de los hogares

hasta las baterías de los autos podrían ser

hechos de nanotubos de carbono.

Los nanotubos

de carbono

están hechos

Page 3: revista traducida

WORLD WIDE WEB (1990)

El ancho mundo de la web a cambiado vidas

desde siempre conectando computadoras a

través del mundo, de esta manera haciendo

toda la información y su contenido al alcance

para todos. Además el termino ancho mundo

de la web e internet son usados como

intercambiables, pero no son lo mismo. El

internet es el sistema que conecta las redes de

información esa es la red. Es posible tener

internet sin la red pero la red no puede existir

sin el internet.

El internet empezó en 1962 como ARPANET,

una red de dos computadoras adquiridas por el

ejército de estados unidos. La red creció con

más de un millón de computadoras para 1992.

En 1990 el científico británico Tim Berners –lee

invento la web, eso es el primer buscador de

web y páginas web con el cual accedes vía

internet, páginas web con hipertexto- texto

desplazado en un monitor con hiperconectores

a otros documentos- en un monitor.

Un mapa global

de la internet

mostro una red

extensa para la

búsqueda de

hoy

Page 4: revista traducida

4 BUCKYBALL (1985)

A principios de 1965 científicos predijeron la

teoría existente de una molécula hecha de

múltiples átomos de carbón en forma de esfera

o cilindro. Pero 20 años más tarde Richard

Smalley y otros profesores de Houston, Texas y

profesores de Sussex, Inglaterra se centraron en

el láser, ellos generaron imitando

simétricamente y geométricamente, en esta

notable semejanza hicieron construcciones de

ángulos. El arquitecto R. Buckminster llamo al

nuevo kminsterfullerene o buchyball para

acortarlo. El recibió el premio novel en 1996.

Cada fullerene tenía tecnología implicada en

moléculas. Análisis de buckyball hiso entender

la manipulación de hojas conductoras de calor y

materiales de silicón basado en dispositivos

como computadoras, celulares y eléctricos

similares.

El material también exhibe increíble resistencia

a la tracción así prometiendo nuevas

posibilidades en arquitectura, ingeniería y

diseños de avión.

En 1991 un investigador japonés Sumio Lijima

descubrió un oblond versión de el buckyball

últimamente llamado nanotubo, estimulando la

revolución de la nanotecnología del siglo 21

Page 5: revista traducida

5 Sistema Posicionamiento Global

(1978)

Localizado 12000 millas Tierra morada y

viajando a una velocidad 7.000 millas por hora, el sistema de navegación basado en satélite fue lanzado en 1978 por el Departamento de EE.UU. de Dfense con fines militares. Poco después, los manofactures de equipos GPS reconocido su potencial de mercado masivo para su uso como una aplicación civil. El departamento de Defensa cumplido con su solicitud en la década de 1980. GPS, que es extremadamente preciso, funciona según el principio de triangulación, en la que la posición de un objeto determinado (una persona en un coche, por ejemplo) está determinada por la distancia del objeto desde cuatro satélites de la red con un dispositivo está

comunicando. La red GPS se compone de 24 satélites, con 3 de reserva en caso de fracaso, y cada satélite realiza dos vueltas completas alrededor del planeta cada día. Entonces, ¿qué significa el futuro del GPS parece? Sin duda, la red son cada vez más

precisos y proporcionar información cada vez más de grano fino a en un lugar determinado. Los conductores todavía tienen que quitar los ojos del camino para mirar el dispositivo GPS, pero que mi cambio. Una compañía llamada Haciendo Solida Virtual está trabajando en una solución llamada Virtual Cable, el cual está diseñado para ser construido en el parabrisas de un coche. La línea roja que aparece a seguir el guía del conductor de su destino.

Page 6: revista traducida

LACOMPUTADORA PERSONAL (1997)

De acuerdo a la compañía Nielsen, en 2008,

más del 80 por ciento de las familias de E.U

tenían una computadora en casa, y de estas,

cerca del 90 por ciento tenían acceso a

internet. Ya sea uno de los primeros modelos –

como el Commodore PET (Muy popular en las

escuelas en la década de 1970). La Apple II

(Uno de los primeros microcomputadores de

producción masiva) y la IBM PC (Diseñada para

reemplazar los primeros dos dispositivos en los

hogares)- O lo ultimo y lo mejor en maquinas,

todas las computadoras tienen los mismos

componentes básicos. Una computadora está

construida con una tarjeta madre (Mother

Board), un procesador, una unidad central d

procesamiento (CPU), memoria, controladores,

un ventilador y cables. Agregados a la

computadora están los periféricos: el ratón,

teclado, monitos, bocinas, impresora, escáner y

más. Estos componentes trabajan juntos para

correr software: el sistema operativo y

programas adicionales, tales como el

procesador de textos, las hojas de cálculo, o un

programa editor de fotografías.

Con la computadora personal, la tecnología de

la computación ha llegado a estar disponible al

público en general. Las computadoras han

dejado de ser grandes, o piezas de equipos

demasiado costosos solo grandes corporaciones

o agencias gubernamentales pueden pagar o

computadoras que solo los científicos pudieran

operar. Este significante desarrollo ha permitido

el nacimiento de nuevas industrias, ha

cambiado el cómo la gente se comunica e

irrevocablemente ha alterado su trabajo y vidas

personales.

6

Page 7: revista traducida

A diferencia de la realidad virtual, cual está basado

en un ambiente generado por computadora, el

aumento de realidad está diseñado para aumentar el

mundo real, con la súper presentación en audio,

visual, y otros elementos de tus sentidos.

El investigador de Boeing Tom Caulled fue el primero

en acuñar el término de aumento de realidad en

1990 para describir la explosióndigitalusada por los

electricistas de las aerolíneas, cual combina graficas

virtuales con la realidad física. Pero el concepto es

mucho más antiguo que eso. En la película Quien

engaño al conejo Roger de 1988, es un buen ejemplo

de esta tecnología- y originalmente antes en una

versión simple en las demostraciones de las flechas

amarillas de los anunciadores de la televisión en los

juego de futbol americano cuando analizaban las

jugadas.

El aumento de realidad actualmente está dirigido al

desarrollo de consumo de electrónicos porque esta

es usada en las aplicaciones the Smartphone. Una

aplicación llamada Layar usa la cámara de un celular

y las capacidades de un GPS para obtener la

información de los alrededores de una área. Layar

entonces muestra la información de ciertos sitios

cercanos, como restaurantes o cines, entonces

aparece información de estos en la pantalla del

celular. Apunta el celular hacia unaedificación y Layr

te dirá si en esaedificaciónestán contratando o

localiza edificios históricos en la enciclopedia en

línea Wikipedia.

Hay algunas limitaciones para el aumento de

realidad que actualmente existen; el sistema GPS

tiene solo un rango de 30 pasos, las pantallas de

celular son pequeñas, y haytambién unos

entendimientos en las cláusulas de privacidad,

especialmente la tecnología afecta más y más

nuestras vidas. Sin embargo, el futuro de estas

tecnologías es brillante, con ambición pronto será

usado para los videos juegos, la educación,

seguridad, medicina, negocios y otras áreas.

AUMENTO DE REALIDAD

Page 8: revista traducida

Aprende más

Como subtítulos en una página, realmente

puede proporcionar antecedentes y

explicaciones, tales como una biografía

del arquitecto Frank Gehry cuando visitó

sus edificios firmados.

Oriente y navegar

Los sistemas de posición global

permite marcar geográficamente la

ubicación de las personas notifica en

momentos y luego los alrededores de

las parcelas y los senderos.

Haz decisiones

Considera opciones y haz decisiones

virtualmente. Aquí, galerías son

representadas por imágenes de

museos conservados, como Richard

Serra’s “La materia del tiempo”.

(Illustrado)

Usa un teléfono

inteligente para

visualizar entradas

conectadas a un

lugar actual, tales

como el museo

Guggenheim

Bilbao, y puedes

descargar

información.

Page 9: revista traducida

ELECTRONICA MOLECULAR

(1974)

Como su nombre implica, la electronica

molecular se refiere al uso molecular de

componentes para la construccion de

dispositvos electronicos. Desde que los

quimicos, Mark Ratner and Ari Aviram

crearon el primer

dispositivo electrónico molecular

rectificado en 1974, los cuales se

convirtieron de corriente alterna a

corriente directa. Los científicos tuvieron

que continuar en avanzar juntos y

entender de la ciencia y sus

aplicaciones potenciales. Muchos

investigadores han trabajo para

reemplazar semiconductores en todas

sus aplicaciones con los interruptores

moleculares electrónicos

Algunas compañías están preparadas

para insertar interruptores en las

computadoras y en dispositivos

electrónicos manufacturados. Un

ejemplo es en Huntsville, Alabama

basada en la compañía llamada

CALMEC el cual ha creado un

dispositivo molecular, este dispositivo

puede ser usado en semiconductores

electrónicos el cual permiten que sea

monitorizada a tecnología más de lo

que es en día.

El metal oro es

depositado en agua para

formar circuitos

electrónicos para los

dispositivos mecánicos

micro electrónicos

(MEM).

Page 10: revista traducida

Teléfonos celulares (1973)

s difícil decir qué es más omnipresente en

el mundo de hoy ordenador personal o el

teléfono celular, que fue inventado en

1973 por Martin Cooper cuando era el

director de investigación y desarrollo de

Motorola.

Una célula es en realidad una radio si bien

de manera muy sofisticada. se trata de un

dispositivo de full-duplex significa que dos

frecuencias diferentes se utilizan para

hablar y escuchar. Las Comunicaciones se

produce en los canales de los que se

cuenta en medio de celda de teléfono más

que 1650 en un teléfono celular típico

Netwok un vehículo que proporciona el

servicio de teléfono móvil se le asigna

frecuencias 800 se dividen intohexagonal

unidades llamadas células cada célula

contiene alrededor de diez millas

cuadradas. Cada célula de su propia

estación base y la torre. Tanto los teléfonos

celulares y las torres celulares tienen

transmisores de baja potencia en los

mismos.

el teléfono y la torre utilizar una frecuencia

especial para comunicarse entre sí (si esta

frecuencia no se puede encontrar un "fuera

de rango" o "no servicio" mensaje aparece

en la pantalla del teléfono) como una

persona que llama utiliza el teléfono y

películas desde un célula a otra, la

frecuencia se pasa de una célula a la

siguiente. el portador mantiene la

frecuencia necesaria para comunicarse con

la persona en el otro extremo y controla

continuamente la intensidad de la señal. si

la persona que llama se mueve de una red

de transportistas de otro, la llamada no será

dado de baja de la mandíbula, pero las

personas que llaman pueden dejar que se

vean las tarifas de itinerancia en su factura.

Los primeros celulares tenían una primera

celda voluminosa y tenía antenas Los

primeros teléfonos móviles eran

voluminosos y tenían antenas (a la

izquierda).

E

10

Page 11: revista traducida

Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que comenzócomo una colaboración entre academia, gobierno e industria en los últimos años de los 60´s y losprimeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura. El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete deswitch”, que contiene la información en unidades especialmente formateadas o paquetes, que estándirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete contiene lainformación de la dirección que identifica al remitente y al destinatario. Usando estas direcciones, la red el trabajo y los enrutadores determinan la mejor manera de transferir el paquete entre ambos puntos enel camino para su llegada. En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de red

de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este concepto,diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran, y la red detrabajo funciona junta a través de esta arquitectura. De esta manera, las redes de trabajo actúan demanera semejante en una unión que ofrece un servicio de principio a fin. Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet oTCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como elsistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o documento enpaquetes más pequeños que son transmitidos a través del Internet y el IP lee la dirección de cadapaquete de manera que obtiene el correcto destino. Cada computadora en la red checa esta direcciónpara determinar de donde es el mensaje.

<<HECHO: Se estima que arriba de 2 billones de personas en el mundo

ingresaron a Internet en el 2011.

Un mapa del uso

del Internet muestra la

densidad de

conexiones en Norte

América y Europa.

Page 12: revista traducida

Por el año 1959 el objetivo de crear dispositivos más inteligentes estaba en las mentes de científicos y investigadores, y ellos hicieron algunos progresos. Por ejemplo, inventores desarrollaron motores que eran sobre el tamaño de un dedo. Richard Feynman, profesor de física del instituto de tecnología de california , ambicionaba en extremo hacer grandes avances. En la noche del 29 de diciembre de 1959, el dio su nuevo famoso discurso de nanotecnología en el evento para la sociedad de físicos americanos. En su discurso, titulado “hayun montón de espacio en la parte inferior”el describió la habilidad para escribir la enciclopedia británica entera en la cabeza de un código usando herramientas y maquinas del tamaño de un átomo. La visión de nanotecnología de Feynman consideraba que tiene muchas aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada célula viva de un organismo contenía toda la información genética necesaria para crear ese organismo. Esta fue la evidencia de la que almaceno más cantidades de información por minuto de objetos como fuera posible.

EL PODER DE LA INFORMACION

NANOTECNOLOGIA (1959)

Los vidrios resistentes al fuego contienen una capa de

nanopartículas de sílice con paneles que ayudan a resistir

temperaturas de hasta 1800° F. por más de 2 horas.

Page 13: revista traducida

Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy endía, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo.Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntospara regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integradostienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo “n” trabaje y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo eslento e inefectivo. En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron esteproblema usando el mismo material para instruir ambos, el circuito integrado y el chipcolocado.

Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estoscircuitos pueden ser hechos más pequeños y el proceso manual puede ser automático.(Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci originaltenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique den adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones detransistores.) En 1961 el primer circuito integrado comercialmente disponibles fue integrado fueintroducido y los productores de computadoras inmediatamente vieron la ventaja queofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cualtomo un CI un paso adelante para posicionar la unidad de proceso central de lacomputadora memoria y controles de entada y salida con un pequeño chip.

<< HECHO: La invencion de los semiconductores en 1911 allanaron

el camino para el desarrollo de los circuito

CIRCUITOS INTEGRADOS (1958)

Page 14: revista traducida

En el pasado, la computadora era tomada en una infraestructura física: rutas, enlace de datos, hardware y servidores. Estos objetos aun no desaparecen- y no parece que vayan a desaparecer al mismo tiempo- pero el proceso de entrega de fuentes y servicios se transforma en un modelo en donde el internet es usado para almacenar las aplicaciones necesarias. Un inmediato beneficio de este modelo es un costo menos elevado. Por ejemplo, las compañías no comprarían licencias de software individual a cada empleado. Con ´´nubes de informática´´, una simple aplicación daría a múltiples usuarios un acceso remoto a software. La dirección de un servidor, como Gmail de google, es un ejemplo de computación en las nubes. Para entender el concepto de computación en las nubes, ayuda a pensar en los términos de las capas. Los principios de un proceso que es visto e interactuado por los usuarios con- la cuenta de Facebook, por ejemplo. El final de un proceso consiste en la arquitectura de que corre la interface del software y el hardware hacia el primer proceso. Porque las computadoras son establecidas en una red, las aplicaciones pueden tomar ventaja de todas las combinaciones de cableado como si estuvieran conectadas a una maquina en particular. Mientras hay ventajas de este modelo, no existe sin inconvenientes. Privacidad y seguridad son dos de

las más grandes preocupaciones. Después de todo, la compañía permite importante, datos potentemente sensibles que están en línea, donde en teoría, nadie puede accesar a ellos. Las compañías que proveen servicios de ‘’ nubes de informática’’, sin embargo, son altamente motivadas para garantizar su privacidad y seguridad- su reputación está estancada. Una autenticación del sistema de seudónimos y contraseñas u otras autorizaciones para los empleados ayudaría a asegurar la privacidad. · 3 las aplicaciones de computación en las nubes, por definición, en las redes de todo el mundo. · 6 la computadora personal es el significado por el cual la mayoría de gente accesa a la nube. · 8 la clave pública criptográfica enlaza el cifrado electrónico transmitido para la información privada. · 11 el internet es la fundación de computación en las nubes que permite a los usuarios a correr aplicaciones en otras computadoras tanto como en casa.

NUBES DE

INFORMATICA Visitar sitios web de

medios sociales tales

como Facebook,

Twiter, Flickr, o el

disparo de National

Geographic (en la

imagen) y puedas

entrar en la nube.

Page 15: revista traducida

·

15 Teoria de la Informacion (1948)

eoría de la información tiene su origen en un documento de 1948 por el ingeniero americano matemático Claude Shannon: "La teoría matemática de comunicación esta

teoría permite que la información en un mensaje a ser cuantificados, usando como bits de datos que representan uno de dos estados: Dentro o fuera de. También dicta cómo codificar y transmitir información en la presencia de "ruido". Genérale puede corromper un mensaje en el camino. en el oído de la teoría de Shannon es el concepto de incertidumbre. La mayor incertidumbre que hay con respecto a lo que es la señal. La más vista de información tiene la obligación de asegurarse de que la información esencial se transmite. Shannon llamó a esta incertidumbre-medida basada entro de información. Que matemáticamente probado que una señal puede ser codificado-reducido a su forma más simple. Eliminando de este modo la interferencia o ruido para transmitir un mensaje claro y sólo el mensaje. Aunque hay siempre una posibilidad de error en transmisión, la aplicación de la teoría de la información ampliamente minimiza esa posibilidad. A través de teoría de la codificación, una rama

importante de la teoría de la información, los

ingenieros de estudiar las propiedades de los

códigos para el diseño eficiente propósito de,

por datos fiables la eliminación de redundancia

y los errores en los datos transmitidos. Tiene

dos características principales.

Codificación de fuente es un intento para

comprimir los datos de una fuente con el fin de

transmitir los datos de forma más eficiente en

una fuente con el fin de transmisión de los datos

de manera más eficiente (si alguna vez ha

"comprimido" en un archivo para enviar a

alguien). Codificación de canal añade bits de

datos extra para hacer la transmisión de datos

más resistentes a las perturbaciones presentes

en el canal de transmisión.

>>HECHO, la teoría de la información se desarrolló a

partir de Shannon deseo de aclarar el "ruido" en las

conversaciones telefónica

T

Page 16: revista traducida

EL PODER DE LA INFORMACION

TRANSISTOR (1947) Transistor es un tipo de semiconductor, sin que módem dispositivos electrónicos -.

Incluyendo ordenadores-no podría funcionar Aunque hay varios tipos diferentes de

transistores, todos contienen una pieza sólida de material semiconductor, con al menos

terminales que se pueden conectar a un dispositivo externo transferencias circuito.

Actuales de la tecnología a través de un material que normalmente tiene una

resistencia alta (en otras palabras, una resistencia): por lo tanto, es una resistencia de

transferencia, acortado a transistor.

Antes de la introducción del transistor, los ordenadores operados por medio de tubos

de vacío, que eran voluminosos y caros para producir. Los ordenadores más potentes

contenían miles de ellos, por lo que los primeros ordenadores llena habitaciones

enteras. estadounidenses John Bardeen y Walter Brattain en los Laboratorios Bell

observó que cuando los

contactos eléctricos se aplicaron a un cristal de germanio, la energía generada fue

mayor que la potencia utilizada. Americano William Shockley, también físico, vio el

potencial en esto, y en los meses el equipo ha trabajado para ampliar su conocimiento

de los semiconductores, en 1956, los tres hombres ganó el premio Nobel de Física por

la invención del transistor.

¿Por qué es tan importante el transistor a la electrónica moderna? entre otros

beneficios, que pueden ser producidos en masa usando un proceso altamente

automatizado para una adición cost.in relativamente bajo. Transistores se puede

producir por separado o, más comúnmente, empaquetado en circuitos integrados con

otra componentes para producir circuitos electrónicos completos.

16

Page 17: revista traducida

EL PODER DE LA INFORMACION

Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur C. Clarke hizo una contribución significante a las tecnologías de la comunicación. En octubre de el esquematizó su concepto de satélites de comunicación geoestacionario en un documento titulado “Relevancia Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el primero en popularizarla. El término geoestacionario se refierea la posición de la órbita del satélite alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten regularmente a través de puntos específicos. Cuando esa orbita regular yace cerca del Ecuador y es circular, es llamado: geoestacionario Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en sus orbitas. Las antenas no enviadas son más baratas que las antenas enviadas, así que el costo de operación

como un sistema, son reducidos. Las desventajas: Porque los satélites están tan altos, las señales de radio tardan un poco para ser recibidas y transmitidas, resultando en un pequeño pero significante retraso. En adición, estos satélites tienen cobertura geográfica incompleta porque las estaciones terrestres a mayor una mayor altura más o menos 60º de latitud tienen dificultad …..a elevaciones bajas. Independientemente de las desventajas, no se puede negar que las comunicaciones satelitales han revolucionado áreas como las comunicaciones globales, radiodifusión televisiva y predicciones de clima, y tienen defensa importante y aplicaciones de inteligenci

SATELITES DE COMUNICACIÓN (1945)

PODER DE LA INFORMACION

Page 18: revista traducida

EL PODER DE LA INFORMACIÓN

18 Radio Ondas (1888)

l físico escocés James Clerk

Maxwell fue uno de los primeros en

scientissts especulan sobre la

naturaleza del electromagnetismo.

Las ecuaciones que formuló describir el

comportamiento de los campos eléctricos y

magnéticos, así como sus interacciones

con la materia. Maxwell teoría de que los

viajes campos eléctrico y magnético a

través espacio vacío, en el de las olas, a

una velocidad constante. También propuso

que las ondas de luz y las ondas de radio

son dos formas de radiación

electromagnética.

En 1888, el alemán Heinrich Hertz pysicist

se convirtió en la primera persona de

demostrar la teoría de Maxwell ¨ s

satisfactoriamente cuando demostró la

existencia de ondas de radio, Hertz hizo

esto bulding un dispositivo capaz de

detectar muy alta frecuencia y ondas de

radiofrecuencia iltrahigh. Ha publicado sus

trabajos en un libro titulado

Ondas eléctricas: ser investigaciones sobre

la propagación de la acción eléctrica con

velocidad finita a través del espacio.

Estos experimentos ampliado

considerablemente el campo de la

transmisión electromagnética, y otros

científicos en el campo futher

eventualmente desarrolló la antena

receptora Hertz.

hertz también encontraron que las ondas

de radio podría ser transmitido throungh

diferentes tipos de materiales ans se

reflejaron por otros. Este descubrimiento en

última instancia condujo a la invención del

radar. Su incluso allanó el camino para la

comunicación inalámbrica, aunque él nunca

reconoció ese importante aspecto de sus

experimentos.

En reconocimiento a sus contribuciones, la

designación hertz tiene la abeja una parte

oficial del sistema métrico internacional

desde 1933, es el término que se utiliza

para las unidades de radio y frecuencias

eléctricas.

E

>> HECHO: Las ondas de radio han ayudado a desarrollar este tipo de

dispositivos inalámbricos como teléfonos y teclados de computadora.

Obra representa los

picos y los valles de

radio olas

Page 19: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

Inventor Thomas Edison fue el primero en diseñar e implementar la generación de energía eléctrica y la distribución a los hogares, negocios y fábricas, un hito clave en el desarrollo de la palabra industrializada moderna. Edison patentó este sistema en 1880 con el fin de sacar provecho de su invención de la lámpara eléctrica-no era nada si no es un astuto hombre de negocios. El 17 de diciembre de 1880, se fundó la Edison Illuminating Company, con sede en Pearl Street Station en New York City. El 4 de septiembre de 1882, Edison encendió el sistema eléctrico de potencia de su estación Pearl Street generadora de distribución, que proporcionan 110 voltios de corriente directa a cerca de 60 clientes en el Bajo Manhattan. Aunque Edison perdió la llamada guerra de las corrientes que siguieron-con la consecuencia de que la corriente alterna se convirtió en el sistema a través del cual se distribuye la energía eléctrica, su sistema de distribución de energía sigue siendo importante por varias razones. Estableció el valor comercial de dicho sistema, y que ayudó a estimular los avances en el campo como ocupación valiosa. Por ejemplo, el ingeniero eléctrico americano Charles Proteus Steinmetz, a través de su trabajo en corriente alterna, hizo posible la expansión de la industria de la energía eléctrica en los Estados Unidos mediante la formulación de teorías matemáticas para ingenieros que diseñaban motores eléctricos para su uso en la industria.

>>HECHO: El sistema electrónico de poder de los estados unidos es el

más largo en el mundo.

A GRAN ESCALA DE LA RED

(1880)

Page 20: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

LÓGICA BOOLEANO (1854)

La operación de las computadoras está

basada en una cosa:

Determinar si una puerta o cambio está

abierto o cerrado, lo cual es usualmente

señalado por los numero 0 y 1. Esta es la

esencia de la Lógica Booleano que subraya

toda la informática moderna. El concepto

fue llamado después por el matemático

ingles George Boole, quien definió un

sistema de lógica algebraica en 1854. La

motivación de Boole para crear esta teoría

fue su creencia de que los símbolos de la

operación matemática podrían estar

separados de esas cantidades y podrían

estar tratadas como distintos objetos de

cálculo.

Cercano al siglo siguiente, Claude Shannon

demostró que los circuitos eléctricos con

transmisiones eran modelos

perfectos para la lógica de

Boolean, un hecho que

permite el desarrollo de la

computadora eléctrica.las computadoras

usan la lógica de Boolean para decidir si

una declaración es verdadera o falsa ( esto

tenía que ser con una evaluación, no

verazmente). Estas son tres puertas básicas:

Y, O Y NO. La operación Y dice que si

solamente todas las entradas están

encendidas las salidas estarán encendidas.

La operación O dice que si alguna entrada

está encendida la salida estará encendida.

La operación NO dice que las salidas

tendrá un estado opuesto al de la entrada.

0: ABIERTO

1: CERRADO

La tradición algebraica en lógica,

desarrollado por el matemático ingles

George Boole (anteriormente). Hoy

encontramos esta aplicación den varios

tipos de tomas de daciones

HECHO.: aunque inventada en el siglo XIX, las formas lógicas de Boolean las

bases de la mayoría de las investigaciones de internet del siglo XXI.

Page 21: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

Materia programable, que se introdujo por primera vez por el Instituto de Tecnología de Massachusetts (MIT) por los investigadores Tommaso Toffoli y Margolus Norman en un documento de 1991, se está convirtiendo rápidamente en una realidad, aunque a una escala relativamente pequeña. Materia programable es materia que puede simular o formar objetos diferentes como resultado de la entrada del usuario o en sus propios cálculos. Alguna materia programable está diseñada para crear formas diferentes, mientras que en otro asunto, como células biológicas sintéticas, están programadas para funcionar como un interruptor genético que se activa e indica a otras células a cambiar propiedades como el color o la forma. Los posibles beneficios y aplicaciones de la materia programable-en particular, la posibilidad de usarla para realizar el procesamiento de información y otras formas de computación- han creado un gran entusiasmo en el mundo de la investigación. Desde la publicación del documento de Toffoli y Margolus, se ha hecho mucho

trabajo para cumplir el potencial que predijeron. En 2008, por ejemplo, la Corporación Intel anunció que sus investigadores habían utilizado la materia programable para desarrollar los primeros prototipos de un dispositivo móvil en la escala de centímetro y milímetro. En 2009, el Departamento de Defensa de la Agencia en Defensa Avanzada de Proyectos de Investigación de los EE.UU. informó que cinco equipos de investigadores diferentes de la Universidad de Harvard, el MIT y la Universidad de Cornell están haciendo progresos en la investigación de la materia programable. En 2010 uno de estos equipos, dirigido por Daniela Rus, del MIT, ha anunciado su éxito en creación de hojas de origami auto-plegables. La Agencia en Defensa Avanzada de Proyectos de Investigación ha creado esperanzas para aplicaciones futuristas del concepto. Sus miembros imaginan, por ejemplo, un soldado equipado con un cubo de material ligero programable que podría convertirse, en el lugar, en casi cualquier cosa que él o ella necesite.

Diseños como el origami conducen proyectos en micro y hasta nano escala.

Page 22: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

22

Diferencia del

motor (1822)

harles Babbage, Inglés, matemático e, filósofo, inventor e ingeniero mecánico, se dio

cuenta en 1822 que el motor de corto plazo podría ser programado con las tarjetas de

papel de que almacenan información en las columnas que contienen patrones de agujeros

perforados. Babbage vio que una persona puede programar una serie de instrucciones por medio

de tarjetas perforadas, y la máquina automáticamente podría llevar a cabo esas instrucciones. El

uso previsto de motor de diferencia Babbages fue calcular diversas funciones matemáticas, tales

como logaritmos. A pesar de que nunca fue terminado, se considera uno de los primeros

ordenadores de propósito generales encuentros digitales.

>>HECHO: En 2011 los investigadores británicos comenzaron a

construir el motor diseñado por Babbage, pero nunca avía

construido construido.

C

Page 23: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

NUMEROS BINARIOS / CÓDIGO

BINARIO (1697) En 1670 el filósofo y matemático alemán Gottfried

Wilhelm Leibniz, cuya realización se incluyen la invención del

cálculo y muchos avances importantes en las matemáticas, la

lógica y la ciencia inventada y máquina aritmética que podría

multiplicar y sumar. Leibniz también vio cómo se máquina

podría ser modificado para utilizar un sistema binario de

cálculo, un concepto que está en el corazón de la computación

digital.

En el sistema de Leibniz, el término binario se refiere a un

sistema de número por el que todos los valores se expresan

con los números 1 y 0. El sistema binario puede entenderse mejor mediante su comparación con

la base actual sistema de 10, cosa que expresa los números del 0 al 9 utilizando. En la base 10, el

número 367, por ejemplo, representa 3 x 100 + 6 x 10 +7 x. Cada posición en el numeral 367

representa una potencia de diez, a partir de cero y el aumento de derecha a izquierda. En el

binario, o base 2, un sistema, cada posición representa una potencia de dos. Así, en binario, 1101

representa 1 x 23 + 1 x 22 + 0 x21 +1 x 20 , cosa que es igual 8+ 4+ 0+ 1, o 13.

23

NÚMEROS

Page 24: revista traducida

DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES

EL PODER DE LA INFORMACIÓN

Moderno número Sistema (800)

E

l sistema de numeración hindú-árabe

sobre la que se basa el sistema de numeración módem se desarrolló probablemente en el siglo IX por los matemáticos indios, adoptadas por el matemático persa Al-Khwarizmi y matemático árabe Al-Kindi, y se extendió a todo el mundo Westem por la alta Edad Media. Las características del sistema de numeración módem son los conceptos de valor relativo y valores deciman. El sistema de valor posicional indica que el valor de cada dígito en un número de varios dígitos depende de su posición. Tome el número 279, por ejemplo. De acuerdo con el sistema de valor de posición, el 2 representa las decenas, y el 9 representa unos. Así, el número aparece como 279. Mientras tanto, el sistema decimal relacionada presenta números en incrementos de diez. En otras palabras, cada valor de posición es diez veces el

valor del lugar antes de ella. El sistema decimal matemáticos permite realizar operaciones aritméticas con números altos que de otro modo sería muy engorroso de manipular.

Ordenadores hacer uso de la sistema de

numeración posicional. Ya que un equipo

utiliza una pequeña cantidad de

memoria.Para almacenar un número,

algunos números son demasiado grandes o

demasiado pequeños para ser

representado. Que es donde números de

punto flotante vienen pulg punto decimal

puede "flotar" en relación con los dígitos

significativos en un número. Por ejemplo,

una representación de punto fijo que tiene

siete dígitos decimales con dos cifras

decimales pueden representar los números,

12345,67 123,45, 1,23, y así

sucesivamente, mientras que la misma

representación de coma flotante también

puede representar a 1,234567, 123456,7,

0,00001234567, y así sucesivamente.

24