48
NOMBRE DE LA MATERIA: Manejo de sistemas operativos. NOMBRE Y NÚMERO DE EVIDENCIA: Evidencia #3 RA1.1 NOMBRE DEL ALUMNO: Huerta Avalos Ricardo Ulises. NÚMERO DE MATRICULA: 111690101-6. GRADO: 3 semestre. GRUPO: F. AULA: 13. CARRERA: Informática. OBJETIVO DE LA EVIDENCIA: el contenido de la información de la actividad que nos calificara FECHA DE PETICIÓN DE LA EVIDENCIA: 16 de agosto del 2012 FECHA DE ENTREGA DE EVIDENCIA: 30 de agosto del 2012 FIRMA DE ALUMNO: FIRMA DEL PADRE O TUTOR: ____________________ ____________________

Estructuración física y funcional de un sistema informático

Embed Size (px)

Citation preview

Page 1: Estructuración física y funcional de un sistema informático

NOMBRE DE LA MATERIA: Manejo de sistemas operativos.

NOMBRE Y NÚMERO DE EVIDENCIA: Evidencia #3 RA1.1

NOMBRE DEL ALUMNO: Huerta Avalos Ricardo Ulises.

NÚMERO DE MATRICULA: 111690101-6.

GRADO: 3 semestre.

GRUPO: F.

AULA: 13.

CARRERA: Informática.

OBJETIVO DE LA EVIDENCIA: el contenido de la información de la actividad que nos calificara

FECHA DE PETICIÓN DE LA EVIDENCIA: 16 de agosto del 2012

FECHA DE ENTREGA DE EVIDENCIA: 30 de agosto del 2012

FIRMA DE ALUMNO: FIRMA DEL PADRE O TUTOR:

____________________ ____________________

Page 2: Estructuración física y funcional de un sistema informático

INTRODUCCIÓNEl manejo de sistemas operativos es un programa que hace entre el usuario y el hardware de un computador. El propósito es de entregar las evidencias acerca de la materia manejo de sistemas operativos que esto nos muestra algunos contenidos de la actividad de evaluación, este contenido muestra de la realización de su estructura sobre el hardware y software también acerca de información almacenada mostrando algunos puntos importantes, tomar las reglas de seguridad, observar el interno de la protección para prevenir algunos daños que puede ocurrir en tu equipo.

Del contenido vendrás instrucciones o puede ser información requerida para el manejo de sistemas acerca del hardware y software del sistema.

Mostrando como descripción acerca de los elementos básicos sobre hardware y software, administrando en la computadora con el programa sobre las acciones que se de aplicación.

En el programa de estudios nos va a mostrar cada detalle sobre las medidas e información que se requiere en una computadora sobre la base del programa, también proporcionar la facilidad de entender un programa. De que los usuarios se comuniquen con la computadora.

Apoyar con otros programas de que nos proporciona el servicio del hardware y software para también guardar archivos importantes.

Existe de que podemos manejar matemáticas de la computadora en que esto nos permite como una clave de como se desarrolla el trabajo con las instrucciones que nos indica.

Page 3: Estructuración física y funcional de un sistema informático

UNIDAD DE APRENDIZAJE

Estructuración física y funcional de un sistema informático.

PROPÓSITO DE LA UNIDAD

Realizar la estructuración física y funcional de los sistemas informáticos, software e información almacenada considerando sus características, medidas de seguridad y protección en el entorno físico.

RESULTADO DE APRENDIZAJE

Identifica los sistemas informáticos y la forma de codificar datos, a partir de sus análisis.

Actividades de evaluación

1.1.1- Realiza la descripción técnica de los elementos básicos de hardware y software en un

sistema informático y la organización del soporte mediante distintos sistemas de almacenamiento de la información.

Page 4: Estructuración física y funcional de un sistema informático

Contenidos

A) Descripción de un sistema informático.

Un sistema informático es el conjunto de hardware, software y de un soporte humano. Un sistema informático típico emplea una computadora que usa dispositivos programables para capturar, almacenar y procesar datos. La computadora personal o PC, junto con la persona que lo maneja y los periféricos que los envuelven, resultan de por sí un ejemplo de un sistema informático.

Desarrollo de sistemas informáticos

Los sistemas informáticos pasan por diferentes fases en su ciclo de vida, desde la captura de requisitos hasta el mantenimiento. En la actualidad se emplean numerosos sistemas informáticos en la administración pública.

Estructura

Los sistemas informáticos suelen estructurarse en Subsistemas.

Subsistema físico: asociado al hardware. Incluye entre otros elementos la CPU, memoria principal, la placa base, periféricos de entrada y salida, etc.

Subsistema lógico: asociado al software y la arquitectura. Incluye al sistema operativo, el firmware, las aplicaciones y las bases de datos.

Clasificación

Los S.I. pueden clasificarse en base a numerosos criterios. Por supuesto las clasificaciones no son estancas y es común encontrar sistemas híbridos que no encajen en una única categoría.

Por su uso pueden ser:

De uso general. De uso específico.

Por el paralelismo de los procesadores, que puede ser:

SISD: Single Instruction Single Data SIMD: Single Instruction Multiple Data MIMD: Multiple Instruction Multiple Data

Por el tipo de ordenador utilizado en el sistema

Estaciones de trabajo (Workstation) Terminales ligeros (Thin clients) Microordenadores (por ejemplo ordenadores personales)

Page 5: Estructuración física y funcional de un sistema informático

Miniordenadores (servidores pequeños) Macroordenadores (servidores de gran capacidad) Superordenadores

Por la arquitectura

Sistema aislado Arquitectura cliente-servidor Arquitectura de 3 capas Arquitectura de n capas Servidor de aplicaciones Monitor de teleproceso o servidor de transacciones

• Informática

El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957. Pronto, adaptaciones locales del término aparecieron en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las computadoras para almacenar y procesar la información. Es una contracción de las palabras information y automatik (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación.

Se define informática como: Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

Sistemas de tratamiento de la información

Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Proceso: tratamiento de la información. Salida: transmisión de resultados.

Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en fase o desfase (ver periférico de entrada).

Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada.

Page 6: Estructuración física y funcional de un sistema informático

• Sistema informático.

Un sistema informático como todo sistema, es el conjunto de partes interrelacionadas, hardware, software y de recurso humano (humanware) que permite almacenar y procesar información. El hardware incluye computadoras o cualquier tipo de dispositivo electrónico inteligente, que consisten en procesadores, memoria, sistemas de almacenamiento externo, etc. El software incluye al sistema operativo, firmware y aplicaciones, siendo especialmente importante los sistemas de gestión de bases de datos. Por último el soporte humano incluye al personal técnico que crean y mantienen el sistema (analistas, programadores, operarios, etc.) y a los usuarios que lo utilizan.

− Hardware y software.

Hardware: corresponde a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.[1] Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora”. El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica un reproductor multimedia posee hardware (y software).[

Software: Se conoce como software[] al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El anglicismo "software" es el más ampliamente difundido, especialmente en la jerga técnica, el término sinónimo "logical", derivado del término francés "logiciel", es utilizado en países y zonas de habla francesa.

− Redes de computadoras

Una red de computadoras también llamada de red de ordenadores, red de comunicaciones o de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, electromagnéticas o cualquier

Page 7: Estructuración física y funcional de un sistema informático

otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo general de estas acciones. Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

Historia

El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primera PC. A mitad de la década de 1980 las PC comienzan a usar los módems para compartir archivos con otras computadoras, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL.

Componentes básicos de las redes

Para poder formar una red se requieren elementos: hardware, software y protocolos. Los elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su intercomunicación.

El fin de una red es la de interconectar los componentes hardware de una red , y por tanto, principalmente, las computadoras individuales, también denominados hosts, a los equipos que ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea (internet, Wi-Fi, Bluetooth, etc.)

Page 8: Estructuración física y funcional de un sistema informático

• Información

La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

Para Gilles Deleuze, la información es el sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas trasmitidas.

Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del ente que posee dicha información con su entorno.

Información en la sociedad

En las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razón el estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesión de diferentes informaciones.

Principales características de la información

En general la información tiene una estructura interna y puede ser calificada según varias características:

Significado (semántica): ¿Qué quiere decir? Del significado extraído de una información, cada individuo evalúa las consecuencias posibles y adecúa sus actitudes y acciones de manera acorde a las consecuencias previsibles que se deducen del significado de la información. Esto se refiere a qué reglas debe seguir el individuo o el sistema experto para modificar sus expectativas futuras sobre cada posible alternativa.

Importancia (relativa al receptor): ¿Trata sobre alguna cuestión importante? La importancia de la información para un receptor, se referirá a en qué grado cambia la actitud o la conducta

De los individuos. En las modernas sociedades, los individuos obtienen de los medios de comunicación masiva gran cantidad de información, una gran parte de la misma es poco importante para ellos, porque altera de manera muy poco significativa la conducta de los individuos. Esto se

Page 9: Estructuración física y funcional de un sistema informático

refiere a en qué grado cuantitativo deben alterarse las expectativas futuras. A veces se sabe que un hecho hace menos probables algunas cosas y más otras, la importancia tiene que ver con cuanto menos probables serán unas alternativas respecto a las otras.

Vigencia (en la dimensión espacio-tiempo): ¿Es actual o desfasada? En la práctica la vigencia de una información es difícil de evaluar, ya que en general acceder a una información no permite conocer de inmediato si dicha información tiene o no vigencia. Esto tiene que ver con la sincronización en el tiempo de los indicios que permiten revaluar las expectativas con las expectativas en un momento dado.

Validez (relativa al emisor): ¿El emisor es fiable o puede proporcionar información no válida (falsa)? Esto tiene que ver si los indicios deben ser considerados en la revaluación de expectativas o deben ser ignorados por no ser indicios fiables.

Valor (activo intangible volátil): ¿Cómo de útil resulta para el destinatario?

− Tipos.

- Información interna

todos los datos y contenidos necesarios para llevar a cabo UN proyecto, así como las informaciones relativas a la propia empresa que se ponen en conocimiento de todo el equipo. Debido a la composición variada de la empresa, podríamos establecer diversos estratos de información interna, algunos más genéricos y evadibles, otros más estratégicos y delicados.

- Información privada

Es la información que no puede ir más allá de las personas que deban manejarla. Datos concretos sobre nuestra contabilidad, nuevas ideas en fase de definición, negociaciones en marcha, datos internos de clientes, filtraciones y rumores no propagables, etc.

Las personas que acceden a esta información tienen un alto grado de confianza y de responsabilidad. Almacenar y transmitir esta información de forma cifrada es una precaución sencilla que nos puede ahorrar grandes disgustos.

− Características

Exactitud: En este sentido la información debe reflejar el evento al cual se refiere y su sistema de medición expresado con poca variabilidad.

Objetividad: La información debe ser el producto de criterios establecidos que permitan la interpretación en forma estandarizada por diferentes personas en circunstancias diversas de tiempo y lugar.

Válida: Se refiere a que la información ha de permitir medir en forma precisa el concepto que se

Page 10: Estructuración física y funcional de un sistema informático

estudia, con criterios uniformes.

Continuidad: La información ha de ser generada en forma permanente de tal manera que exista la disponibilidad de los datos a través del proceso de vigilancia.

Completa: Debe contener todos los datos y variables previamente establecidas para cumplir con su finalidad Oportuna: La información debe generarse y notificarse a la par con los acontecimientos de tal manera que permita la toma de decisiones y la actuación inmediata

Comparable: que permita ser confrontada con datos similares.Intelectual en su esencia, es decir, la información: crea y recrea el mundo de las ideas, a través del tiempo y del espacio; transmite esas ideas a nuestra mente y construye, así, poco a poco, el “contenido” de nuestro intelecto: el conocimiento. Novedosa: deberá transmitir algo nuevo, algo no conocido hasta entonces; no será información si la idea ya es conocida por el investigador.

Facilita la actividad humana: disminuye la incertidumbre, al proporcionar nuevos conocimientos; facilita, por tanto, la toma de decisiones.

B) Identificación de sistemas operativos.

Se aplica a: Windows Vista

Al planear la migración, debe identificar qué configuraciones del sistema operativo desea migrar y hasta qué punto desea crear un nuevo entorno estándar en cada uno de los equipos. Con USMT se pueden migrar las configuraciones seleccionadas y mantener los valores predeterminados del resto. Las configuraciones del sistema operativo son:

Apariencia. Se compone de elementos como el papel tapiz, los colores, los sonidos y la ubicación de la barra de tareas.

Acción. Con elementos como la velocidad de repetición de las teclas, la apertura de una nueva ventana o no al hacer doble clic en una carpeta, y si es necesario hacer clic o doble clic en un elemento para abrirlo.

Internet. Se trata de la configuración con la que se puede conectar a Internet y controlar el funcionamiento del explorador. Incluye elementos como la URL de la página principal, los favoritos, los marcadores, las cookies, la configuración de seguridad, las conexiones de acceso telefónico y la configuración del proxy.

Correo electrónico. Incluye la información necesaria para conectarse con el servidor de correo electrónico, el archivo de firma, las vistas, las reglas de correo electrónico, el correo local y los contactos.

Para decidir qué configuración va a migrar tenga en cuenta cualquier experiencia de migración anterior así como el resultado de todas las encuestas y pruebas realizadas. También debería tener en cuenta el número de llamadas al servicio de soporte técnico relacionadas con la configuración del sistema operativo que tuvo en el pasado y que puede llegar a tener en el futuro. Decida también de cuánta funcionalidad del nuevo sistema operativo desea beneficiarse.

Page 11: Estructuración física y funcional de un sistema informático

• Definición

El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.

En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.

Clasificación de los Sistemas Operativos

Los sistemas operativos pueden ser clasificados de la siguiente forma:

Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.

Multiprocesador: soporta el abrir un mismo programa en más de una CPU. Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multigrado: Permite que diversas partes de un solo programa funcionen al mismo tiempo. Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y

UNIX, no funcionan en tiempo real.

Cómo funciona un Sistema Operativo

Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.

Cómo se utiliza un Sistema Operativo

Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.

Page 12: Estructuración física y funcional de un sistema informático

Ejemplos de Sistema Operativo

A continuación detallamos algunos ejemplos de sistemas operativos:

Familia Windows

Windows 95 Windows 98 Windows ME Windows NT Windows 2000 Windows 2000 server Windows XP Windows Server 2003 Windows CE Windows Mobile Windows XP 64 bits Windows Vista (Longhorn)

Familia Macintosh

Mac OS 7 Mac OS 8 Mac OS 9 Mac OS X

Familia UNIX

AIX AMIX GNU/Linux GNU / Hurd HP-UX Irix Minix System V Solaris UnixWare

Page 13: Estructuración física y funcional de un sistema informático

Sistema operativo monousuario

Un sistema monousuario es es un sistema operativo que sólo puede ser ocupado por un único usuario en un determinado tiempo. Ejemplo de sistemas monousuario son las versiones domésticas de Windows. Administra recursos de memoria procesos y dispositivos de las PC'S

Es un sistema en el cual el tipo de usuario no está definido y, por lo tanto, los datos que tiene el sistema son accesibles para cualquiera que pueda conectarse.

En algunos sistemas operativos se accede al sistema por medio de un usuario único que tiene permiso para realizar cualquier operación. Este es el caso de los sistemas operativos más antiguos como MS-DOS y algunos más recientes como la serie Windows 95/98/Me de Microsoft o MacOS (antes de MacOS X) de Macintosh. En estos sistemas no existe una diferenciación clara entre las tareas que realiza un administrador del sistema y las tareas que realizan los usuarios habituales, no disponiendo del concepto de multiusuario, un usuario común tiene acceso a todas las capacidades del sistema, pudiendo borrar, incluso, información vital para su funcionamiento. Un usuario malicioso (remoto o no) que obtenga acceso al sistema podrá realizar todo lo que desee por no existir dichas limitaciones.

− Procesadores

Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaremos darles una idea de sus características principales.

Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino "Pentium", por razones de mercadeo.

Inicios

Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zoket o zócalo de la placa-base o (madre) (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A

Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la

Page 14: Estructuración física y funcional de un sistema informático

cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altaír, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de miles de unidades en lo que suponía la aparición de la primera computadora que la gente podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios como son: Pentium, Pentium II, Pentium III y Pentium IV , AMD tiene el AMD586, K5 y el K6. Los 586 (Pentium) ya son prácticamente obsoletos.

− Multitarea

La multitarea es la característica de los sistemas operativos modernos de permitir que varios procesos sean ejecutados al mismo tiempo, compartiendo uno o más procesadores.

Tipos de multitarea

Cooperativa

Los procesos de usuario son quienes ceden la CPU al sistema operativo a intervalos regulares. Este tipo de multitarea es muy problemático, puesto que si el proceso de usuario se interrumpe y no cede la CPU al sistema operativo, todo el sistema quedará trabado, es decir, sin poder hacer nada. Da lugar también a latencias muy irregulares, y la imposibilidad de tener en cuenta este esquema en sistemas operativos de tiempo real. Un ejemplo sería Windows hasta la versión 2000.

Preferente

El sistema operativo es el encargado de administrar el/los procesador(es), repartiendo el tiempo de uso de este entre los procesos que estén esperando para utilizarlo. Cada proceso utiliza el procesador durante cortos períodos de tiempo, pero el resultado final es prácticamente igual que si estuviesen ejecutándose al mismo tiempo. Ejemplos de sistemas de este tipo serían Unix y sus derivados (FreeBSD, Linux), VNS y derivados, AmigaOS, Windows NT.

Real

Solo se da en sistemas multiprocesador. Es aquella en la que varios procesos se ejecutan realmente al mismo tiempo, en distintos microprocesadores. Suele ser también preferente. Ejemplos de sistemas operativos con esa capacidad: variantes Unix, Linux, Windows NT, Mac OS X,

− Multiusuario

La palabra multiusuario se refiere a un concepto de sistemas operativos, pero en ocasiones también puede aplicarse a programas de computadora de otro tipo (e.j. aplicaciones de base de datos) e incluso a sistemas de cómputo. En general se le llama multiusuario a la característica de un sistema

Page 15: Estructuración física y funcional de un sistema informático

operativo o programa que permite proveer servicio y procesamiento a múltiples usuarios simultáneamente, estrictamente es pseudo-simultáneo (tanto en paralelismo real como simulado).

En contraposición a los sistemas monousuario, que proveen servicio y procesamiento a un sólo usuario, en la categoría de multiusuario se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten los mismos recursos. Actualmente este tipo de sistemas se emplean especialmente en redes, pero los primeros ejemplos de sistemas multiusuario fueron los centralizados, que los usuarios compartían a través del uso de múltiples dispositivos de interfaz humana (e.j. una unidad central y múltiples monitores y teclados).

Los recursos que se comparten son, normalmente, una combinación de:

Procesador. Memoria. Almacenamiento secundario (en disco duro). Programas. Periféricos como impresoras, plotters, escáner, etc.

De tal modo que múltiples usuarios utilizan una única computadora, comparten programas y usan un sistema operativo unificado, que les están dedicados por completo; teniendo la impresión de que lo hacen simultáneamente.

• Tipos de Sistemas operativos y proveedores más comunes

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.

La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.

Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.

Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO.

Page 16: Estructuración física y funcional de un sistema informático

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble clic con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciones para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios pueden estar usando una misma computadora por medio de terminales o usar muchas de ellas.

C) Manejos de sistemas de codificación.

Una de las formas en que los datos pueden ser capturados precisa y eficientemente es mediante un empleo como conocimiento de varios códigos. El proceso de poner datos ambiguos o problemáticos en unos cuantos dígitos o letras fácilmente capturarles es llamado codificación (que no debe ser confundida con la codificación de programa).

La codificación ayuda a que el analista de sistemas alcance el objetivo de eficiencia, debido a que los datos que son codificados requieren menos tiempo para su captura y reducen la cantidad de conceptos capturados. La codificación también puede ayudar en el reordenamiento adecuado de los datos en un punto posterior del proceso de transformación de datos.

Además los datos codificados pueden ahorrar espacio valioso de memoria y de almacenamiento. Resumiendo, la codificación es una forma de ser elocuente, pero escueto, en la captura de datos.

Page 17: Estructuración física y funcional de un sistema informático

• Representación por medio de Números

En una computadora, hay varias formas de representar el signo de un número. Este artículo trata cuatro métodos de extender el sistema binario para representar números con signo: signo y magnitud, complemento a uno, complemento a dos y exceso a bn-1.

Para la mayoría de usos, las computadoras modernas utilizan típicamente la representación en complemento a dos, aunque pueden usarse otras en algunas circunstancias.

En las secciones a continuación, nos referiremos exclusivamente al caso de números signados en binario (y contrastaremos con el decimal con fines didácticos), esto no significa que lo mostrado aquí se pueda llevar en forma análoga a otras bases.

Signo y Magnitud

Un primer enfoque al problema de representar un número signado de n-bits consiste en asignar:

1. un bit para representar el signo. Ese bit a menudo es el bit más significativo o MSB (de sus siglas en inglés) y, por convención: un 0 denota un número positivo, y un 1 denota un número negativo;

2. los (n-1)-bits restantes para representar el significando que es la magnitud del número en valor absoluto.

Y se conoce como Signo y Magnitud.

Este enfoque es directamente comparable a la forma habitual de mostrar el signo (colocando "+" o "-" al lado de la magnitud del número). Algunas de las primeras computadoras binarias (la IBM 7090) utilizaron esta representación, quizás por su relación obvia con la práctica habitual.

El formato Signo y Magnitud es además el habitual para la representación del significando en números en punto flotante

Ejemplo de Signo y Magnitud

Sea una representación en formato de Signo y Magnitud que nos permite codificar un número entero en binario con 8 bits (un byte). Esto nos otorga 1 bit para el signo y 7 bits para la magnitud. Con 8 bits, podemos representar, en teoría al menos (véase Desventajas, más abajo), 28 = 256 números. Los cuales, según éste formato, van a estar repartidos entre 128 números positivos (bit de signo en 0) y 128 números negativos (bit de signo en 1).

Supongamos ahora, que tenemos que representar el número -9710 (decimal). Procedemos a:

1. Tomar nota del signo del número -9710, que siendo negativo, llevará como bit de signo un 1;2. Realizar la conversión: el valor absoluto de -9710 es |-9710| = 9710. Que en binario es:

11000012;

Page 18: Estructuración física y funcional de un sistema informático

3. Colocar todo junto, el número -9710 en binario con formato de Signo y Magnitud es: 111000012. Donde el 1 en el bit más significativo indica un número negativo, y 11000012 es el significando en valor absoluto.

Para el caso inverso, dado un número binario en Signo y Magnitud, por ejemplo, 101101012, procedemos a:

1. Analizar el bit más significativo, que siendo un 1 indica que el número es negativo;2. Convertir el significando a la base deseada, por ejemplo, en decimal, tomando en cuenta que

el valor obtenido está en valor absoluto y la magnitud real estará dada por el bit de signo obtenido antes: 01101012 = |5310|. Siendo que el bit de signo es 1, el número real es -5310. Si el bit de signo fuese 0, el número hubiese sido +5310.

Desventajas de la representación en Signo y Magnitud

Siguiendo con el ejemplo de n = 8 (8 bits).

Es más complejo operar aritméticamente. Para realizar una suma, por ejemplo, primero hay que determinar si los dos números tienen el mismo signo, y en caso de que sea así, realizar la suma de la parte significativa, pero en caso contrario, restar el mayor del menor y asignar el signo del mayor.

Posee doble representación del cero. Al representar en Signo y Magnitud, aparece el cero signado: 000000002 (+010) y 100000002 (-010).

Ventajas de la representación en Signo y Magnitud

Siguiendo con el ejemplo de n = 8 (8 bits).

Posee un rango simétrico: los números van del +12710 = 011111112, pasando por el +010 = 000000002 y el -010 = 100000002, hasta el -12710 = 111111112. Y en forma general, para n-bits, el rango (en decimal) para Signo y Magnitud es (-2n-1-1; 2n-1-1), o bien ± 2n-1-1.

− Sistema binario.

El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Representación

Un número binario puede ser representado por cualquier secuencia de bits (dígitos binarios), que suelen representar cualquier mecanismo capaz de usar dos estados mutuamente excluyentes. Las siguientes secuencias de símbolos podrían ser interpretadas como el mismo valor numérico binario:

Page 19: Estructuración física y funcional de un sistema informático

1 0 1 0 0 1 1 0 1 0| - | - - | | - | -X o x o o x x o x oY n y n n y y n y n

El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En una computadora, los valores numéricos pueden representar dos voltajes diferentes; también pueden indicar polaridades magnéticas sobre un disco magnético. Un "positivo", "sí", o "sobre el estado" no es necesariamente el equivalente al valor numérico de uno; esto depende de la nomenclatura usada.

De acuerdo con la representación más habitual, que es usando números árabes, los números binarios comúnmente son escritos usando los símbolos 0 y 1. Los números binarios se escriben a menudo con subíndices, prefijos o sufijos para indicar su base. Las notaciones siguientes son equivalentes:

100101 binario (declaración explícita de formato) 100101b (un sufijo que indica formato binario) 100101B (un sufijo que indica formato binario) bin 100101 (un prefijo que indica formato binario) 1001012 (un subíndice que indica base 2 (binaria) notación) %100101 (un prefijo que indica formato binario) 0b100101 (un prefijo que indica formato binario, común en lenguajes de programación)

− Código octal.

El sistema numérico en base 8 se llama octal y utiliza los dígitos 0 a 7.

Para convertir un número en base decimal a base octal se divide por 8 sucesivamente hasta llegar a cociente 0, y los restos de las divisiones en orden inverso indican el número en octal. Para pasar de base 8 a base decimal, solo hay que multiplicar cada cifra por 8 elevado a la posición de la cifra, y sumar el resultado.

Es más fácil pasar de binario a octal, porque solo hay que agrupar de 3 en 3 los dígitos binarios, así, el número 74 (en decimal) es 1001010 (en binario), lo agruparíamos como 1 / 001 / 010, después obtenemos el número en decimal de cada uno de los números en binario obtenidos: 1=1, 001=1 y 010=2. De modo que el número decimal 74 en octal es 112.

En informática a veces se utiliza la numeración octal en vez de la hexadecimal, y se suele indicar poniendo 0x delante del número octal. Tiene la ventaja de que no requiere utilizar otros símbolos diferentes de los dígitos. Sin embargo, para trabajar con bytes o conjuntos de ellos, asumiendo que un byte es una palabra de 8 bits, suele ser más cómodo el sistema hexadecimal, por cuanto todo byte así definido es completamente representable por dos dígitos hexadecimales.

− Código hexadecimal.

Es un sistema de numeración que emplea 16 símbolos. Su uso actual está muy vinculado a la informática y ciencias de la computación, pues los computadores suelen utilizar el byte u octeto como

Page 20: Estructuración física y funcional de un sistema informático

unidad básica de memoria; y, debido a que un byte representa valores posibles, y esto puede representarse como

Que, según el teorema general de la numeración posicional, equivale al número en base 16 , dos dígitos hexadecimales corresponden exactamente —permiten representar la misma línea de enteros— a un byte.

En principio, dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:

− Cambios de base de numeración.

Todos hemos estudiado en el colegio las Bases de numeración, y creo que pocos son los que realmente han comprendido lo que significa.

Sin querer dar una clase magistral sobre ello, os diré que cada base de numeración representaría los números si solo se trabajara con los dígitos que indica la base, es decir para el sistema binario solo tendríamos en cuenta dos dígitos, que para mayor comodidad serían los dos primeros de los números conocidos, (0 y 1), para base 3 tendríamos el 0,1 y 2, y así sucesivamente.

En la actualidad la base con que nos manejamos es la Base 10, (0, 1, 2, 3, 4, 5, 6, 7, 8,9). Si quisiéramos trabajar con bases mayores deberíamos inventar nuevos dígitos. Por convenio se utilizan las letras según el orden alfabético (A, B, C, D, E, F,...).

Podría intentar explicar como se pasa de una Base a otra, pero hay demasiados sitios donde consultarlo y no creo que yo pudiera aportar nada nuevo.

Lo que si he hecho es un gadget muy simple que permite pasar números de una base a otra, desde Base 2 a Base 16.

− Trabajo con números decimales.

Page 21: Estructuración física y funcional de un sistema informático

Los números decimales forman parte del conjunto de números racionales y los utilizamos en variadas

ocasiones de nuestra vida diaria. Algunas veces estos se asocian a índices económicos, como cuando

decimos que el dólar se encuentra a 521,1 centavos o que el IPC subió en un 1,1%, pero también los

utilizamos al referimos a números que no son exactos, como cuando hablamos de que en el

supermercado compramos 2,5 kilos de carne o decimos que estamos pesando 59 kilos y medio.

Como podemos ver en el siguiente cuadro, los números decimales se encuentran formados por una

parte entera, una coma y una parte decimal.

− Representación de números reales.

A los números reales se les suele representar (o ubicar) en un eje, es decir, en una recta en la cual hayUn punto fijo 0 llamado origen, una unidad de longitud convencional y un sentido.Si a partir del origen marcamos la unidad de longitud consecutivamente en el sentido del eje, obtendremosUna sucesión de puntos cuya distancia al origen es, respectivamente, 1; 2; 3; : : :; (estosPuntos representan a los números naturales).

− Razones para el uso del sistema binario

Todas aquellas personas que se dedican a la informática es fundamental tener habilidad con este tipo de numeración. En este artículo voy a explicar un poco cómo se utiliza y en que consiste el sistema binario.

En binario, tan sólo existen dos dígitos, el cero y el uno. Hablamos, por tanto, de un sistema en base dos, en el que 2 es el peso relativo de cada cifra respecto de la que se encuentra a la derecha. Es decir:

An, An-1, ….., A5, A4, A3, A2, A1, A0

El subíndice n indica el peso relativo (2n) La forma de contar es análoga a todos los sistemas de numeración, incluido el nuestro, se van generando números con la combinación progresiva de todos los dígitos. En base 10 (sistema decimal), cuando llegamos al 9, seguimos con una cifra más, pero comenzando desde el principio: 9, 10,11… en binario sería:

0, 1 (cero y uno)

10, 11 (dos y tres)

100, 101, 110, 111 (cuatro, cinco, seis y siete)

1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111 (del ocho al quince)

10000, 10001, 10010, 10011, 10100….

Ya sabemos contar… pero si nos dan un número muy grande en binario… ¿como sabríamos qué número es contar hasta que lleguemos a ese número? Bien, para eso utilizaremos el siguiente

Page 22: Estructuración física y funcional de un sistema informático

método: multiplicaremos cada dígito por su peso y sumaremos todos los valores. Por ejemplo, dado el número en binario 11110100101:

1 1 1 1 0 1 0 0 1 0 1 — Número binario

10 9 8 7 6 5 4 3 2 1 0 — Posición – peso

1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20

=

1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 = 1957

• Representación alfanumérica.

El sistema numérica en base 36 se llama sistema alfanumérica y utiliza para su representación los símbolos 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F, G, H, I, J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z. Recibe este nombre dado que los símbolos que utiliza para su representación concuerdan con la definición computacional tradicional de carácter alfanumérico; hay que tener presente que los caracteres alfabéticos utilizados corresponden al alfabeto latino con la supresión de la letra Ñ.

El sistema alfanumérico, en el contexto de la informática, no es una buena alternativa respecto de sistemas como el binario, el hexadecimal o cualquier otro en base . Esto se debe a que una palabra de cierto tamaño puede tener un manejo más intuitivo por los humanos si se escribe en base o bien usando varias bases tales que su producto sea . Así, la palabra (1111) puede ser sintetizada como (F) usando sólo un carácter hexadecimal. Claramente, no existe natural que permita que , por lo que el sistema alfanumérico no pueda usarse para este propósito.]. Por otro lado, el sistema alfanumérico puede ser una alternativa respecto de otros sistemas de bases menores a la hora de numerar o identificar los objetos de un conjunto, ya que una misma cantidad se puede representar con una cadena de símbolos más corta. Un ejemplo de esto puede ser su uso en la asignación de números de patente - ignorando la supresión de ciertos símbolos o palabras a causa de motivos visuales o de otra índole - u otro tipo de palabra alfanumérica identificadora a un objeto cualquiera. De este modo, el número de patente asignado a un vehículo puede ser (RT5183) en lugar de su equivalente decimal más largo y difícil de memorizar (1681530483).El principio anterior puede extenderse, utilizando otros sistemas como el base64, pero que pueden resultar menos intuitivos de emplear por humanos debido a la existencia simultánea de caracteres alfabéticos mayúsculos o minúsculos y otros caracteres de relleno cuando la cantidad de caracteres alfabéticos es insuficiente.

− Código ASCII.

ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

Page 23: Estructuración física y funcional de un sistema informático

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).

Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto como el teclado. No deben confundirse los códigos ALT+número de teclado con los códigos ASCII.

Historia

El código ASCII se desarrolló en el ámbito de la telegrafía y se usó por primera vez comercialmente como un código de tele impresión impulsado por los servicios de datos de Bell. Bell había planeado usar un código de seis bits, derivado de Fieldata, que añadía puntuación y letras minúsculas al más antiguo código de tele impresión Baudot, pero se les convenció para que se unieran al subcomité de la Agencia de Estándares Estadounidense (ASA), que habían empezado a desarrollar el código ASCII. Baudot ayudó en la automatización del envío y recepción de mensajes telegráficos, y tomó muchas características del código Morse; sin embargo, a diferencia del código Morse, Baudot usó códigos de longitud constante. Comparado con los primeros códigos telegráficos, el código propuesto por Bell y ASA resultó en una reorganización más conveniente para ordenar listas (especialmente porque estaba ordenado alfabéticamente) y añadió características como la 'secuencia de escape'.

La Agencia de Estándares Estadounidense (ASA), que se convertiría más tarde en el Instituto Nacional Estadounidense de Estándares (ANSI), publicó por primera vez el código ASCII en 1963. El ASCII publicado en 1963 tenía una flecha apuntando hacia arriba (↑) en lugar del circunflejo (^) y una flecha apuntando hacia la izquierda en lugar del guion bajo (_). La versión de 1967 añadió las letras minúsculas, cambió los nombres de algunos códigos de control y cambió de lugar los dos códigos de control ACK y ESC de la zona de letras minúsculas a la zona de códigos de control.

ASCII fue actualizado en consecuencia y publicado como ANSI X3.4-1968, ANSI X3.4-1977, y finalmente ANSI X3.4-1986.

Otros órganos de estandarización han publicado códigos de caracteres que son idénticos a ASCII. Estos códigos de caracteres reciben a menudo el nombre de ASCII, a pesar de que ASCII se define estrictamente solamente por los estándares ASA/ANSI:

1. La Asociación Europea de Fabricantes de Ordenadores publicó ediciones de su clon de ASCII, ECMA-6 en 1965, 1967, 1970, 1973, 1983, y 1991. La edición de 1991 es idéntica a ANSI X3.4-1986.[4]

2. La Organización Internacional de Estandarización (ISO) publicó su versión, ISO 646 (más tarde ISO/IEC 646) en 1967, 1972, 1983 y 1991. En particular, ISO 646:1972 estableció un conjunto

Page 24: Estructuración física y funcional de un sistema informático

de versiones específicas para cada país donde los caracteres de puntuación fueron remplazados con caracteres no ingleses. ISO/IEC 646:1991 La International Reference Versión es la misma que en el ANSI X3.4-1986.

3. La Unión Internacional de Telecomunicaciones (ITU) publicó su versión de ANSI X3.4-1986, Recomendación ITU T.50, en 1992. A principios de la década de 1970 publicó una versión como Recomendación CCITT V.3.

4. DIN publicó una versión de ASCII como el estándar DIN 66003 en 1974. El Grupo de Trabajo en Ingeniería de Internet publicó una versión en 1969 como RFC 20, y estableció la versión estándar para Internet, basada en ANSI X3.4-1986, con la publicación de RFC 1345 en 1992.

Vista general

Las computadoras solamente entienden números. El código ASCII es una representación numérica de un carácter como ‘a’ o ‘@’.[]

Como otros códigos de formato de representación de caracteres, el ASCII es un método para una correspondencia entre cadenas de bits y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. El código de caracteres ASCII[] —o una extensión compatible (ver más abajo) — se usa casi en todos los ordenadores, especialmente con ordenadores personales y estaciones de trabajo. El nombre más apropiado para este código de caracteres es "US-ASCII".

ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos, aunque otros sistemas como las computadoras Prime, que ejecutaban PRIMOS ponían el octavo bit del código ASCII a uno.

El código ASCII define una relación entre caracteres específicos y secuencias de bits; además de reservar unos cuantos códigos de control para el procesador de textos, y no define ningún mecanismo para describir la estructura o la apariencia del texto en un documento; estos asuntos están especificados por otros lenguajes como los lenguajes de etiquetas.[

− Código EBCDIC.

EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.

EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres.

Page 25: Estructuración física y funcional de un sistema informático

Existen muchas versiones ("codepages") de EBCDIC con caracteres diferentes, respectivamente sucesiones diferentes de los mismos caracteres. Por ejemplo al menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con sucesiones diferentes.

D) Medición de la información.

El proceso de asignar un valor numérico a una variable se llama medición. Las escalas de medición sirven para ofrecernos información sobre las clasificaciones que podemos hacer con respecto a las variables (discretas o continuas).Cuando se mide una variable el resultado puede aparecer en uno de cuatro diversos tipos de escalas de medición; nominal, ordinal, intervalo y razón.Conocer la escala a la que pertenece una medición es importante para determinar el método adecuado para describir y analizar esos datos.Existen 4 principales escalas de medición de la Información* Nominales.* Ordinales.* De intervalo.* De razón.Es importante aclarar que existen mas escalas de información como la comparativa y no comparativa pero estas con complemento de las escalas mencionadas anteriormente pero aun asi se mencionaran mas adelante.ESCALA NOMINALEn la escala nominal se utilizan nombres para establecer categorías y para distinguir los agrupamientos se emplean símbolos, letras e incluso números, aunque estos números solo cumplen una función de carácter simbólico, pues los cálculos matemáticos con estos números no tendrían sentido.Las escalas nominales además tienen las propiedades de simetría y transitividad.Por simetría se entiende que una simetría que encontramos entre A y B, también la encontramos entre B y A. La transitividad se entiende que si A=B y B=C, entonces A=C.Los números se pueden asociar con las categorías, pero esto no significa que se pueda hacer operaciones aritméticas con estos directamente, ya que la función de los números en este caso es exactamente la misma de los nombres.Ejemplos: calificar a un grupo de personas como “sano” o “enfermo” o bien como “1” y “2”.

• Unidades de medición.

Una unidad de medida es una cantidad estandarizada de una determinada magnitud física. En general, una unidad de medida toma su valor a partir de un patrón o de una composición de otras unidades definidas previamente. Las primeras unidades se conocen como unidades básicas o de base (fundamentales), mientras que las segundas se llaman unidades derivadas. Un conjunto de unidades de medida en el que ninguna magnitud tenga más de una unidad asociada es denominado sistema de unidades.

Todas las unidades denotan cantidades escalares. En el caso de las magnitudes vectoriales, se interpreta que cada uno de los componentes está expresado en la unidad indicada.

Page 26: Estructuración física y funcional de un sistema informático

UNIDADES DE MEDIDA EMPLEADAS EN INFORMATICA.

Las unidades de medida en Informática a veces pueden resultar algo confusas. Vamos a tratar de aclarar algunos conceptos viendo a que se refieren.

Podemos agrupar estas medidas en tres grupos: Almacenamiento, procesamiento y transmisión de datos.

ALMACENAMIENTO:

Con estas unidades medimos la capacidad de guardar información de un elemento de nuestro PC.

Los medios de almacenamiento pueden ser muy diferentes (ver tutorial sobre Medios de almacenamiento.).

Precisamente es en este tipo de medidas donde se puede crear una mayor confusión.

La unidad básica en Informática es el bit. Un bit o Binary Digit es un dígito en sistema binario (0 o 1) con el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites, sino bits).

Para poder almacenar una información más detallado se emplea como unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones diferentes por cada byte. Aquí hay que especificar un punto. Hay una diferencia entre octeto y byte. Mientras que un octeto tiene siempre 8 bits un byte no siempre es así, y si bien normalmente si que tiene 8 bits, puede tener entre 6 y 9 bits.

Precisamente el estar basado en octetos y no en el sistema internacional de medidas hace que las subsiguientes medidas no tengan un escalonamiento basado el este sistema (el SI o sistema internacional de medidas).

Veamos los más utilizados:

byte.- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits. La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512. Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8).

Kilobyte (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000

Page 27: Estructuración física y funcional de un sistema informático

bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.

Megabyte (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB.

Gigabyte (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.

Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB (SI) en realidad tiene 232.50 GiB.

Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida. Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte

Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte o el Yottabite, que podemos calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente no lleguen a utilizarse con estos nombre, sino por los nuevos designados por el IEC.

− Bit.

Es el acrónimo Binary digit. (Dígito binario). Un bit es un dígito del sistema de numeración binario.

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:

Page 28: Estructuración física y funcional de un sistema informático

Apagada o encendida

− Byte

Byte (pronunciada [bait] o ['bi.te]) es una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.

Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

− La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).

Significados

La palabra "byte" tiene numerosos significados íntimamente relacionados:

Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.

Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes

Convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bits se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10.

Page 29: Estructuración física y funcional de un sistema informático

-Carácter.

En terminología informática y de telecomunicaciones, un carácter es una unidad de información que corresponde aproximadamente con un grafema o con una unidad o símbolo parecido, como los de un alfabeto o silabario de la forma escrita de un lenguaje natural.

Un ejemplo de carácter es una letra, un número o un signo de puntuación. El concepto también abarca a los caracteres de control, que no se corresponden con símbolos del lenguaje natural sino con otros fragmentos de información usados para procesar textos, tales como el retorno de carro y el tabulador, así como instrucciones para impresoras y otros dispositivos que muestran dichos textos (como el avance de página).

Codificación de caracteres

Los ordenadores y los equipos de comunicaciones representan caracteres mediante el uso de una codificación que asigna un valor a cada carácter (típicamente, un valor entero representado por una secuencia de bits) que puede ser almacenado o transmitido por una red. La codificación más común ha sido hasta hace poco ASCII, si bien actualmente se está haciendo más popular el Unicode. Un ejemplo de codificación no digital sería el código Morse, que en lugar de usar bits representa los caracteres mediante una serie de impulsos eléctricos de longitud variable (puntos y rayas).

Terminología

Históricamente, el término «carácter» ha sido usado ampliamente por los profesionales de la industria para referirse a un «carácter codificado» (expuesto a menudo sólo mediante la API de un lenguaje de programación). De igual forma, el término conjunto de caracteres (character set) ha sido usado generalmente para aludir a un repertorio específico de «caracteres abstractos» que habían sido codificados mediante secuencias de bits específicas. Con la llegada de Unicode y los esquemas de codificación independientes de los bits, una terminología más precisa está viéndose cada vez más favorecida.

En algunos contextos es importante hacer la distinción de que un carácter es una unidad de información y por tanto no implica ninguna manifestación visual particular. Por ejemplo, la letra hebrea álef (א) es usada a menudo por los matemáticos para denotar ciertos tipos de infinito, pero también se usa en textos hebreos corrientes. En Unicode, ambos usos tienen caracteres diferentes a los que corresponden dos códigos diferentes, aunque puedan ser representados exactamente igual. En cambio, el logograma chino para agua (水) puede tener una apariencia ligeramente diferente en textos chinos y japoneses, lo que puede verse reflejado en los tipos de letra locales, pero representan a pesar de ello la misma información, por lo que se consideran un único carácter y como tal aparecen en Unicode.

El término «glifo» se usa para describir una apariencia física particular de un carácter. Muchas tipos de letra de ordenador consisten en glifos indizados según el código Unicode del carácter al que cada uno de ellos representa.

Page 30: Estructuración física y funcional de un sistema informático

La definición de «carácter» o «carácter abstracto» es, según el estándar Unicode y el ISO/IEC 10646, «un miembro de un conjunto de elementos usado para la organización, control o representación de datos». La definición de Unicode añade una serie de notas explicativas animando al lector a distinguir entre caracteres, grafemas y glifos, entre otras cosas. El estándar también distingue entre estos caracteres abstractos y los «caracteres codificados» que ya han sido emparejados con códigos numéricos para facilitar su representación en sistemas informáticos.

− Múltiplos.

Un múltiplo de un número es otro número que lo contiene un número entero de veces. En otras palabras, un múltiplo de n es un número tal que, dividido por n, da por resultado un número entero (el resto de la división euclídea es cero). Los primeros múltiplos del uno al diez suelen agruparse en las llamadas tablas de multiplicar.

Ejemplo: 18 es múltiplo de 9.

a=18b=9

a=2·b

En efecto, 18 contiene 9 dos veces exactamente.

El múltiplo de un número es aquel que contiene a éste un número exacto de veces.

Los múltiplos de un número se forman multiplicando este número por la serie infinita de los números naturales 0, 1, 2, 3...; luego todo número tiene infinitos múltiplos.

Ejemplo: la serie infinita de los múltiplos de 4 es:

0 x 4 = 01 x 4 = 42 x 4 = 8

3 x 4 = 124 x 4 = 164 x 5 = 204 x 6 = 24

4 x ... = (símbolo de infinito) n

Los múltiplos de 8 se obtienen así:

8 x 1 = 88 x 2 = 168 x 3 = 248 x 4 = 328 x 5 = 40

Page 31: Estructuración física y funcional de un sistema informático

El cero no es considerado fundamental cuando se habla de múltiplos, pues se acepta que: los múltiplos contienen una o más veces al número propuesto, en general.

Ejemplos: 28 es múltiplo de 7, porque 28 contiene 4 veces al 7.

12 es múltiplo de 6 porque 12 contiene 2 veces al 6.

11 es múltiplo de 11, porque 11 contiene 1 vez al 11.

Como se observa el cero no puede considerarse múltiplo pues no contiene en ningún caso a los números naturales.

También entre los números naturales es posible encontrar, con cierta facilidad, sus múltiplos y submúltiplos (factores o divisores).

Los divisores o factores (submúltiplos de un número) son aquellos números naturales, diferentes de cero, que lo dividen exactamente.

Existen diversos métodos para encontrar los divisores de un número. Cuando los números son pequeños, pueden buscarse parejas de factores (tablas de multiplicar) o divisores que den como producto dicho número.

Si se sabe que 20 es múltiplo de 5, debe inferirse que 20 puede dividirse exactamente entre 5, esto es: 20 es divisible entre 5.

Ejemplos:

2 es divisor o factor de 8, porque 2 x 4 = 84 es divisor o factor de 28, porque 4 x 7 = 285 es divisor o factor de 30, porque 5 x 6 = 30

Como se observa, hay una estrecha relación entre los múltiplos y divisor o factor (submúltiplo):

2 es divisor de 8, entonces, 8 es múltiplo de 24 es divisor de 28, entonces 28 es múltiplo de 4.5 es divisor de 30, entonces 30 es múltiplo de 5.

Ejemplos:

D (30) = 1, 2, 3, 5, 10, 15, 30.Porque 1 x 30 = 30, 2 x 15 = 30, 3 x 10 = 30, 5 x 6 = 30, 10 x 3 = 30, 15 x 2 = 30 y 30 entre 1 = 30.

D (100) = 1, 2, 4, 5, 10, 20, 25, 50 y 100.Porque 1 x 100 = 100, 2 x 50 = 100, 4 x 25 = 100, 5 x 20 = 100, 10 x 10 = 100, 20 x 5 = 100, 25 x 4 = 100, 50 x 2 = 100 y 100 entre 1 =100

Múltiplo de un número es aquel que contiene a éste un número exacto de veces.

Page 32: Estructuración física y funcional de un sistema informático

Los múltiplos de un número se forman multiplicando este número por la serie infinita de los números naturales 0, 1, 2, 3...; luego todo número tiene infinitos múltiplos.

Ejemplo: la serie infinita de los múltiplos de 4 es:

0 x 4 = 01 x 4 = 42 x 4 = 8

3 x 4 = 124 x 4 = 164 x 5 = 204 x 6 = 24

4 x ... = (símbolo de infinito) n

Los múltiplos de 8 se obtienen así:

8 x 1 = 88 x 2 = 168 x 3 = 248 x 4 = 328 x 5 = 40

El cero no es considerado fundamental cuando se habla de múltiplos, pues se acepta que: los múltiplos contienen una o más veces al número propuesto, en general.

Ejemplos: 28 es múltiplo de 7, porque 28 contiene 4 veces al 7.

12 es múltiplo de 6 porque 12 contiene 2 veces al 6.

11 es múltiplo de 11, porque 11 contiene 1 vez al 11.

Como se observa el cero no puede considerarse múltiplo pues no contiene en ningún caso a los números naturales.

También entre los números naturales es posible encontrar, con cierta facilidad, sus múltiplos y submúltiplos (factores o divisores).

Los divisores o factores (submúltiplos de un número) son aquellos números naturales, diferentes de cero, que lo dividen exactamente.

Existen diversos métodos para encontrar los divisores de un número. Cuando los números son pequeños, pueden buscarse parejas de factores (tablas de multiplicar) o divisores que den como producto dicho número.

Si se sabe que 20 es múltiplo de 5, debe inferirse que 20 puede dividirse exactamente entre 5, esto es: 20 es divisible entre 5.

Ejemplos:

2 es divisor o factor de 8, porque 2 x 4 = 84 es divisor o factor de 28, porque 4 x 7 = 285 es divisor o factor de 30, porque 5 x 6 = 30

Page 33: Estructuración física y funcional de un sistema informático

Como se observa, hay una estrecha relación entre los múltiplos y divisor o factor (submúltiplo):

2 es divisor de 8, entonces, 8 es múltiplo de 24 es divisor de 28, entonces 28 es múltiplo de 4.5 es divisor de 30, entonces 30 es múltiplo de 5.

Ejemplos:

D (30) = 1, 2, 3, 5, 10, 15, 30.Porque 1 x 30 = 30, 2 x 15 = 30, 3 x 10 = 30, 5 x 6 = 30, 10 x 3 = 30, 15 x 2 = 30 y 30 entre 1 = 30.

D (100) = 1, 2, 4, 5, 10, 20, 25, 50 y 100.Porque 1 x 100 = 100, 2 x 50 = 100, 4 x 25 = 100, 5 x 20 = 100, 10 x 10 = 100, 20 x 5 = 100, 25 x 4 = 100, 50 x 2 = 100 y 100 entre 1 =100

Criterios de visibilidad

E xisten algunos números naturales que tienen ciertas características particulares. A muchos de ellos es posible identificarlos como múltiplos de otros números iguales o más pequeños. De aquí que sea sencillo diferenciar a los que son divisibles entre los números más usuales, y con ello determinar los criterios de divisibilidad.

Por ejemplo, los múltiplos de 2:

M (2) = 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24...

Estos números también reciben el nombre de cifras pares.

Par 28 | 2 (se lee: 28 es divisible entre 2)Par 70 | 2 (se lee: 70 es divisible entre 2)Impar 45 | 2 (se lee: 45 no es divisible entre 2)

Otro ejemplo sería con el 3:

M (3) = 3, 6, 9, 12, 15, 18, 21, 24, 27, 30, 33...

Aquí se observa que las cifras que componen a cada número siempre que se sumen se obtendrá un múltiplo de 3. Si además la suma se reduce a una sola cifra, sumando nuevamente se obtendrá sólo alguno de los números 3, 6 o 9.

72 | 3 porque 7 + 2 = 9 y 9 es múltiplo de 357 | 3 porque 5 + 7 = 12 y 12 es múltiplo de 334 | 3 porque 3 + 4 = 7 y 7 no es múltiplo de 3

Propiedades de los múltiplos

Si b es un múltiplo de a, entonces a es un divisor de b.

Page 34: Estructuración física y funcional de un sistema informático

Todo número entero es múltiplo de 1 y de sí mismo. Cero (0) es múltiplo de cualquier número. Si a y b son múltiplos de n, entonces a+b, a-b, ka y kb lo son para cualquier k natural.

Submúltiplo

Un número entero a es submúltiplo de otro número b si y sólo si b es múltiplo de a.

Propiedades de los submúltiplos

El número uno es submúltiplo de cualquier número. Todo número es submúltiplo de sí mismo. Todo número es submúltiplo del número cero

• Equivalencias

En lógica, las sentencias p y q son lógicamente equivalentes si poseen el mismo contenido lógico.

Sintácticamente, p y q son equivalentes si cada una puede probar a la otra. Semánticamente, p y q son equivalentes si ambas tienen el mismo valor de verdad en cada modelo.

La equivalencia lógica de p y q a veces se denota o bien . Sin embargo, estos símbolos son también utilizados para denotar el bicondicional. La interpretación propia depende del contexto, y aunque ambos conceptos están fuertemente relacionados, la equivalencia lógica es diferente de la equivalencia material-

Page 35: Estructuración física y funcional de un sistema informático

CONCLUSIÓN

Mi conclusión de que este trabajo fue fácil por que el contenido de la actividad viene algunos temas ya vistos esto nos puede servir más adelante para poder repasar estas instrucciones o información acerca del hardware y software acerca de la computadora. La información tiene todo lo que viene de la materia de manejo de sistemas operativos. Esta materia viene con relaciones a las matemáticas de computadoras (discretas). La actividad en algunos puntos de investigación no hubo mucha información pero si algo de lo más importantes del texto, esto beneficia ya que el contenido es la pura teoría dando detalles de como se realiza, como lo manejamos, etc.

Esperamos si esto vayamos a volver a utilizarlo más delante de nuestra carrera para aprender varias cosas que esto nos da de mucha utilidad de la información.

[]][][