View
69
Download
5
Category
Preview:
Citation preview
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA,
CIENCIA Y TECNOLOGÍA
INSTITUTO UNIVERSITARIO DE TECNOLOGÍA DEL ESTADO BOLÍVAR
PROGRAMA NACIONAL DE FORMACIÓN EN INFORMÁTICA
PROYECTO SOCIOTECNOLÓGICO I
TRAYECTO I SEMESTRE 1
AVANCE DEL SEMESTRE I
GRUPO N° 5 SECCIÓN 4M-INF-I TURNO MAÑANA
INVESTIGADORES: C.I.
ERICK FLORES 25.036.498
JEFFERSON ALFARO 25.087.093
ÁNGEL RAMOS 25.361.387
MARÍA CASTILLO 26.512.109
CIUDAD BOLÍVAR, 02 DE DICIEMBRE DE 2014
NOMBRE DEL PROYECTO SOCIO-TECNOLÓGICO I
Alfabetización Tecnológica en el Sistema Operativo Canaima a Las Alumnas,
Alumnos y Docente de Aula del 5to Grado Sección “A” de la Unidad Educativa
Estadal Bachiller “Felipe Hernández” Beneficiarios del Proyecto Educativo
Canaima
TUTORES DEL PROYECTO:
TUTOR TÉCNICO: Jocenh Blanco
TUTORA INSTITUCIONAL: Milagro Velásquez
TUTORA ACADÉMICA: Msc. Carmen Díaz
NOMBRE COMPLETO DE LA INSTITUCIÓN EDUCATIVA
“Unidad Educativa Estadal Bachiller “Felipe Hernández”
UBICACIÓN GEOGRÁFICA:
DIRECCIÓN: Calle Carutal de Casanova Norte
PARROQUIA: Marhuanta MUNICIPIO: Heres
LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar
GOOGLE MAPS
PUNTOS DE REFERENCIAS DE LA INSTITUCIÓN ABORDADA:
1.- Ambulatorio de Casanova Norte
2.- Escuela Técnica Comercial “Juan Bautista Farrera”
3.- Altura del Km 8
CAPITULO I
EL PROBLEMA
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON
HARDWARE Y SOFTWARE
HARDWARE SOFTWARE
Equipos a los cuales no se les ha realizado Mantenimiento Correctivo.
Programas Instalados Desactualizados.
Algunos Equipos requieren cambio totalmente necesario de algunas de las Partes (Piezas) que lo conforman.
Sistema Operativo de los Equipos en Condiciones Pésimas, debido a Archivos Maliciosos.
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABER SOFTWARE QUE
AFECTA A LA INSTITUCIÓN:
Gravedad que Presentan Los Sistemas Operativos de los Equipos de la Institución
en su Funcionamiento.
EL PRINCIPAL PROBLEMA EN LA ÁREA DE SABERES HARDWARE QUE
AFECTA A LA INSTITUCIÓN:
Equipos de la Institución faltantes de Piezas en el Case.
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON
INFORMÁTICA Y TELEMÁTICA
INFORMÁTICA TELEMÁTICA
Sala de Computación en Condiciones Negativas.
Inaccesibilidad a La Red Internet.
Gran parte de los Equipos de Computación Inoperativos.
No Cuenta con Red Salón
EL PRINCIPAL PROBLEMA INFORMÁTICO QUE AFECTA A LA
INSTITUCIÓN:
Inoperatividad de algunos Equipos de La Institución, debido a las Deficiencias que
Presentan.
EL PRINCIPAL PROBLEMA TELEMÁTICO QUE AFECTA A LA INSTITUCIÓN:
Privación del Acceso a Internet.
PROBLEMAS EXISTENTES EN LA INSTITUCIÓN “UNIDAD EDUCATIVA
ESTADAL BACHILLER “FELIPE HERNÁNDEZ” RELACIONADOS CON EL
PROYECTO CANAIMA EDUCATIVO
Desconocimiento por parte de los Alumnos, en cuanto a los Programas de Grado Instalados en las Canaimas.
Ejecución Inadecuada del Soporte Técnico a ciertos Equipos, por parte de Organismos Encargados de ello.
Canaimas con deficiencias en la parte del Hardware y Software.
Canaimitas que no cuentan con Cargadores.
Niños que no cuentan con una Portátil Canaima.
Docente de Aula que no cuentan con los Conocimientos Necesarios de Canaima Educativo.
EL PRINCIPAL PROBLEMA QUE AFECTA AL PROYECTO CANAIMA
EDUCATIVO EN LA INSTITUCIÓN:
Analfabetismo en el uso de las Canaimas por parte de Las Alumnas, Alumnos y La
Docente de Aula del 5to Grado Sección “A”.
POSIBLES SOLUCIONES A ESTE PROBLEMA:
1.- Incentivar a los Padres Representantes a llevar Las Canaimas con problemas
de Hardware, a los distintos Organismos encargados de brindarle Soporte Técnico
a Las Portátiles Canaima.
2.- Diseñar una Metodología para que todos los Niños, además de la Docente de
Aula, que no poseen Canaimitas puedan, de igual manera que los demás recibir,
Los Instructivos de Alfabetización.
3.- Solucionar los Inconvenientes de Software que tengan ciertos Portátiles
Canaima.
N° DE BENEFICIARIOS RECURSOS NECESARIOS
FECHA PROBABLE DE EJECUCIÓN DEL
PROYECTO
37 Alumnos y la Docente de Aula.
HUMANOS Tutor Técnico Tutor Institucional TÉCNICOS Integrantes del Grupo 5: Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Marzo de 2015 Aproximadamente.
GRADO SECCIÓN TURNO
5TO
A
MAÑANA
N° DE CANAIMITAS OPERATIVAS NO OPERATIVAS
35 TOTAL
21
14
CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I
ACTIVIDADES FECHAS RESPONSABLES OBSERVACIONES
Diagnóstico a la Institución Abordada
29-09-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Recolección de Datos en la Institución Asignada
El Levantamiento de la
Información
08-10-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Obtención de Datos e Inventarios a los Equipos de la Institución.
Visitas a los Medios de Comunicación (Radio, Prensa y Televisión) para Invitar a la Realización del Diagnóstico Participativo
06-10-2014 08-10-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Difusión de Notas de Prensa, Volantes, etc. para asistir al Diagnóstico Participativo.
Diagnóstico Participativo en la Institución Asignada
16-10-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Identificar Fortalezas y Debilidades en la Ejecución del Proyecto así como sus Oportunidades y Amenazas.
Visitas Organismos que Apoyan el Proyecto (CBIT, Infocentro, CGP, Biblioteca
Virtual)
12-11-2014
14-11-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Recolección de Datos en los Organismos que apoyan la Ejecución del Proyecto.
Visita a la Institución
Asignada Para Realización de la “Validación de la
Comunidad”
18-11-2014
Erick Flores Jefferson Alfaro Ángel Ramos María Castillo
Validación Final por parte de la Institución Educativa para la realización del Proyecto.
CAPITULO II
MARCO TEÓRICO
BASES TEÓRICAS DEL PROYECTO I
SOFTWARE: Existen varias definiciones similares aceptadas para software, pero
probablemente la más formal sea la siguiente: Es el conjunto de los programas de
cómputo, procedimientos, reglas, documentación y datos asociados, que forman
parte de las operaciones de un sistema de computación. Considerando esta
definición, el concepto de software va más allá de los programas de computación
en sus distintos estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información de usuario forman
parte del software: es decir, abarca todo lo intangible, todo lo no físico relacionado.
El término software fue usado por primera vez en este sentido por John W. Tukey
en 1957. En la ingeniería de software y las ciencias de la computación, el software
es toda la información procesada por los sistemas informáticos: programas y
datos. El concepto de leer diferentes secuencias de instrucciones (programa)
desde la memoria de un dispositivo para controlar los cálculos fue introducido por
Charles Babbage como parte de su máquina diferencial. La teoría que forma la
base de la mayor parte del software moderno fue propuesta por Alan Turing en su
ensayo de 1936, Los números computables, con una aplicación al problema de
decisión.
CLASIFICACIÓN DEL SOFTWARE
Software de Sistema: Su objetivo es desvincular adecuadamente al usuario y al
programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características internas
de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,
pantallas, teclados, etc. El software de sistema le procura al usuario y
programador adecuadas interfaces de alto nivel, controlador, herramientas y
utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye
entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Software de Programación: Es el conjunto de herramientas que permiten al
programador desarrollar programas informáticos, usando diferentes alternativas y
lenguajes de programación, de una manera práctica. Incluyen básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,
usualmente en un entorno visual, de forma tal que el programador no necesite
introducir múltiples comandos para compilar, interpretar, depurar, etc.
Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
Software de Aplicación: Es aquel que permite a los usuarios llevar a cabo una o
varias tareas específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
muchos otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de cálculo numérico y simbólico.
Software de diseño asistido (CAD)
Software de control numérico (CAM)
PROCESO DE CREACIÓN DEL SOFTWARE
Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la
solución de un problema u obtención de un producto, en este caso particular, para
lograr un producto software que resuelva un problema específico. El proceso de
creación de software puede llegar a ser muy complejo, dependiendo de su porte,
características y criticidad del mismo. Por ejemplo la creación de un sistema
operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo
un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo
programa (por ejemplo, la resolución de una ecuación de segundo orden), éste
puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es
así que normalmente se dividen en tres categorías según su tamaño (líneas de
código) o costo: de pequeño, mediano y gran porte. Existen varias metodologías
para estimarlo, una de las más populares es el sistema COCOMO que provee
métodos y un software (programa) que calcula y provee una aproximación de
todos los costos de producción en un «proyecto software» (relación horas/hombre,
costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto
técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras
cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica
para tratar su estudio y realización: es conocida como Ingeniería de Software. En
tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un
avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre
en casos de mediano y gran porte (y a veces también en algunos de pequeño
porte, según su complejidad), se deben seguir ciertas etapas que son necesarias
para la construcción del software. Tales etapas, si bien deben existir, son flexibles
en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo
escogido y utilizado por el equipo de desarrollo o por el analista-programador
solitario (si fuere el caso).
HARDWARE: El término hardware se refiere a todas las partes tangibles de un
sistema informático; sus componentes son: eléctricos, electrónicos,
electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo
tipo y la Real Academia Española lo define como Conjunto de los componentes
que integran la parte material de una computadora. El término, aunque sea lo más
común, no solamente se aplica a las computadoras; del mismo modo, también un
robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia
poseen hardware. La historia del hardware de computador se puede clasificar en
cuatro generaciones, cada una caracterizada por un cambio tecnológico de
importancia. Una primera delimitación podría hacerse entre hardware básico, el
estrictamente necesario para el funcionamiento normal del equipo, y
complementario, el que realiza funciones específicas. Un sistema informático se
compone de una unidad central de procesamiento (UCP o CPU), encargada de
procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso
de la información y uno o varios periféricos de salida, los que posibilitan dar salida
(normalmente en forma visual o auditiva) a los datos procesados.
CLASIFICACIÓN DEL HARDWARE
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el
básico, que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware
complementario, que, como su nombre indica, es el utilizado para realizar
funciones específicas (más allá de las básicas), no estrictamente necesarias para
el funcionamiento de la computadora. Necesita un medio de entrada de datos, la
unidad central de procesamiento, la memoria RAM, un medio de salida de datos y
un medio de almacenamiento constituyen el hardware básico. Los medios de
entrada y salida de datos estrictamente indispensables dependen de la aplicación:
desde el punto de vista de un usuario común, se debería disponer, al menos, de
un teclado y un monitor para entrada y salida de información, respectivamente;
pero ello no implica que no pueda haber una computadora en la que no sea
necesario teclado ni monitor; bien puede ingresar información y sacar sus datos
procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Desde un punto de vista básico y general, un dispositivo de entrada es el que
provee el medio para permitir el ingreso de información, datos y programas
(lectura); un dispositivo de salida brinda el medio para registrar la información y
datos de salida (escritura); la memoria otorga la capacidad de almacenamiento,
temporal o permanente (almacenamiento); y la CPU provee la capacidad de
cálculo y procesamiento de la información ingresada.
La Unidad Central de Procesamiento: conocida por las siglas en inglés CPU, es el
componente fundamental de la computadora, encargado de interpretar y ejecutar
instrucciones y de procesar datos. En computadores modernos, la función de la
CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a
una CPU que es manufacturada como un único circuito integrado. Un servidor de
red o una máquina de cálculo de alto rendimiento (supercomputación), puede
tener varios, incluso miles de microprocesadores trabajando simultáneamente o en
paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU
de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único
microprocesador no sólo están presentes en las computadoras personales (PC),
sino también en otros tipos de dispositivos que incorporan una cierta capacidad de
proceso o "inteligencia electrónica", como pueden ser: controladores de procesos
industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles,
electrodomésticos, juguetes y muchos más.
Placa Principal o Placa Base: es un gran circuito impreso sobre el que se suelda el
chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos
integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás
componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas
de expansión, periféricos de entrada y salida. Para comunicar esos componentes,
la placa base posee una serie de buses mediante los cuales se trasmiten los datos
dentro y hacia afuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta en un
elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red,
puertos de varios tipos), funciones que antes se realizaban con tarjetas de
expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición
de datos, etc.
Las principales funciones que presenta una placa base son:
• Conexión física
• Administración, control y distribución de energía eléctrica
• Comunicación de datos
• Temporización
• Sincronismo
• Control y monitoreo
Memoria RAM: La sigla RAM, del inglés Random Access Memory, literalmente
significa memoria de acceso aleatorio. El término tiene relación con la
característica de presentar iguales tiempos de acceso a cualquiera de sus
posiciones (ya sea para lectura o para escritura). Esta particularidad también se
conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM
es la memoria utilizada en una computadora para el almacenamiento transitorio y
de trabajo (no masivo). En la RAM se almacena temporalmente la información,
datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta.
La memoria RAM es conocida como Memoria principal de la computadora,
también como "Central o de Trabajo". A diferencia de las llamadas memorias
auxiliares, secundarias o de almacenamiento masivo (como discos duros,
unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias
RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su
contenido al interrumpir su alimentación eléctrica.
Periféricos: Se entiende por periférico a las unidades o dispositivos que permiten a
la computadora comunicarse con el exterior, esto es, tanto ingresar como
exteriorizar información y datos. Los periféricos son los que permiten realizar las
operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente
considerados “accesorios” o no esenciales, muchos de ellos son fundamentales
para el funcionamiento adecuado de la computadora moderna; por ejemplo, el
teclado, el disco duro y el monitor son elementos actualmente imprescindibles;
pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80,
muchas de las primeras computadoras personales no utilizaban disco duro ni
mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como
únicos periféricos.
INFORMÁTICA: Se entiende como el resultado de los términos información y
automatización. Trata de la concepción, realización y utilización de los sistemas
para procesamiento de información. “INFORMÁTICA es la ciencia que estudia el
tratamiento automático y racional de la información.” Se dice que el tratamiento es
automático por ser máquinas las que realizan los trabajos de captura, proceso y
presentación de la información, y se habla de racional por estar todo el proceso
definido a través de programas que siguen el razonamiento humano.
IMPORTANCIA DE LA INFORMÁTICA: Las computadoras son esenciales para
enfrentar el reto de la competencia global, donde los negocios deben ser eficientes
y sensibles a las necesidades y producir bienes y servicios de alta calidad a un
costo siempre más bajo. Sin las computadoras, que proveen información precisa y
actualizada necesaria para tomar decisiones estratégicas y administrar los
procesos de producción, muchas compañías no podrían sobrevivir. Las
computadoras utilizan información almacenada para construir simulaciones que
van desde un simple análisis hasta ilustraciones realistas y animadas de nuevos
productos. Esto permite predecir el efecto de las múltiples decisiones de negocios.
Las computadoras ayudan a la gente a comunicarse, tanto directa como
indirectamente. El mundo industrial no podrá vivir mucho tiempo sin
computadores, está sometido a una sobrecarga de información y no podrá
manejarlos sin ellos. Teniéndose en cuenta que los avances de la sociedad
humana desde la aparición del alfabeto se han debido a su capacidad de registrar
y conservar la información.
LA INFORMÁTICA EN LA SOCIEDAD: Nuestros días se caracterizan por un
explosivo, colosal y omnipresente desarrollo de la técnica, y su aplicación cada
vez más extensa a todos los ámbitos de la vida humana. Sin duda alguna, el más
significativo desarrollo tecnológico durante el último siglo, ha sido la construcción
de computadoras de finalidades generales, capaces de hacer cosas que en el
hombre se consideran como comportamiento inteligente. El desarrollo tecnológico
alcanzado por el hombre a finales del siglo XIX y principios del XX, los
conocimientos acumulados en las distintas ciencias como la Matemática, favoreció
el surgimiento teórico de la construcción de las computadoras, materializado en la
primera mitad de este siglo. La computadora es una máquina capaz de realizar
una gran cantidad de cálculos aritméticos y procesos de control a una gran
velocidad (procesos repetitivos y tediosos que desgastan al hombre). La
computadora es una de las herramientas más poderosas de la sociedad actual. La
computación es el método idóneo para facilitar el registro, la elaboración y
procesamiento de la información, así como los cálculos matemáticos para su
análisis y para lograr la adopción de decisiones. En todos los sentidos la
computación constituye una herramienta que ayuda a resolver los problemas que
se presentan y esta ayuda no puede ni debe ser subestimada. Las nuevas
tecnologías de la información han permitido la rápida difusión de los conocimientos
científicos, contribuyendo sin lugar a dudas a la introducción de nuevas técnicas
en el desarrollo de la producción material y los servicios. Las grandes redes de
computadoras y las novedosas tecnologías en las telecomunicaciones permiten
hoy en día que la información pueda circundar el mundo a altas velocidades. Es
indiscutible que el desarrollo de determinadas ramas de las ciencias, en particular
la electrónica, ha revolucionado en unos pocos años la construcción de las
computadoras, permitiendo su introducción vertiginosa en prácticamente todas las
esferas de la vida del hombre moderno. Tal es la influencia de la informática en la
actualidad, que es popular decir que vivimos en "LA ERA DE LA INFORMACIÓN",
donde el poder personal o de un país se mide en cierta forma por la cantidad de
información que posea. Un dato que no es posible pasar por alto es el incremento
de la industria informática. Ya no sólo se automatiza la producción, sino también la
transferencia de conocimientos científicos a la producción y se produce en cierto
sentido la automatización del proceso de obtención de nuevos conocimientos.
TELEMÁTICA: La Telemática es una disciplina científica y tecnológica, originada
por la convergencia entre las tecnologías de las telecomunicaciones y de la
informática. Algunas de las aplicaciones de la telemática podrían ser cualquiera de
las siguientes:
Cualquier tipo de comunicación a través de internet (como por ejemplo el
acceso a páginas web o el envío de correos electrónicos) es posible gracias
al uso de las tecnologías desarrolladas en este ámbito.
El uso de las mensajerías instantáneas está directamente relacionado con
la telemática, ya que esta materia se encarga en parte de controlar ese
intercambio de mensajes entre dos entidades distintas.
Los sistemas GPS (Global Positioning System).
La telemática cubre un campo científico y tecnológico de una considerable
amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y
servicios de comunicaciones, para el transporte, almacenamiento y procesado de
cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y
diseño de tecnologías y sistemas de conmutación. La telemática abarca entre
otros conceptos los siguientes planos funcionales:
El plano de usuario, donde se distribuye y procesa la información de los
servicios y aplicaciones finales.
El plano de señalización y control, donde se distribuye y procesa la
información de control del propio sistema, y su interacción con los usuarios;
El plano de gestión, donde se distribuye y procesa la información de
operación y gestión del sistema y los servicios, y su interacción con los
operadores de la red.
Cada uno de los planos se estructura en subsistemas denominados entidades de
protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos
niveles son agrupaciones de funcionalidad, y según el modelo de interconexión de
sistemas abiertos (modelo OSI) de la Organización Internacional de Normalización
(ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de
transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de
aplicación. Trata también servicios como la tele-educación, el comercio electrónico
(e-commerce) o la administración electrónica (e-government), servicios Web, TV
digital, la conmutación y la arquitectura de conmutadores, y también toca temas
como el análisis de prestaciones, modelado y simulación de redes: optimización,
planificación de la capacidad, ingeniería de tráfico y diseño de redes. Otra
modalidad es encontrarla focalizada en una actividad específica como telemática
educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la
Educación; entre ellos la comunicación interactiva, la distribución de la información
y el uso pedagógico de los servicios.
ORIGEN DEL TÉRMINO: El término telemática se acuñó en Francia (télématique).
En 1976, en un informe encargado por el presidente francés y elaborado por
Simon Nora y Alain Minc (conocido como informe Nora-Minc y distribuido por el
título: Informatización de la Sociedad), en el que se daba una visión
increíblemente precisa de la evolución tecnológica futura. Pero al igual que en
Francia, en los países anglosajones también existe la disciplina telemática, la cual
es denominada como Computer and Communications (del inglés: ‘Ordenador y
Comunicaciones’) o Compunication (concepto acuñado por Wen Gao1 en su
artículo Compunication: From Concept to Practice2). No obstante hay matices
claves a distinguir entre los dos términos. Para aclarar esto, conviene situarse en
el contexto de la época: por una parte Francia, que ponía claro énfasis en las
telecomunicaciones como motor de su transformación social en los 70's, mientras
que Estados Unidos estaba viviendo una gran revolución de la informática. Así,
Compunication (computadores + comunicación) apunta a un modelo con mayor
relevancia de los sistemas informáticos; telemática (télématique) por su parte,
refiere a un mayor énfasis en la telecomunicación en sí. En la actualidad, esta
diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica
ha convergido por completo a nivel mundial, para formar un único cuerpo de
conocimiento bien establecido. Naciendo de esta forma el actual significado de la
telemática.
SOFTWARE LIBRE: Es la denominación del software que respeta la libertad de
todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el
mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido
libremente de varias formas. Según la Free Software Foundation, el software libre
se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar
el software, e incluso modificarlo y distribuirlo modificado. Un programa es
software libre si otorga a los usuarios todas estas libertades de manera adecuada.
De lo contrario no es libre. Existen diversos esquemas de distribución que no son
libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser
libres, nosotros los consideramos contrarios a la ética a todos por igual. El
software libre suele estar disponible gratuitamente, o al precio de costo de la
distribución a través de otros medios; sin embargo no es obligatorio que sea así,
por lo tanto no hay que asociar software libre a software gratuito (denominado
usualmente freeware), ya que, conservando su carácter de libre, puede ser
distribuido comercialmente (software comercial). Análogamente, el software gratis
o gratuito incluye en ocasiones el código fuente; no obstante, este tipo de software
no es libre en el mismo sentido que el software libre, a menos que se garanticen
los derechos de modificación y redistribución de dichas versiones modificadas del
programa. Tampoco debe confundirse software libre con software de dominio
público. Éste último es aquel software que no requiere de licencia, pues sus
derechos de explotación son para toda la humanidad, porque pertenece a todos
por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este
software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor
han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que
sea, ya no es del dominio público.
VENTAJAS DEL SOFTWARE LIBRE
Escrutinio Público: Al ser muchos las personas que tienen acceso al
código fuente, eso lleva a un proceso de corrección de errores muy
dinámico, no hace falta esperar que el proveedor del software saque una
nueva versión.
Independencia del proveedor: Al disponer del código fuente, cualquier
persona puede continuar ofreciendo soporte, desarrollo u otro tipo de
servicios para el software. No estamos supeditados a las condiciones del
mercado de nuestro proveedor, es decir que si este se va del mercado
porque no le conviene y discontinua el soporte, nosotros podemos
contratar a otra persona.
Traducción: cualquier persona capacitada puede traducir y adaptar un
software libre a cualquier lengua.
Corrección ortográfica y gramatical: una vez traducido el software libre
puede presentar errores de este tipo, los cuales pueden ser subsanados
con mayor rapidez por una persona capacitada.
Mayor seguridad y privacidad: Los sistemas de almacenamiento y
recuperación de la información son públicos. Cualquier persona puede ver
y entender cómo se almacenan los datos en un determinado formato o
sistema. Existe una mayor dificultad para introducir código malicioso como
ser: espía (p/ej. Capturador de Teclas), de control remoto (p/ej. Troyano),
de entrada al sistema (p/ej. puerta trasera), etc.
Garantía de continuidad: el software libre puede seguir siendo usado aun
después de que haya desaparecido la persona que lo elaboro, dado que
cualquier técnico informático puede continuar desarrollándolo, mejorándolo
o adaptándolo.
Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro
grandes costos: de adquisición, de implantación (este a su vez se
compone de costos de migración y de instalación), de soporte o
mantenimiento, y de interoperabilidad. El software libre principalmente
disminuye el costo de adquisición ya que al otorgar la libertad de distribuir
copias la puedo ejercer con la compra de una sola licencia y no con tantas
como computadoras posea (como sucede en la mayoría de los casos de
software propietario). Cabe aclarar que también hay una disminución
significativa en el costo de soporte, no ocurriendo lo mismo con los costos
de implantación y de interoperabilidad.
DESVENTAJAS DEL SOFTWARE LIBRE
Si observamos la situación actual, es decir la existencia mayoritaria de Software
Propietario, tenemos:
Dificultad en el intercambio de archivos: esto se da mayormente en los
documentos de texto (generalmente creados con Microsoft Word), ya que si
los queremos abrir con un Software Libre (p/ ej. Open Office o LaTeX) nos
da error o se pierden datos. Pero está claro que si Microsoft Word creara
sus documentos con un formato abierto (o público) esto no sucedería.
Mayores costos de implantación e interoperabilidad: dado que el software
constituye "algo nuevo", ello supone afrontar un costo de aprendizaje, de
instalación, de migración, de interoperabilidad, etc., cuya cuantía puede
verse disminuida por: mayor facilidad en las instalaciones y/o en el uso, uso
de emuladores (p/ej. Si el usuario utiliza Microsoft Windows, la solución
sería instalar alguna distribución de GNU/Linux y luego un emulador de
Windows, como Wine, VMWare. Terminal X, Win4Lin). Vale aclarar que el
costo de migración está referido al software, ya que en lo que hace a
Hardware generalmente el Software Libre no posee mayores
requerimientos que el Software Propietario.
TIPOS DE LICENCIAS: Una licencia es aquella autorización formal con carácter
contractual que un autor de un software da a un interesado para ejercer "actos de
explotación legales". Pueden existir tantas licencias como acuerdos concretos se
den entre el autor y el licenciatario. Desde el punto de vista del software libre,
existen distintas variantes del concepto o grupos de licencias:
Licencias GPL: Una de las más utilizadas es la Licencia Pública General de
GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y
permite la redistribución y modificación bajo términos diseñados para
asegurarse de que todas las versiones modificadas del software
permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto
hace que sea imposible crear un producto con partes no licenciadas GPL: el
conjunto tiene que ser GPL. Es decir, la licencia GNU GPL posibilita la
modificación y redistribución del software, pero únicamente bajo esa misma
licencia. Y añade que si se reutiliza en un mismo programa código "A"
licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de
licencia libre, el código final "C", independientemente de la cantidad y
calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia
GNU GPL. En la práctica esto hace que las licencias de software libre se
dividan en dos grandes grupos, aquellas que pueden ser mezcladas con
código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en
el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que
no lo permiten al incluir mayores u otros requisitos que no contemplan ni
admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni
mezcladas con código gobernado por la licencia GNU GPL. En el sitio web
oficial de GNU hay una lista de licencias que cumplen las condiciones
impuestas por la GNU GPL y otras que no.6 Aproximadamente el 60% del
software licenciado como software libre emplea una licencia GPL o de
manejo.
Licencias AGPL: La Licencia Pública General de Affero (en inglés Affero
General Public License, también Affero GPL o AGPL) es una licencia
copyleft derivada de la Licencia Pública General de GNU diseñada
específicamente para asegurar la cooperación con la comunidad en el caso
de software que corra en servidores de red. La Affero GPL es íntegramente
una GNU GPL con una cláusula nueva que añade la obligación de distribuir
el software si éste se ejecuta para ofrecer servicios a través de una red de
ordenadores. La Free Software Foundation recomienda que el uso de la
GNU AGPLv3 sea considerado para cualquier software que usualmente
corra sobre una red.7
Licencias Estilo BSD: Llamadas así porque se utilizan en gran cantidad de
software distribuido junto a los sistemas operativos BSD. El autor, bajo tales
licencias, mantiene la protección de copyright únicamente para la renuncia
de garantía y para requerir la adecuada atribución de la autoría en trabajos
derivados, pero permite la libre redistribución y modificación, incluso si
dichos trabajos tienen propietario. Son muy permisivas, tanto que son
fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con
quienes son compatibles. Puede argumentarse que esta licencia asegura
“verdadero” software libre, en el sentido que el usuario tiene libertad
ilimitada con respecto al software, y que puede decidir incluso redistribuirlo
como no libre. Otras opiniones están orientadas a destacar que este tipo de
licencia no contribuye al desarrollo de más software libre (normalmente
utilizando la siguiente analogía: "una licencia BSD es más libre que una
GPL si y sólo si se opina también que un país que permita la esclavitud es
más libre que otro que no la permite").
Licencias Estilo MPL y Derivadas: Esta licencia es de Software Libre y tiene
un gran valor porque fue el instrumento que empleó Netscape
Communications Corp. para liberar su Netscape Communicator 4.0 y
empezar ese proyecto tan importante para el mundo del Software Libre:
Mozilla. Se utilizan en gran cantidad de productos de software libre de uso
cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y
promueve eficazmente la colaboración evitando el efecto "viral" de la GPL
(si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado
GPL). Desde un punto de vista del desarrollador la GPL presenta un
inconveniente en este punto, y lamentablemente mucha gente se cierra en
banda ante el uso de dicho código. No obstante la MPL no es tan
excesivamente permisiva como las licencias tipo BSD. Estas licencias son
denominadas de copyleft débil. La NPL (luego la MPL) fue la primera
licencia nueva después de muchos años, que se encargaba de algunos
puntos que no fueron tomados en cuenta por las licencias BSD y GNU. En
el espectro de las licencias de software libre se la puede considerar
adyacente a la licencia estilo BSD, pero perfeccionada.
ALFABETIZACIÓN TECNOLÓGICA EN SOFTWARE LIBRE: Es el estado de
derecho que tenemos todos los venezolanos para acceder a los avances
tecnológicos en comunicaciones, consagrado constitucionalmente en el artículo 3
de nuestra carta magna, anteriormente esto no era posible pues los software de
computadora eran privados y quien quería hacer uso de los mismos tenía que
pagar un costo monetario muy elevado, por lo que el gobierno consiguió regular su
funcionamiento aunó más accesible para todos sin discriminación de ningún tipo.
En la actualidad el entorno social, económico y cultural que rodea al ser humano
evoluciona de una manera estrepitosa. La revolución de la tecnología informática,
ha provocado una transformación radical de las formas de producción, difusión y
consumo del conocimiento y la cultura. La aparición de nuevas tecnologías tales
como son: La televisión digital y de paga, la introducción de las Pc"s en los
hogares, el acceso a Internet (red mundial de información), telefonía móvil están
provocando nuevas necesidades formativas y de conocimiento en los ciudadanos.
Es claro, que las personas de hoy, requieren de nuevas habilidades y
conocimientos para poder desarrollarse en el mundo contemporáneo. Se ha
puesto mucho énfasis a la alfabetización convencional en las escuelas, pero hoy
se llega a saber que hay múltiples alfabetizaciones. Sabemos que el concepto de
alfabetización se refiere al hecho de saber leer y escribir, pero la alfabetización
tecnológica es el saber "leer y escribir" pero con la computadora, además de
entender y utilizar la información para apoyar el aprendizaje, la productividad
personal, la toma de decisiones y la vida diaria. En otras palabras, la
alfabetización tecnológica es desarrollar los conocimientos y habilidades tanto
instrumentales como cognitivas en relación con la información vehiculada a través
de nuevas tecnologías (manejar el software, buscar información, enviar y recibir
correos electrónicos, utilizar los distintos servicios de WWW, etc.), además
plantear y desarrollar valores y actitudes de naturaleza social y política con
relación a las tecnologías.
PRINCIPIOS Y VALORES QUE ORIENTAN LA ALFABETIZACIÓN
TECNOLÓGICA
La alfabetización tecnológica, tiene como principio fundamental el dar educación y
conocimiento a los venezolanos del uso adecuado y veras de la tecnología como
herramienta de desarrollo social y productivo, de demostrar y dar a entender que
hay principios de igualdad y libertad, como lo dictan los principios fundamentales
de la Constitución de la República Bolivariana de Venezuela, que definen al
Estado Venezolano como "Democrático y Social, de Derechos y de Justicia que
propugna como valores superiores: la vida, la libertad, la justicia, la igualdad, la
solidaridad, la democracia, la responsabilidad individual y social, la preeminencia
de los derechos humanos, la ética pública y el pluralismo político. Los cuales
tienen como sus fines esenciales (art. Nº 3) "la defensa y el desarrollo de la
persona y el respecto a su dignidad, la profundización del ejercicio democrático de
la voluntad popular, la construcción de una sociedad justa, solidaria amante de la
paz y garante del cumplimiento de los principios derechos y deberes asumiendo el
principio de equidad como nuevo orden de justicia social y base material de la
sociedad venezolana." En la Constitución de la República Bolivariana de
Venezuela propugna como elementos fundamentales la Educación y el Trabajo
para la construcción de la nueva República sobre la base de la justicia social el
desarrollo endógeno, la democracia participativa y la soberanía nacional. Esto
define que los valores que orientan a la alfabetización tecnológica, no son otros
que el de que los principios de igualdad y justicia social para el desarrollo del país.
DECRETO 3390
El referido decreto, nos habla de los planes y acciones que toma el gobierno de la
República Bolivariana de Venezuela, para la implementación de software libre en
los sistemas de la administración pública y en la sociedad, a través de la
capacitación de los funcionarios públicos y usuarios, para el manejo y uso de
estos mediante acciones conjuntas del Ministerio de Educación y Deporte y el
Ministerio de Ciencia y Tecnología, promoviendo la cooperación internacional en
asuntos que refiere la materia. Así como también, de fomentar y dar apoyo al
desarrollo de software libre con estándares abiertos bajo incentivos especiales a
los desarrolladores de los mismos.
PLAN NACIONAL DE ALFABETIZACIÓN TECNOLÓGICA: El programa básico
del Plan Nacional de Alfabetización Tecnológica es un curso introductorio al
conocimiento del hardware y software del computador, uso, utilidad y la
importancia de las Tecnologías de Información y Comunicación (TIC) para el
desarrollo científico e integral del país y también para la soberanía e
independencia tecnológica. Va dirigido A Personas adultas y a estudiantes en
general pertenecientes a los diferentes niveles de Educación y a las Misiones y
comunidad en general. Ya que la Persona que lo desee aun cuando nunca haya
tenido contacto con un equipo de computación.
El curso consta de (5) cinco módulos con una duración de 20 horas académicas,
es de carácter presencial por lo que la asistencia a cada una de las unidades es
imprescindible para su aprobación.
Unidad I: Conociendo el computador. Identificación del hardware y el
software. al igual identificar, sus dispositivos y aplicar el proceso adecuado
de las funciones.
Unidad II: Alfabetización Tecnológica para el ejercicio de ciudadanía. Esta
unidad constituye el eje transversal del curso porque permite la articulación
entre el conocimiento y la práctica en (TIC) y su importancia para el
desarrollo integral del país.
Unidad III: Uso básico del computador. Encendido y apagado del
computador, definición del sistema operativo Linux, ingreso a Linux,
elementos de la interfaz gráfica, funciones del programa nautilus, cambio de
apariencia de Linux, funciones del menú aplicaciones y acciones y distintas
operaciones de directorios y archivos.
Unidad IV: Programas de aplicación en Linux. Procedimiento para abrir el
programa OpenOfficeWriter, conocer la pantalla principal, procedimiento
para crear y cerrar un documento, insertar, seleccionar y dar formato a un
texto, copiar, cortar, pegar y mover textos, crear tablas, abrir y cerrar
presentaciones, diseñar e insertar diapositivas, insertar objetos, ver
presentaciones, etc.
Unidad V: Internet Básico. Definición de Internet, principales usos de la red,
definición de la www. Navegadores, los buscadores, página Web, correo
electrónico: partes de un mensaje, redacción de una dirección de correo,
nombre de buzón y dominio de una dirección de correo.
En los Infocentros se imparten cursos y talleres de Alfabetización tecnológica
(GRATUITOS), bajo un Margen y/o Lapso de una (1) semana, que está
distribuidos en cinco días (5), en donde está representado entre las modalidades
Matutino y Vespertino, ya que ambos turnos están comprendidos por (3) tres horas
diarias. Cabe mencionar que las capacitaciones en base al Plan Nacional de
alfabetización tecnológica “P.N.A.T”, se dicta de manera intensiva en todos los
Infocentros del país y a su vez en otros espacios comunitarios que estén
destinados a la formación de este plan que está regido por el decreto #3390 de los
Estándares Abiertos de Migración de Software Libre.
SOPORTE TÉCNICO A USUARIAS Y USUARIOS: Es el nivel de soporte inicial,
responsable de las incidencias básicas del cliente. Es sinónimo de soporte de
primera línea El principal trabajo de un especialista de es reunir toda la
información del cliente y determinar la incidencia mediante el análisis de los
síntomas y la determinación del problema subyacente. Cuando se analizan los
síntomas, es importante para el técnico de soporte identificar qué es lo que el
cliente está intentando llevar a cabo de forma que no se pierda tiempo intentando
resolver un síntoma en lugar de un problema. Una vez que se ha logrado
identificar el problema subyacente, el especialista puede comenzar a prestar la
verdadera asistencia iterando de forma ordenada sobre el catálogo de posibles
soluciones disponibles. Los especialistas de soporte técnico en este grupo
habitualmente manejan problemas simples de resolución sencilla, posiblemente
haciendo uso de algún tipo de herramienta de gestión del conocimiento. Esto
incluye métodos de resolución de problemas como la verificación de incidencias
en las líneas físicas, resolución de problemas de usuario y contraseña,
instalación/reinstalación básica de aplicaciones software, verificación de
configuración apropiada de hardware y software, y asistencia mediante la
navegación de menús de aplicación. El personal a este nivel tiene un conocimiento
entre básico y general del producto o servicio y no siempre ha de tener la
competencia necesaria para resolver problemas complejos. No en vano, el
objetivo de este grupo es manejar entre el 70-80 % del de los problemas del
usuario antes de concluir en la necesidad de escalar la incidencia a un nivel
superior. En algunos sectores, el soporte de 1.er nivel en realidad requiere muy
buen conocimiento de los productos y de los términos y condiciones ofrecidas por
el negocio más allá de los conocimientos técnicos propiamente dichos. Este es el
nivel básico de soporte técnico. Los conocimientos con los que cuenta son:
Formateo de computadoras, instalación de paquetería y cambios de piezas de
computadoras. Existen diferentes tipo de soporte técnico que se pueden realizar a
los usuarios entre estos encontramos los siguientes:
Soporte Técnico Presencial: Es aquella asistencia que se proporciona a
cualquier usuario que presente un desperfecto, anomalía, daño o problema
en su computadora. Se proporciona al hardware y software en el lugar
donde se encuentre el equipo de cómputo. Consiste en que haya contacto
entre el técnico y la computadora a reparar.
Soporte Técnico A Distancia: Consisten en una asistencia que se
proporciona a cualquier usuario para su equipo de cómputo a largas
distancias a través de línea telefónica, internet o cualquier otro tipo de
contacto.
En Línea: es el que se da a través de correos electrónicos, chat, páginas
web, etc. para ayudar a un usuario a resolver sus problemas diciéndole
como lo debe de hacer paso por paso para que el problema se resuelva
correctamente.
Asistencia Telefónica: este es el más común, es el que mayormente ponen
en práctica las empresas.
SOPORTE TÉCNICO A EQUIPOS
El Soporte Técnico a Equipos es una serie de Servicios que Proporcionan Asistencia con el Hardware o el Software de un Equipo, como los Portátiles, Computadores de Escritorio, Periféricos de Computador e Impresoras. Los Servicios de Soporte Técnico a Equipos tratan de resolver determinados problemas propios del Hardware o Software, que se encuentran fuera de la posibilidad de solucionarlos el Usuario aun con Asistencia Especializada. SISTEMA OPERATIVO CANAIMA: Canaima es una distribución GNU/Linux
Venezolana basada en Debian surgida como consecuencia del Decreto
Presidencial 3.3901 sobre el uso de Tecnologías Libres en la APN Venezolana,
promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la
Gaceta Oficial Nº 39.633.
Características Principales:
Totalmente desarrollada en Software Libre.
No está limitada al uso en la APN, sino que puede ser usado por cualquier
persona.
Se encuentra equipado con herramientas ofimáticas
Permite la interacción con Internet, a través de su navegador web, gestor
de correo electrónico y aplicaciones para realizar llamadas telefónicas por
la red.
Es estable y segura, basada en la versión estable de GNU/Linux Debian, la
cual pasa por una serie de procesos y pruebas rigurosas de calidad.
Realizada en Venezuela por talento nacional.
SOFTWARE INCLUIDO
Escritorio de Canaima GNU/Linux 2.0: Como otras distribuciones, Canaima
GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática,
entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz
predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por
la comunidad, con diferentes escritorios, como XFCE.
OFIMÁTICA:
Suite de Oficina LibreOffice, con los siguientes módulos:
Procesador de textos
Hoja de cálculo
Generador de Presentaciones
Generador de fórmulas matemáticas y software de dibujo
Gestión de proyectos: Planner
Editor de HTML.: Siguiendo la tendencia impuesta por otras organizaciones
que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice
sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser
incorporado el gestor de base de datos de esta suite de oficina.
INTERNET:
Navegador web: Cunaguaro,7 basado en Iceweasel, presente desde la
versión 3.0 de Canaima y que sustituye al navegador Curiara.
Cliente de correo electrónico: Guácharo.8
Cliente de mensajería instantánea: Pidgin.9
Cliente Twitter: Turpial.10
GRÁFICOS:
Libreoffice Draw.
GNU Paint.
Editor de diagramas Dia.
Gimp
Inkscape
Visor de cámara Web Cheese.
Shotwell Photo Manager.
Software de escaneo de imágenes Xsane.
PROGRAMACIÓN:
Quanta Plus.
Eclipse.
Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de
programación C, C++, Java, Python y Vala, en sistemas GNU/Linux y
BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux.
PROYECTO CANAIMA EDUCATIVO: El Proyecto Canaima Educativo es un
proyecto desarrollado por el Gobierno de la República Bolivariana de Venezuela
con el objetivo de garantizar el acceso de los venezolanos y las venezolanas a las
Tecnologías de información, mediante:
La dotación de una computadora portátil a los estudiantes y los
docentes de las escuelas nacionales, estadales, municipales,
autónomas y las privadas subsidiadas por el Estado.
La conexión de escuelas a la red de Internet.
La formación para el buen uso de estas tecnologías.
OBJETIVOS DEL PROYECTO CANAIMA EDUCATIVO
Objetivo General: Promover la formación integral de los niños y niñas
venezolanos (as), mediante el aprendizaje liberador y emancipador
apoyado por las tecnologías de información libres.
Objetivos Específicos:
1) Promover el desarrollo integral de los niños y niñas en correspondencia con
los fines educativos.
2) Profundizar la concreción del desarrollo curricular para la formación integral
y con calidad de los niños y niñas venezolanos.
3) Transformar la praxis docente con el uso crítico y creativo de las
Tecnologías de Información Libres.
4) Desarrollar las potencialidades en Tecnologías de Información Libres, para
el apoyo a los procesos educativos.
El Proyecto está desarrollado bajo software libre, desde la elaboración del Sistema
Operativo y de contenidos educativos 100% venezolanos. Se mani-esta en dos
modalidades: “Canaima va a la escuela” realizada en 1er grado bajo el sistema de
red salón y “Canaima va a mi casa” desde 2do grado a 6to grado del Nivel de
Educación Primaria.
CANAIMITAS: El Computador Portátil Canaima Educativo, Dirigido a Estudiantes,
Es un Equipo creado con el propósito de ser utilizado por Niños y Niñas en Edad
Escolar. Por su Tamaño, Peso y Autonomía de Uso, es Ideal para el Aula de
Clases. Cuentan con un Procesador Intel Mobile y Tarjeta de Red con Tecnología
Wi-fi, lo cual hace posible que se Conecten Inalámbricamente a Internet. También
incluyen Cámara Web, Sonido Estéreo, Parlantes, Micrófono Incorporado y una
Batería de larga Duración, La cual misma varía según el Modelo del Equipo.
Adquiridas en convenio con Portugal, Desde el año 2011 en Venezuela, se
Ensamblan Computadoras Canaimas en el Complejo Tecnológico Simón
Rodríguez, Ubicado en el Municipio Baruta del Estado Miranda, al igual que en el
Complejo Tecnológico Simón Bolívar, Ubicado en La Carlota (Caracas) y así
muchos otras Instalaciones que se encuentran en todo el País. Se han entregado
cinco modelos de computadora a alumnos y profesores, con las características
que se detallan:
CANAIMA 1
Portátil Magallanes Canaima MG10T
Procesador: Intel Atom N270 1600MHz
Memoria RAM: 1 GB.
Disco duro: 40GB de 2,5”
Monitor: TFT de 7”
Webcam.
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 2
Portátil Magallanes Canaima MG10T
Procesador: Intel Atom N270 1600MHz
Memoria RAM: 2 GB.
Disco duro: 160GB 2.5”
Monitor: TFT de 7”
Webcam.
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 3.1
Procesador: Intel celeron N455 1660MHz
Memoria RAM: 1GB ddr3.
Disco duro: 300 GB 2,5”
Monitor: LED 10.1”
Tarjeta de red: según la norma 802.11 B/G
Webcam de 0,3 Megapíxeles.
Batería de 3 celdas
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA 4
Portátil Magalhaes 5 Canaima XL
Procesador: Intel® Celeron(R) CPU 847 @ 1.10GHZ
Memoria RAM: 2GB
Disco duro: Samsung HDD 250GB HM251HI
Monitor: TFT 11.6”
Webcam: Bison BN1RM6YKU-320(1.0M HD)
3 puertos USB
Lector y grabador de para memorias Secure Digital
Sistema Operativo: Canaima GNU/Linux
CANAIMA DOCENTE
Portátil Magallanes Canaima MG3 Canaima XL
Procesador: Intel Atom N455 1660MHz
Memoria RAM: 1GB DDR3.
Disco duro: 250 GB 2,5”
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: 11.6”
Webcam de 0,3 Megapixeles.
Batería de 3 celdas.
Botón de inicio: Launch Button X 2
3 puertos USB.
Lector y grabador de para memorias Secure Digital.
Sistema Operativo: Canaima GNU/Linux.
CANAIMA DOCENTE VIT D2100
Computadora Portátil VIT D2100.
Procesador: Intel Core Duo T8100.
Disco duro: 80 GB. 2.5” SATA.
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: TFT 14.1” WXGA (1280×800)
3 puertos USB.
Adaptador de corriente.
Batería removible de 6-celdas con capacidad de 4000mAh o 4400mAh
CANAIMA DOCENTE VIT M2400
Computadora Portátil VIT M2400
Procesador: Intel Core Duo FSB800 2.1GHZ.
Disco duro: 560GB SATA de 5400 RPM.
Memoria: 2GB DDR2.
Tarjeta de red: según la norma 802.11 B/G/N.
Monitor: TFT 14.1” (1280×800)
3 puertos USB.
Batería removible de 6-celdas con capacidad de 4000mAh.
VINCULACIÓN DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019
OBJETIVOS HISTÓRICOS OBJETIVOS NACIONALES
OBJETIVOS ESTRATEGICOS
I.- Defender, Expandir y Consolidar el bien más preciado que hemos reconquistado después de 200 años: la Independencia Nacional.
1.5- Desarrollar nuestras capacidades Científico-Tecnológicas vinculadas a las necesidades del Pueblo.
1.5.1 – 1.5.1.1 – 1.5.1.2 – 1.5.1.3 – 1.5.1.4 – 1.5.2.1 – 1.5.3 – 1.5.3.1 – 1.5.3.3
III.- Convertir a Venezuela en un País Potencia en lo Social, lo Económico y lo Político dentro de la Gran Potencia Naciente de América Latina y el Caribe, que garanticen la conformación de una Zona de Paz en Nuestra América.
3.4- Profundizar el Desarrollo de la nueva Geopolítica Nacional y Regional, Latinoamericana y Caribeña.
3.4.12.11- Incorporar los Nuevos Desarrollos y las Zonas Sin Servicio a la Red de Telecomunicaciones, para asegurar el Acceso a Telefonía, Televisión e Internet.
CAPITULO III
MARCO METODOLÓGICO
METODOLOGÍA DE CAMPO
Es el proceso que, utilizando el método científico, permite obtener nuevos
conocimientos en el campo de la realidad social. O bien, estudiar una situación
para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos
con fines prácticos).
La investigación de campo corresponde a un tipo de diseño de investigación, para
la cual Carlos Sabino (S/f) en su texto "El proceso de Investigación" señala que se
basa en informaciones obtenidas directamente de la realidad, permitiéndole al
investigador cerciorarse de las condiciones reales en que se han conseguido los
datos.
En otras palabras, el investigador efectúa una medición de los datos. Sin embargo,
qué tanto datos se pueden obtener considerando las restricciones de cada estudio
como por la carencia de recursos materiales, humanos, monetarios, físicos.
Sabino señala en el texto referido, algunos tipos de diseño empleados con
frecuencia, estos son:
Diseño experimental: consiste en someter el objeto de estudio a variables,
condiciones controladas y conocidas por el investigador para observar los
resultados que cada variable ejerce sobre el objeto bajo estudio. No aplica
para estudios sociales.
Diseño post – facto: consiste en que le investigador realice una prueba
donde no controla ni regula el entorno se efectúa posterior a los hechos.
Diseño encuesta: consiste en preguntar de forma directa y simple a
determinadas personas representativas de la población bajo estudio, para
conocer su comportamiento. Aplica para ciencias sociales.
Diseño panel: consiste en encuestas repetidas que se aplica a una misma
muestra para observar la evolución, efectuándose en lapsos prefijados y
regulares. Sin embargo, la progresiva reducción de la muestras por
diversas causas (fatiga, traslado, etc.,) ocasiona que el error muestral se
incrementa progresivamente afectando negativamente la calidad de los
resultados.
Diseños cualitativos: trata de recuperar para el análisis, parte de la
complejidad del sujeto, modo de ser y hacer en el medio que lo rodea, lo
subjetivo.
Estudio de Casos: consiste en profundizar el estudio en uno o varios
objetos de investigación.
METODOLOGÍA
1. Concebir la Idea a Investigar: La interacción constante con el ambiente nos permite observar situaciones que a menudo despiertan una serie de interrogantes. Por ejemplo, en la práctica de enfermería podemos observar que la mayoría de pacientes prefiere la atención de determinadas enfermeras. Ante esto, surgen inevitablemente preguntas como:
¿Por qué prefieren a "fulanita" para que los atienda? ¿Cuál es la calidad de la atención que proporcionarnos las demás
enfermeras? ¿La calidad de la atención tiene que ver en la recuperación del paciente?
Son muchas las interrogantes que el investigador se plantea a la hora de
elegir un tema de investigación.
Lo primero es ¿Qué investigar? Aunque esta interrogante parece fácil, no lo
es. En el mundo complejo donde el investigador se mueve, existe un
universo de problemas que solo el deberá descifrar.
El primer problema será entre varias alternativas, es decir, establecer
prioridades al momento de enfrentarse con lo que de ahora en adelante, se
llamara: objeto de investigación, problema de investigación o tema de
investigación.
El investigador deberá seleccionar aquel problema que responda a muchas
condiciones propias a él, como se explican a continuación: Objetividad:
Escogerá el problema y lo investigara lo más objetivamente posible,
tratando que lo subjetivo no intervenga a priori, para así no distorsionar la
investigación y aunque es un tanto difícil desprenderse de esa subjetividad,
debe procurar hacerlo. Ello no significa el desprendimiento total de ello, por
cuanto a la hora de analizar e interpretar los datos, producto de la recogida
de la información por diferentes técnicas de recolección de datos, esa
información requerirá de la capacidad de interpretación del investigador,
para así determinar los logros que se pretenden alcanzar, cuando utiliza los
referentes empíricos (datos, hechos) y que el mismo deberá identificar
dentro del proceso de investigación.
Agrado del tema: Es parte del éxito de la investigación. Cuando el tema no
es de agrado, existirá una predisposición a que todo lo que vaya a hacer le
salga mal, hay desaliento, no hay motivación. Por ello es recomendable que
el investigador se compenetre con el objeto, como si se tratara de un
matrimonio del sujeto con el objeto.
Conocimientos previos sobre el tema: Es importante que investigador sea
una persona que tenga hábitos de lectura. Esta constancia le permitirá ser
conocedor del problema que va a someter a investigación. No es lo mismo
partir de la nada que con un conocimiento previo del tema objeto de
estudio, pues ello será importante como fuente de información general y así
el podrá comparar y determinar cuáles serán las fuentes principales de la
investigación.
Apoyo documental o bibliográfico: Es la condición que permitirá brindarle el
mayor soporte para lo que se pretende investigar. El material de apoyo
significa que el tema ha sido estudiado por otros autores, pero con variables
distintas y de ser coincidentes deberá considerarlos en periodos de tiempo
diferente o bien, con otros indicadores o referentes empíricos, dentro de las
mismas variables. Esta revisión hará que el tema no sea igual a otras
investigaciones y que estará con mayor conocimiento para abordar, desde
todo punto de vista, la temática seleccionada en ese momento.
2. Selección de la Muestra: La muestra es, en esencia, un subgrupo de la población. Se puede decir que es un subconjunto de elementos que pertenecen a ese conjunto definido en sus necesidades al que llamamos población. De la población es conveniente extraer muestras representativas del universo. Se debe definir en el plan, y justificar, los universos en estudio, el tamaño de la muestra, el método a utilizar, y el proceso de selección de las unidades de análisis. En realidad, pocas veces es posible medir a la población por lo que obtendremos o seleccionaremos y, desde luego, esperamos que este subgrupo sea un reflejo fiel de la población.
Básicamente se categorizar las muestras es dos grandes ramas: las probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas como el subgrupo de la población en el que todos los elemento de este tienen la
misma probabilidad de ser escogidos; por consiguiente, las muestras no probabilísticas es cuando la elección de los elementos no depende la probabilidad, sino con causas relacionadas con las características de la investigación o de quien hace la muestra.
La selección de la muestra también la podemos ver desde dos puntos de vista: muestra cuantitativa y muestra cualitativa. La muestra cuantitativa es un subgrupo de la población del cual se recolectan los datos y debe ser representativo en dicha población. Por otra parte, la muestra cualitativa es la unidad de análisis o conjunto de personas, contextos, eventos o sucesos sobre la cual se recolectan los datos sin que necesariamente sea representativo.
3. Marco Teórico: Representa el soporte inicial de la investigación. También se le llama Marco Teórico Conceptual, Marco Referencial, Marco Estructural Conceptual de la Investigación y Marco Conceptual.
Aborda las características del fenómeno o problema en estudio. Estas características (cualidades) constituyen las variables, que no son más que las diferentes proposiciones, diversos conocimientos, que permitirán estudiar al problema. Es razonable que el investigador conozca de las diferentes teorías que soportaran inicialmente el estudio, de allí la importancia de las bases teóricas.
Las funciones que cumple el marco teórico, permite visualizar las técnicas que operaran metodológicamente en el estudio, por cuanto que está compuesta por un conjunto de categorías básicas. Este marco brinda a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permiten abordar el problema para que este cobre sentido.
El marco teórico nos amplía la descripción del problema. Integra la teoría con la investigación y sus relaciones mutuas. Es la teoría del problema, por lo tanto, conviene relacionar el marco teórico con el problema y no con la problemática de donde éste surge. No puede haber un marco teórico que no tenga relación con el problema.
Todo hecho anterior a la formulación del problema que sirve para aclarar, juzgar e interpretar el problema planteado, constituye los antecedentes del problema. Establecer los antecedentes del problema, de ninguna manera es hacer un recuento histórico del problema, o presentar fuentes bibliográficas que se va a utilizar, o los datos recolectados los cuales no sabemos en dónde ubicar, o la descripción de las causas del problema. En los antecedentes se hará una síntesis conceptual de las investigaciones o trabajos realizados sobre el problema formulado con el fin de determinar en enfoque metodológico de la misma investigación. El antecedente puede indicar conclusiones existentes en torno al problema planteado.
Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos. Un concepto es una abstracción
obtenida den la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre. Algunos conceptos están estrechamente ligados a objetos de lo que representan, por eso, cuando se define, se busca asegurar que las personas que lleguen a una investigación determinada conozcan perfectamente el significado con el cual se va a utilizar el término o concepto a través de toda la investigación.
También la metodología para toda investigación es de importancia fundamental. Para ello se deberá planear una metodología o procedimiento ordenado que se seguirá para establecer lo significativo de los hechos y fenómenos hacia los cuales está encaminado el significado de la investigación. Científicamente, la metodología es un procedimiento general para lograr de una manera precisa el objetivo de la investigación.
4. Definir el Tipo de Investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo.
Conviene señalar que el que investiga debe tener claro los distintos métodos que son posibles de aplicar a las ciencias. Algunos son comunes como el inductivo y el deductivo; el analítico y el sintético, el objetivismo y el subjetivismo, así como otros más, que son específicos a cada ciencia.
5. Establecer las Hipótesis: La hipótesis es el eslabón necesario entre la teoría y la investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se debe sugerir explicación a ciertos hechos y orientar la investigación a otros. La hipótesis puede ser desarrollada desde distinto puntos de vista, puede estar basada en una presunción, en el resultado de otros estudios, en la posibilidad de una relación semejante entre dos o más variables representadas en un estudio, o puede estar basada en una teoría mediante la cual una suposición de proceso deductivo nos lleva a la pretensión de que si se dan ciertas condiciones se pueden obtener ciertos resultados, es decir, la relación causa - efecto. Una hipótesis sirve de guía para la obtención de datos en función del interrogante presentado en el problema y para indicar la forma como debe ser organizado según el tipo de estudio.
6. Selección de la Muestra: Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a extraer algunos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad. Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere un gran volumen para incluir todos los tipos de métodos de muestreo.
Entre los tipos de muestra más usados en la Investigación tenemos:
Muestreo aleatorio simple: la forma más común de obtener una muestra es
la selección al azar. Es decir, cada uno de los individuos de una población
tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se
dice que la muestra es viciada. Para tener la seguridad de que la muestra
aleatoria no es viciada, debe emplearse para su constitución una tabla de
números aleatorios.
Muestreo estratificado: una muestra es estratificada cuando los elementos
de la muestra son proporcionales a su presencia en la población. La
presencia de un elemento en un estrato excluye su presencia en otro. Para
este tipo de muestreo, se divide a la población en varios grupos o estratos
con el fin de dar representatividad a los distintos factores que integran el
universo de estudio. Para la selección de los elementos o unidades
representantes, se utiliza el método de muestreo aleatorio.
Muestreo por cuotas: se divide a la población en estratos o categorías, y se
asigna una cuota para las diferentes categorías y, a juicio del investigador,
se selecciona las unidades de muestreo. La muestra debe ser proporcional
a la población, y en ella deberán tenerse en cuenta las diferentes
categorías. El muestreo por cuotas se presta a distorsiones, al quedar a
criterio del investigador la selección de las categorías.
Muestreo intencionado: también recibe el nombre de sesgado. El
investigador selecciona los elementos que a su juicio son representativos,
lo que exige un conocimiento previo de la población que se investiga.
Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se
puede seleccionar las unidades de la muestra en forma aleatoria y después
aplicar el muestreo por cuotas.
Muestreo tipo master simple: es una aplicación combinada y especial de los
tipos de muestra existentes. Consiste en seleccionar una muestra "para ser
usada" al disponer de tiempo, la muestra se establece empleando
procedimientos sofisticados; y una vez establecida, constituirá el módulo
general del cual se extraerá la muestra definitiva conforme a la necesidad
específica de cada investigación.
7. Recolección de Datos: La investigación no tiene sentido sin las técnicas de recolección de datos. Estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que serán empleados.
Todo lo que va a realizar el investigador tiene su apoyo en la técnica de la observación. Aunque utilice métodos diferentes, su marco metodológico de recogida de datos se centra en la técnica de la observación y el éxito o fracaso de la investigación dependerá de cual empleó.
Los instrumentos que se construirán llevaran a la obtención de los datos de la realidad y una vez recogidos podrá pasarse a la siguiente fase: el procesamiento de datos. Lo que se pretende obtener responde a los indicadores de estudio, los cuales aparecen en forma de preguntas, es decir, de características a observar y así se elaboraran una serie de instrumentos que serán los que en realidad, requiere la investigación u objeto de estudio.
La recolección de datos se refiere al uso de una gran diversidad de técnicas y herramientas que pueden ser utilizadas por el analista para desarrollar los sistemas de información, los cuales pueden ser la entrevistas, la encuesta, el cuestionario, la observación, el diagrama de flujo y el diccionario de datos.
Todos estos instrumentos se aplicarán en un momento en particular, con la finalidad de buscar información que será útil a una investigación.
8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación de sus supuestos, como también el amargo sabor de que algo faltó y que debe iniciar de nuevo el camino para ver qué ocurrió.
Los cuadros elaborarlos deberá analizarlos e interpretarlos para sacar sus conclusiones. Aquí entra el sentido crítico objetivo-subjetivo que le impartirá a esos números recogidos en los cuadros. Esos números son abstractos y es el investigador quien les dará sentido.
Para llegar a esta parte crucial del proceso, ha tenido que recorrer un largo camino, horas incontables que se pierden en el tiempo, recursos no fáciles de recuperar, horas de paciencia y de malos ratos, horas de sueño y de recompensa, de angustias y de alegrías. Estos son apenas unos indicadores de lo que significa realizar un trabajo de investigación.
9. Presentación de los Resultados: Con el material ya recogido y organizado, inicia una de las etapas más interesantes, darle sentido, forma, explicación de los resultados obtenidos.
Consiste en la culminación. La labor completa de la información con los datos procesados, analizados e interpretados, donde se ha podido llegar a la determinación de la validez de las posiciones, donde se ha llegado a establecer la eficacia de todo el proceso planificado, donde se han verificado las hipótesis según el diseño seleccionado, donde las variables han sido operacionalizadas.
El Diseño Encuesta:
Es un proceso prácticamente exclusivo de las ciencias sociales. Parte de la premisa de que si queremos conocer algo acerca del comportamiento de las personas, lo mejor es preguntárselo directamente a ellas. La encuesta puede aplicarse de diferentes modos, a explicar:
Auto Administrado: La encuesta se proporciona directamente a los
respondientes, quienes lo contestan. No hay intermediarios y las respuestas
las hacen ellos mismos. Por ejemplo, si los encuestados fueran los
estudiantes de Derecho de la Facultad de Ciencias Jurídicas, Políticas y
Criminológicas de la Universidad de Los Andes, se acudirá directamente a
ellos y se les entregara el cuestionario. Evidentemente que este modo de
aplicar el cuestionario es impropio para analfabetas, personas que tienen
dificultades de lectura o niños que todavía no leen de manera adecuada.
Por entrevista personal: El entrevistador deberá aplicar el cuestionario a los
encuestados haciéndole preguntas al respondiente e ir anotando los
resultados. En este caso las instrucciones deben ser para el entrevistador.
Normalmente se tienen varios encuestadores quienes deberán estar
capacitados en el arte de entrevistar y conocer a fondo el cuestionario. De
igual forma, no puede sesgar o influir en las respuestas.
Por entrevista telefónica: Esta situación es similar a la anterior, solo que la
entrevista no es "cara a cara", sino a través del teléfono. El entrevistador le
hace preguntas al entrevistado solo por medio de la voz y deberá el mismo
anotar las respuestas.
Auto administrado y enviado por correo postal o electrónico: Los
respondientes contestan directamente el cuestionario, estos marcan o
anotan las respuestas sin intermediarios. La diferencia está en que el
cuestionario se entrega directamente en las manos del entrevistado y este
se reenvía por correo u otro medio. Si es por correo o mensajería, no hay
retroalimentación inmediata y si los sujetos tienen alguna duda no se les
puede aclarar. Las encuestas por Internet han ido ganando terreno y, a
diferencia de la anterior, estas si ofrecen la posibilidad de interacción y
asesoría. Conforme más personas tengan acceso a Internet, este medio
cobrara más fuerza.
La Observación:
La observación puede ser participante o no participante. En la primera el observador interactúa con los sujetos observados, pero en la segunda no ocurre tal interacción. Por ejemplo, un estudio sobre la conducta de aprendizaje de niños autistas, donde el instructor tiene que interactuar con los niños y al mismo tiempo codificar.
La observación tiene varias ventajas, a seguir:
Son técnicas de medición no obstructivas, en el sentido que el instrumento de medición no estimula el comportamiento de los sujetos. Los métodos no obstructivos simplemente registran algo que fue estimulado por otros factores ajenos al instrumento de medición.
Acepta material no estructurado.
Pueden trabajar con grandes volúmenes de datos.
El Dato:
Una vez planteada la investigación y realizadas todas las tareas que permitan la puesta en marcha de una investigación, corresponde pasar al campo mismo de estudio para efectuar en el la recolección de datos e información, con el fin de dar respuesta al problema planteado como forma de estudio.
Existen numerosos procedimientos para la tarea de recolección de datos, variables conforme a las circunstancias concretas de la índole de la investigación.
Las técnicas más utilizadas en la recolección de datos son: La observación, la entrevista, el cuestionario, las escalas de actitudes y opiniones, los test, la sociometría, la recopilación documental, la semántica documental, el análisis de contenido, etc.
También la "práctica social" es fuente de conocimiento en una investigación.
Recolección de Datos:
Constituye una fase completamente mecánica, la cual puede llevarse a cabo de forma manual o computarizada. Todo depende del tipo de muestra que se haya determinado dentro de la investigación, es decir, la muestra que representa el objeto de estudio.
Si la muestra es pequeña, el investigador puede manejar los datos utilizando sus medios manuales, pero si la muestra es grande, necesitara apoyarse en medios más tecnificados como el uso de computadoras que permitan ofrecerles resultados más rápidos y quizás menos riesgosos que si los realizara manualmente.
En cualquiera de las dos formas que emplee, deberá llevar a cabo todo un proceso sistematizado, que parte de clasificar los datos de tal forma que le sea fácil su estudio.
Previamente los ordenará y procederá a elaborar su propia guía, permitiendo así el fácil procesamiento de los datos. Para ello deberá considerar cuatro pasos, los cuales son: Agrupación, Categorización, Codificación y Tabulación. (ACCT).
Cualquiera que sea el instrumento o medio utilizado para recabar la información, esta tendrá carácter meramente empírico. Los datos recogidos están en función de los tipos de preguntas elaboradas. Algunas respuestas serán directas y otras teóricas, que permitirán comprobar la validez de las hipótesis.
Las respuestas deben analizarse y el primer paso será el proceso de Agrupación.
Agrupación: Consiste en la facultad que tiene el investigador de agrupar
todas las respuestas similares o con gran parecido, de tal manera que la
información obtenida pueda manejarse con mayor comodidad, tratando que
los grupos que la conforman no serán demasiados y se haga fácil el
proceso.
Categorización: La agrupación anterior conlleva al señalamiento de las
categorías o ítems en que estas respuestas deben concentrarse.
Establecerá las que considere convenientes para su estudio según lo
señalado en la fase de operacionalización.
Codificación: Consiste en la expresión numérica a la que será sometida
cada una de las respuestas verbales y que en el caso estudiado,
corresponderá asignarle a cada una de las categorías. El código podrá ser
también en letras, queda a elección del sistema que elija el procesador de
datos.
Tabulación: Consiste en la contabilización que se efectúa de cada una de
las preguntas para determinar numéricamente las respuestas obtenidas.
Importancia de la Recolección de Datos:
La investigación no tiene sentido sin las técnicas de recolección de datos, estas técnicas conducen a la verificación del problema planteado.
Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que sean empleados. Todo lo que va a realizar el investigador tiene su tiene su apoyo en la técnica de recolección de datos. Aunque utilice medios diferentes, su marco metodológico de recolección de datos se concentra en la técnica de la observación y el éxito o fracaso del proceso investigativo dependerá de cual empleo.
Los Instrumentos que se construirán, llevaran a la obtención de los datos de la realidad y una vez recogidos se podrá pasar a la siguiente fase del procesamiento de los datos obtenidos como información.
Análisis de los Datos:
Los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", esto es, encontrarles significación. En esto consiste, en esencia, el análisis e interpretación de los datos. El propósito es poner de relieve todas y cada una de las partes del conjunto que proporcionan respuestas a los integrantes de la investigación, es decir, a los problemas formulados.
El objetivo del análisis es buscar un significado más amplio a las respuestas mediante su comparación con otros conocimientos disponibles: generalizaciones, leyes, teorías, etc. Básicamente, el análisis e interpretación de datos es la culminación de todo el proceso de la investigación, porque las fases precedentes se ordenan en función de esta tarea.
Cabe destacar que tanto el análisis como la interpretación de los datos tienen mucho más de trabajo artesanal, por tanto, esta fase no puede reducirse a una simple operación contable. METODOLOGÍA DOCUMENTAL
La Investigación Documental como una variante de la investigación científica, cuyo objetivo fundamental es el análisis de diferentes fenómenos (de orden histórico, psicológico, sociológico, etc.), utiliza técnicas muy precisas, de la Documentación existente, que directa o indirectamente, aporte la información.
Podemos definir a la investigación documental como parte esencial de un proceso de investigación científica, constituyéndose en una estrategia donde se observa y reflexiona sistemáticamente sobre realidades (teóricas o no) usando para ello diferentes tipos de documentos. Indaga, interpreta, presenta datos e informaciones sobre un tema determinado de cualquier ciencia, utilizando para ello, una metódica
de análisis; teniendo como finalidad obtener resultados que pudiesen ser base para el desarrollo de la creación científica.
Visto en estos términos, la Investigación Documental podemos caracterizarla de la siguiente manera:
Se caracteriza por la utilización de documentos; recolecta, selecciona, analiza y presenta resultados coherentes.
Utiliza los procedimientos lógicos y mentales de toda investigación; análisis, síntesis, deducción, inducción, etc.
Realiza un proceso de abstracción científica, generalizando sobre la base de lo fundamental.
Realiza una recopilación adecuada de datos que permiten redescubrir hechos, sugerir problemas, orientar hacia otras fuentes de investigación, orientar formas para elaborar instrumentos de investigación, elaborar hipótesis, etc.
Puede considerarse como parte fundamental de un proceso de investigación científica, mucho más amplio y acabado.
Es una investigación que se realiza en forma ordenada y con objetivos precisos, con la finalidad de ser base a la construcción de conocimientos.
Se basa en la utilización de diferentes técnicas de: localización y fijación de datos, análisis de documentos y de contenidos.
En un sentido restringido, entendemos a la investigación documental como un proceso de búsqueda que se realiza en fuentes impresas (documentos escritos). Es decir, se realiza una investigación bibliográfica especializada para producir nuevos asientos bibliográficos sobre el particular.
Una confusión muy generalizada, coloca como iguales, a la investigación bibliográfica y a la investigación documental. Esta afirmación como podemos observar, reduce la investigación documental a la revisión y análisis de libros dejando muy pobremente reducido su radio de acción. La investigación bibliográfica, aclaramos, es un cuerpo de investigación documental. Asumimos la bibliografía como un tipo específico de documento, pero no como el Documento.
Las Fuentes de Información de la Investigación Documental son:
FUENTE PRIMARIA: Libros, artículos, monografías, tesis, documentos, trabajos de investigación presentados en conferencias, congresos y seminarios .Estas fuentes son los documentos que registran o corroboran el conocimiento inmediato de la investigación. Incluyen libros, revistas, informes técnicos y tesis. Libros: De
acuerdo con la UNESCO (1964), se llama libro a aquella publicación que tiene más de 49 páginas, y folleto a la que tiene entre cinco y 48 páginas.
Informes técnicos: En este tipo de informes se incluyen las memorias de conferencias, los informes de congresos, reuniones y otros. Son importantes debido a que la información generalmente versa sobre asuntos de actualidad que afectan a una comunidad particular o son de interés grupal. Diarios y periódicos.
FUENTE SECUNDARIA: Resúmenes y listados de referencias publicados en un área específica de conocimiento. Cualquier fuente secundaria que se utilice tendrá que ser objeto de comprobación de cualquier factor que puedan afectar la exactitud o la validez de la información Este renglón incluye las enciclopedias, los anuarios, manuales, almanaques, las bibliografías y los índices, entre otros; los datos que integran las fuentes secundarias se basan en documentos primarios. Depósitos de información: el primer paso para recabar datos es acudir a los centros de información, como biblioteca, hemeroteca, archivos y museos. En la búsqueda de información en la biblioteca es importante tener algunas nociones sobre su organización y funcionamiento, tales como: Los libros están ordenados de manera alfabética. Se clasifican por fichas. Se marca en los lomos del libro el código por fechas. Se forman catálogos Se elaboran registros para localizar materiales afines a la obra. Por lo tanto se trata de hacer una cuidadosa revisión de los estudios teóricos y prácticos que ya se han realizado y que tienen relación con el problema planteado. Esta revisión se debe hacer porque no existe campo del conocimiento, completamente nuevo o inexplorado.
Todo estudio debe tomar elementos del pasado y reconocer lo que otras personas o investigadores han hecho. No realizar una exhaustiva revisión documental conduce a errores graves y a desaprovechar la oportunidad de hacer un trabajo más original y metodológicamente más objetivo.
Por eso la investigación documental puede iniciarse directamente en el acopio de las fuentes primarias, situación que ocurre cuando el investigador conoce la ubicación de la información y se encuentra familiarizado con el campo de estudio.
Sin embargo se dan casos en los que hay poco material en hemerotecas número reducido de centros de información, donde muchas veces las colecciones de revistas son incompletas o no se encuentran actualizadas y no disponen de documentos muy fiables.
OTRAS FUENTES: Con la expansión de las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas características son escasamente conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad que no podría existir al margen de la sociedad real, que es su soporte material. Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias especificaciones, que la han convertido en un tema de gran interés para los académicos interesados en indagar las características que tendrá la nueva
sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿ Que es la Web grafía ? es un directorio de aplicaciones y recursos libres, puede seleccionar una categoría y explorar los diferentes recursos. ¿Cuáles son las categorías? Actualmente se cuenta con 21 recursos distribuidos en las siguientes 17 categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos, Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases de datos, Sistemas operativos, Escritorio, Seguridad, Utilidades, entre otros. ¿Cuáles son los tipos de recursos? En este momento se clasifican los tipos de recursos en 3: Programas, Documentos, Enlaces, en el caso de programas y documentos no se encuentran al interior del portal, de hecho el directorio solo organiza, clasifica y enlaza los recursos.
METODOLOGÍA
1.- Elección del Tema:
Está comprobado que con un mayor conocimiento sobre un campo de estudio, será más fácil detectar el área que necesita ser investigada.
El investigador debiera preguntarse lo siguiente:
¿Cuál es el problema que necesita ser investigado?
¿Ayuda la investigación a ampliar los conocimientos en este campo?
Es muy importante que el tema sea motivante, ya que la investigación requiere mucho tiempo y es posible que el interés decaiga.
2.- Acopio de Bibliografía Básica sobre el Tema:
Se reúne todo el material publicado o inédito; artículos, estudios críticos, monografías, ensayos, documentos de archivo, libros, tesis, etc.
Conocer las ideas o datos expuestos anteriormente provee de bases sólidas para mejorar nuestra idea y no repetirla.
Los artículos críticos de revista especializada resultan más ricos y aprovechables por sobre los de tratamiento indirecto.
3.- Elaboración de Fichas Bibliográficas y Hemerográficas:
Permite localizar rápidamente el material en el momento oportuno.
Con los datos básicos de un documento (nombre de libro, autor, editorial, número de edición, etc.) se hace el registro en las fichas.
4.- Lectura Rápida del Material:
Su fin, el de ubicar las principales ideas y conocer la calidad del material recabado
Se recomienda leer las partes que más podrían interesar; índice, introducción, prologo, conclusiones, párrafos específicos, etc.
Alguna idea relevante puede aparecer en un principio en la lectura, no se recomienda subrayarla, probablemente esta aparezca con mayor claridad.
5.- Delimitación del Tema:
Después de la lectura rápida es más fácil delimitar el tema, porque se puede medir su dimensión y alcance, su aspecto formal y su complejidad.
El tema central debe ser preciso, así se enfoca la atención en él y no se dispersa.
Evitar los temas encontrados en las fronteras de 2 o más ciencias. Su estudio requiere conocimientos de diversos campos.
Desde el principio se preferible escoger un tema pequeño y sencillo.
6.- Elaboración del Esquema de Trabajo:
Es un registro visual que representa el esqueleto del escrito con que se concluye el proceso de investigación.
Algunos objetivos del esquema son:
Identificar de forma gráfica y analítica, las partes pares y subordinadas del problema.
Detectar defectos de relación
Facilitar el inventario de la información recolectada.
Orientar la recopilación de la información faltante.
El primer esquema sirve fundamentalmente para el acopio de información.
El esquema debe ser tan simple como lo permita; la sencillez o complejidad del problema; la profundidad y la extensión del trabajo; la cantidad de información recabada.
7.- Ampliación del Material Sobre el Tema ya Delimitado:
Se busca nueva información directamente ligada con el tema.
La nueva bibliografía necesita sus fichas.
8.- Lectura Minuciosa de la Bibliografía:
Implica reflexión e interpretación y su resultado son las ideas más importantes que pasan a la fichas de contenido.
Si el libro es nuestro, se destacan las ideas principales de las secundarias con colores, corchetes, llaves, etc.
9.- Elaboración de Fichas de Contenido:
Contiene las ideas más importantes.
Pueden ser mixtas cuando contienen; las ideas del autor y nuestras propias reflexiones y comentarios, de esta manera se imprime orden y coherencia al mismo.
Permiten el fácil manejo de datos e ideas ajenas o propias.
Las fichas nos acercan a la elaboración de un primer borrador del trabajo final.
10.- Organización de las Fichas de Contenido y Revisión del Esquema:
Su objetivo; la valoración del material recopilado, la localización de posibles lagunas, detección de excesos en las ideas transcritas.
La posibilidad de revisar el esquema de trabajo con el fin de darle mayor orden y uniformidad, antes de redactar el borrador.
11.- Organización Definitiva del Fichero:
Para saber si faltan datos esenciales.
Se numeran las fichas con lápiz, para evitas dificultades de reorganización si esta se altera.
12.- Redacción del Trabajo Final:
Conclusión de la investigación, la cual comunica sus resultados mediante un texto escrito, el cual pueda ser consultado por cualquier persona que requiera de esta.
Borrador.
Primera exposición de los hechos o ideas del trabajo final.
Índice e introducción se deja al final de la redacción del borrador.
Se recomienda dejar descansar el borrador, durante un tiempo, para así realizar un análisis frío, crítico, sin ataduras emocionales, con el fin de corregir y redactar el trabajo final.
Redacción final.
Su objetivo; comunicar con la mayor claridad y' coherencia posibles los resultados, descubrimientos, comprobaciones o reflexiones logradas a través de todo el proceso de la investigación documental.
METODOLOGÍA DESCRIPTIVA
Consiste en la Caracterización de un hecho, fenómeno o grupo, con el fin de
establecer su estructura o comportamiento. Tiene como objetivo la descripción
precisa del evento de estudio. Este tipo de investigación se asocia con el
diagnóstico. El método se basa en la indagación, observación, el registro y la
definición.
Objetivo:
El objetivo de la investigación descriptiva consiste en llegar a conocer las situaciones, costumbres y actitudes predominantes a través de la descripción exacta de las actividades, objetos, procesos y personas. Su meta no se limita a la recolección de datos, sino a la predicción e identificación de las relaciones que existen entre dos o más variables. Los investigadores no son meros tabuladores, sino que recogen los datos sobre la base de una hipótesis o teoría, exponen y resumen la información de manera cuidadosa y luego analizan minuciosamente los resultados, a fin de extraer generalizaciones significativas que contribuyan al conocimiento.
METODOLOGÍA
1. Examinan las características del problema escogido. 2. Lo definen y formulan sus hipótesis. 3. Enuncian los supuestos en que se basan las hipótesis y los procesos
adoptados. 4. Eligen los temas y las fuentes apropiados. 5. Seleccionan o elaboran técnicas para la recolección de datos. 6. Establecen, a fin de clasificar los datos, categorías precisas, que se
adecuen al propósito del estudio y permitan poner de manifiesto las semejanzas, diferencias y relaciones significativas.
7. Verifican la validez de las técnicas empleadas para la recolección de datos. 8. Realizan observaciones objetivas y exactas. 9. Describen, analizan e interpretan los datos obtenidos, en términos claros y
precisos. Recolección de Datos: En el informe de la investigación se señalan los datos obtenidos y la naturaleza exacta de la población de donde fueron extraídos. La población —a veces llamada universo o agregado— constituye siempre una totalidad. Las unidades que la integran pueden ser individuos, hechos o elementos de otra índole. Una vez identificada la población con la que se trabajará, entonces se decide si se recogerán datos de la población total o de una muestra representativa de ella. El método elegido dependerá de la naturaleza del problema y de la finalidad para la que se desee utilizar los datos.
Población Total: Muchas veces no es difícil obtener información acerca de todas las unidades que componen una población reducida, pero los resultados no pueden aplicarse a ningún otro grupo que no sea el estudiado.
Muestra de la Población: Cuando se trata de una población excesivamente amplia se recoge la información a partir de unas pocas unidades cuidadosamente seleccionadas, ya que si se aborda cada grupo, los datos perderían vigencia antes de concluir el estudio. Si los elementos de la muestra representan las características de la población, las generalizaciones basadas en los datos obtenidos pueden aplicarse a todo el grupo.
Expresión de Datos: Los datos descriptivos se expresan en términos cualitativos y cuantitativos. Se puede utilizar uno de ellos o ambos a la vez.
Cualitativos (mediante símbolos verbales): Se usan en estudios cuyo objetivo es examinar la naturaleza general de los fenómenos. Los estudios cualitativos proporcionan una gran cantidad de información valiosa, pero poseen un limitado grado de precisión, porque emplean términos cuyo significado varía para las diferentes personas, épocas y contextos. Los estudios cualitativos contribuyen a identificar los factores importantes que deben ser medidos. (Visión cientificista).
Cuantitativos (por medio de símbolos matemáticos): Los símbolos numéricos que se utilizan para la exposición de los datos provienen de un cálculo o medición. Se pueden medir las diferentes unidades, elementos o categorías identificables.
Tipos de investigación Descriptiva: Tomando en cuenta que las siguientes categorías no son rígidas, muchos estudios pueden encuadrarse sólo en alguna de estas áreas, y otros corresponden a más de una de ellas.
1. Estudios Tipo Encuesta: Se llevan a cabo cuando se desea encontrar la solución de los problemas que surgen en organizaciones educacionales, gubernamentales, industriales o políticas. Se efectúan minuciosas descripciones de los fenómenos a estudiar, a fin de justificar las disposiciones y prácticas vigentes o elaborar planes más inteligentes que permitan mejorarlas. Su objetivo no es sólo determinar el estado de los fenómenos o problemas analizados, sino también en comparar la situación existente con las pautas aceptadas. El alcance de estos estudios varía considerablemente; pueden circunscribirse a una nación, región, Estado, sistema escolar de una ciudad o alguna otra unidad. Los datos pueden extraerse a partir de toda la población o de una muestra cuidadosamente seleccionada. La información recogida puede referirse a un gran número de factores relacionados con el fenómeno o sólo a unos pocos aspectos recogidos. Su alcance y profundidad dependen de la naturaleza del problema.
2. Estudios de interrelaciones: Si el objeto es identificar las relaciones que existen entre los hechos para lograr una verdadera comprensión del fenómeno a estudiar, los estudios de esta índole son los estudios de casos, estudios causales comparativos y estudios de correlación.
Estudio de casos: El educador realiza una investigación intensiva de una unidad social o comunidad. Para ello recoge información acerca de la situación existente en el momento en que realiza su tarea, las experiencias y condiciones pasadas y las variables ambientales que ayudan a determinar las características específicas y conducta de la unidad. Después de analizar las secuencias e interrelaciones de esos factores, elabora un cuadro amplio e integrado de la unidad social, tal como ella funciona en la realidad. El interés en los individuos no es considerándolo como personalidad única, sino como tipos representativos. Se reúnen los datos a partir de una muestra de sujetos cuidadosamente seleccionados y se procuran extraer generalizaciones válidas sobre la población que representa la muestra. El objetivo de los estudios de casos consiste en realizar una indagación a profundidad dentro de un marco de referencia social; las dimensiones o aspectos de dicho marco dependen de la naturaleza del caso estudiado. Un estudio de casos debe incluir una considerable cantidad de información acerca de las personas, grupos y hechos con los cuales el individuo entra en contacto y la naturaleza de sus relaciones con aquéllos. Los seres humanos desarrollan una constante interacción con diversos factores ambientales, por eso es imposible comprender su conducta sin examinar tales relaciones. Los datos deben provenir de muchas fuentes. Se puede interrogar a los sujetos mediante entrevistas o cuestionarios y pedirles que evoquen experiencias pasadas o sus deseos y expectativas presentes. Se estudian documentos personales como diarios y cartas, efectuando distintas mediciones físicas, psicológicas o sociológicas. Se puede interrogar a padres, hermanos y amigos de los sujetos, analizar archivos de los tribunales, escuelas, hospitales, empresas o instituciones sociales. Los estudios de casos son similares a las encuestas, pero en ellos hay un estudio intensivo de una cantidad limitada de casos representativos, en lugar de reunir datos de pocos aspectos de un gran número de unidades sociales. Tiene un alcance más limitado pero es más exhaustivo que el de encuestas, y le da más importancia a los factores cualitativos.
Estudios causales comparativos: Si además de pretender descubrir cómo es un fenómeno se quiere saber de qué manera y por qué ocurre, entonces se comparan semejanzas y diferencias que existen entre fenómenos, para descubrir los factores o condiciones que parecen acompañar o contribuir a la aparición de ciertos hechos y situaciones. Por la complejidad y naturaleza de los fenómenos sociales, es menester estudiar las relaciones de causalidad. Este tipo de estudio se usa en los casos en que los investigadores no pueden manejar una variable independiente y establecer los controles requeridos en los experimentos. En un estudio causal comparativo el investigador analiza la situación vital en la cual los sujetos han experimentado el fenómeno que se quiere investigar. Después de estudiar las semejanzas y diferencias que hay entre dos situaciones, entonces
podrá describir los factores que parecen explicar la presencia del fenómeno en una situación y su ausencia en la otra. Esta investigación tiene su origen por el método utilizado por John Stuart Mill para descubrir las situaciones causales, que establece que “si dos o más instancias del fenómeno investigado tienen sólo una circunstancia en común, en la cual todas las instancias concuerdan, es la causa (o efecto) del fenómeno dado”. Este método proporciona al investigador la doble posibilidad de control sobre sus conclusiones acerca de las relaciones de causalidad. Las dificultades posibles de explicar los fenómenos en este tipo de estudios reside en la imposibilidad de establecer un control más allá de poner a prueba tantas hipótesis alternativas como sea posible; si al estudiar el problema el factor produce un efecto determinado no se incluye entre los puntos considerados, entonces no será posible averiguar la causa (si se desea hallar las posibles causas de los fenómenos y desechar los factores aleatorios se debe poseer suficiente información general acerca de tales fenómenos y elaborar cuidadosamente sus procedimientos de observación); al exigir que sea un solo factor el que determine la aparición o ausencia de un fenómeno, muchas veces en los fenómenos sociales complejos se obedece a múltiples causas; cuando dos variables se hallan relacionadas entre sí es difícil determinar cuál de ellas es la causa y cuál el efecto; al intentar clasificar a los sujetos en grupos dicotómicos a fin de establecer comparaciones entre ellos, los fenómenos sociales sólo presentan similitudes si los incluimos en las más amplias categorías, aunque sabemos que los hechos sociales no se clasifican automáticamente en categorías exclusivas (por lo general la comparación entre dos variables indefinidas proporciona escasa información útil sobre el fenómeno que se pretende explicar); cuando se trata de estudios en los que se comparan situaciones normales, la tarea de seleccionar no requiere los mismos cuidados y precauciones que en el caso de los estudios experimentales, generalmente resulta difícil hallar grupos de elementos que sean similares en todos sus aspectos, excepto en lo que respecta al hecho de hallarse expuestos a una variable distinta (siempre existe el peligro de que los grupos presenten diferencias en relación con otras dimensiones —salud, inteligencia, antecedentes familiares, experiencia anterior— que pueden afectar los resultados del estudio).
Estudios de correlación: Se utilizan para determinar la medida en que dos variables se correlacionan entre sí, es decir el grado en que las variaciones que sufre un factor se corresponden con las que experimenta el otro. Las variables pueden hallarse estrecha o parcialmente relacionadas entre sí, pero también es posible que no exista entre ellas relación alguna. Puede decirse, en general, que la magnitud de una correlación depende de la medida en que los valores de dos variables aumenten o disminuyan en la misma o en diferente dirección. Si los valores de dos variables aumentan o disminuyen de la misma manera, existe una correlación positiva; si, en cambio, los valores de una variable aumentan en tanto que disminuyen los de la otra, se trata de una correlación negativa; y si los valores de una variable aumentan, los de la otra pueden aumentar o disminuir, entonces hay poca o ninguna correlación. En consecuencia la gama de correlaciones se extiende desde la perfecta correlación negativa hasta la no correlación o la
perfecta correlación positiva. Las técnicas de correlación son muy útiles en los estudios de carácter predictivo. Si bien el coeficiente de correlación sólo permite expresar en términos cuantitativos el grado de relación que dos variables guardan entre sí, no significa que tal relación sea de orden causal. Para interpretar el significado de una relación se debe recurrir al análisis lógico, porque la computación estadística no dilucida el problema. Sus riesgos son los mismos que en los estudios causales comparativos.
3. Estudios de desarrollo: Consiste en determinar no sólo las interrelaciones y el estado en que se hallan los fenómenos, sino también en los cambios que se producen en el transcurso del tiempo. En él se describe el desarrollo que experimentan las variables durante un lapso que puede abarcar meses o años. Abarca estudios de crecimiento y de tendencia. Los estudios de crecimiento se refieren a la identificación de los diversos factores interrelacionados que influyen sobre el crecimiento en sus diferentes etapas, saber en qué momento se tornan observables los diversos aspectos y cuándo surgen, permanecen estacionarios, alcanzan su desarrollo óptimo y, finalmente, decaen. Para el estudio del desarrollo humano se usan dos métodos: las técnicas lineales y las de corte transversal. En ambos tipos de investigación, se deben efectuar una serie de observaciones sistemáticas. El objetivo de las técnicas lineales es medir el grado de crecimiento de determinados niños en diferentes edades, por ejemplo; y en los de corte transversal no se medirían los mismos niños a intervalos regulares, sino se efectuaría un registro de medidas de diferentes niños pertenecientes a distintos grupos de edad. Los estudios de corte transversal incluyen generalmente a una mayor cantidad de sujetos, y describen un número menos de factores de crecimiento que los estudios lineales. La técnica de corte transversal se usa con más frecuencia por su bajo costo y porque ocupa menos tiempo; la técnica lineal es el más adecuado para estudiar el desarrollo humano. Ambas técnicas plantean problemas de muestreo: en los de corte transversal es posible que los diferentes sujetos de cada nivel de edad no sean comparables; los lineales obtienen información de un número limitado de sujetos, sin la confiabilidad de muestras más amplias, asimismo la dificultad para el investigador de evaluar y perfeccionar con cierta frecuencia sus técnicas, pues una vez iniciada la investigación no es posible interrumpirla para modificar o mejorar los procedimientos empleados. Para estudios lineales hacen falta apoyos económicos y un equipo de trabajo ininterrumpido durante años. Los estudios de tendencia consisten en obtener datos sobre aspectos sociales, económicos y políticos y en analizarlos posteriormente para identificar las tendencias fundamentales y predecir los hechos que pueden producirse en el futuro. En ellos se combinan a veces técnicas históricas, documentales y las que se usan en las encuestas. Resulta aventurado formular predicciones basadas en los datos de tendencia social, porque las condiciones económicas, los avances tecnológicos, las guerras, las aspiraciones individuales y otros hechos imprevisibles pueden modificar de manera repentina el curso esperado de los acontecimientos. A causa de los innumerables factores impredictibles que pueden ejercer influencia sobre los fenómenos sociales, la duración de los análisis de tendencia afecta en una medida considerable la validez
de la predicción; la mayoría de las predicciones de largo alcance constituyen meras estimaciones, en tanto que las que se refieren a lapsos más breves gozan de mayores posibilidades de certeza.
Evaluación: Algunos problemas con que suelen tropieza los investigadores se refieren a examen crítico de los materiales originales, el vocabulario técnico, la formulación de hipótesis, la observación y experimentación, y la generalización y predicción.
DIAGNÓSTICO PARTICIPATIVO
El Diagnóstico Participativo es un método para determinar, desde el punto de vista
de los miembros de la comunidad, qué actividades son necesarias y pueden
apoyarse; si los miembros de la comunidad aceptan las actividades propuestas
por el personal externo y si tales actividades son razonables y prácticas.
Los miembros de la comunidad, ayudados por el personal externo, pasan por un
proceso en el cual identifican las condiciones que son necesarias para la
realización exitosa de las actividades y acopian información para determinar si la
comunidad reúne estas condiciones o si puede crearlas. El «marco referencial del
diagnóstico» examina cada actividad en relación con las condiciones necesarias y
elimina aquellas actividades para las que no se dan estas condiciones.
“Las decisiones pueden haber sido tomadas por el personal externo”
Con frecuencia la manera como las actividades están planificadas puede significar
que ya se han tomado algunas decisiones sin recibir aportes de la comunidad.
Puede ser:
Que los problemas y las soluciones a los problemas hayan sido
determinados por el personal externo,
Que se haya decidido en cuanto al financiamiento,
Que la administración nacional o local haya negociado con el personal
externo o, en algunos casos, haya iniciado el proyecto,
Que se haya determinado una zona de trabajo y se hayan asignado roles
específicos al personal de campo.
Una de las decisiones que, con frecuencia, está en manos del personal de campo
es la elección de las comunidades en las cuales llevar a cabo las actividades. Por
ejemplo, en una zona designada puede haber un gran número de comunidades en
las cuales pueden introducirse las actividades. Sin embargo, puede haber
limitaciones en cuanto al personal de campo, tales como falta de vehículos y
personal capacitado, que hacen difícil prestar servicios a algunas comunidades. El
personal de campo habrá de considerar sus propias capacidades y limitaciones. Al
mismo tiempo, tendrá que considerar qué comunidades tienen los problemas que
las actividades pueden abordar y las condiciones físicas y comunitarias necesarias
para el éxito.
Si el personal de campo debe elegir las comunidades, una modificación del
método de diagnóstico participativo que se describe en este capítulo puede
ayudarle a decidir a qué comunidades debe acercarse.
En la actividad forestal comunitaria los miembros de la comunidad local
proporcionan muchos de los aportes, tales como el trabajo, los materiales y la
gestión. Si bien el personal externo puede haber elegido la comunidad por
considerar que tiene las condiciones necesarias para que las actividades tengan
éxito, la población local no siempre estará de acuerdo; tendrá que decidir ella
misma.
El Diagnóstico Participativo proporciona un marco para que los miembros de la
comunidad y el personal externo determinen si quieren, necesitan y pueden
apoyar las actividades propuestas.
Un diagnóstico participativo puede ser muy útil cuando los miembros de la
comunidad recurren al personal externo pidiéndole asistencia para sus
actividades. Este diagnóstico puede confirmar a los miembros de la comunidad
que han identificado el problema pertinente y las soluciones adecuadas. También
puede ayudar al personal externo a entender las actividades propuestas y por qué
la comunidad las ha elegido.
MATRIZ F.O.D.A.
Es una metodología de estudio de la situación de una empresa o un proyecto,
analizando sus características internas (Debilidades y Fortalezas) y su situación
externa (Amenazas y Oportunidades) en una matriz cuadrada. Proviene de las
siglas en inglés SWOT (Strengths, Weaknesses, Opportunities y Threats).
Es una herramienta para conocer la situación real en que se encuentra una
organización, empresa o proyecto, y planear una estrategia de futuro.
Durante la etapa de planeamiento estratégico y a partir del análisis DAFO se
deben contestar cada una de las siguientes preguntas:
¿Cómo se puede destacar cada fortaleza?
¿Cómo se puede disfrutar cada oportunidad?
¿Cómo se puede defender cada debilidad?
¿Cómo se puede detener cada amenaza?
Este recurso fue creado a principios de la década de los setenta y produjo una
revolución en el campo de la estrategia empresarial. El objetivo del análisis DAFO
es determinar las ventajas competitivas de la empresa bajo análisis y la estrategia
genérica a emplear por la misma que más le convenga en función de sus
características propias y de las del mercado en que se mueve. El análisis consta
de cuatro pasos:
Análisis Externo (también conocido como "Modelo de las cinco fuerzas de
Porter")
Análisis Interno
Confección de la matriz DAFO
Determinación de la estrategia a emplear
Fortalezas: son las capacidades especiales con que cuenta la empresa, y que le
permite tener una posición privilegiada frente a la competencia. Recursos que se
controlan, capacidades y habilidades que se poseen, actividades que se
desarrollan positivamente, etc.
Oportunidades: son aquellos factores que resultan positivos, favorables,
explotables, que se deben descubrir en el entorno en el que actúa la empresa, y
que permiten obtener ventajas competitivas.
Debilidades: son aquellos factores que provocan una posición desfavorable frente
a la competencia, recursos de los que se carece, habilidades que no se poseen,
actividades que no se desarrollan positivamente, etc.
Amenazas: son aquellas situaciones que provienen del entorno y que pueden
llegar a atentar incluso contra la permanencia de la organización.
ENFOQUE DEL MARCO LÓGICO
Es una herramienta analítica, desarrollada en 1969, para la planificación de la
gestión de proyectos orientados a procesos. Es utilizado con frecuencia por
organismos de cooperación internacional.
En el EML se considera que la ejecución de un proyecto es consecuencia de un
conjunto de acontecimientos con una relación causal interna. Estos se describen
en: insumos, actividades, resultados, objetivo específico y objetivo global. Las
incertidumbres del proceso se explican con los factores externos (o supuestos) en
cada nivel. Nivel oso De modo general, se hace un resumen del proceso de
desarrollo en una matriz que consiste en los elementos básicos arriba
mencionados, dicha matriz es conocida como la Matriz del Proyecto (MP) [a veces
es conocida como Matriz de Planificación].
Se denomina Matriz del Proyecto, de un programa o proyecto de desarrollo social,
a un documento que sintetiza:
El Objetivo General;
Los Objetivos Específicos;
Los Resultados Esperados;
Las Actividades necesarias para alcanzar dichos Resultados;
Los recursos necesarios para desarrollar las actividades;
Las limitantes externas del programa o proyecto;
Los indicadores medibles y objetivos para evaluar el programa o proyecto;
y,
El procedimiento para determinar los indicadores.
El concepto de marco lógico fue desarrollado originalmente por la USAID, agencia
de cooperación de Estados Unidos, a principios de los años 70 y posteriormente
adoptado, con algunas modificaciones, por la agencia de cooperación alemana
GTZ en su método de planificación de proyectos conocido como ZOPP. La
metodología es implementada actualmente por muchas agencias de cooperación
internacional. Se trata de un instrumento útil para que el equipo involucrado en un
proyecto de desarrollo llegue a un consenso sobre la concepción general del
proyecto o programa.
ARBOL DE PROBLEMAS
SOFTWARE
Equipos Desactualizados
Algunas Canaimas tienen Software
Privativo
Canaimitas con Gran cantidad de Imágenes
y Juegos
Manipulación de las Portátiles Canaima
por Terceros
Déficit Severo en el uso de las Portátiles Canaima
Sistemas Operativos Sobrecargados
Poseen Virus
ARBOL DE PROBLEMAS
HARDWARE
Canaimas con Cargadores
Dañados
Canaimitas que no poseen la Batería
Equipos con Piezas faltantes
Internamente
Falta de Mantenimiento
Inutilización de algunos Equipos
Equipos Dañados Inoperatividad de las Portátiles Canaima
ARBOL DE PROBLEMAS
PROYECTO CANAIMA EDUCATIVO
Docente de Aula no capacitado en
Proyecto Canaima Educativo
Programas de Grado Desactualizados
Inoperatividad de algunas Canaimas
Niños que no poseen sus Canaimitas
Deficiencias en la Ejecución del Proyecto Canaima Educativo
Posibilidad de que algunos Niños no reciban el Proyecto de Alfabetización de Manera Completa
Dificultades en el uso de las Portátiles Canaima
METODOLOGÍAS
UTILIZADAS
TÉCNICAS APLICADAS INSTRUMENTOS DE
RECOLECCIÓN DE DATOS
Investigación de Campo
Entrevista, Observación
Directa o Descriptiva,
Registro Fotográfico
Encuesta, Cuestionario, Vídeos,
Galería Fotográfica.
MATRIZ F.O.D.A.
FORTALEZAS OPORTUNIDADES DEBILIDADES AMENAZAS
Motivación de las y Alumnas y Alumnos
por aprender sobre el uso de sus Portátiles
Canaima.
Cantidad menor de Canaimas soló con
Cargadores Dañados.
Inoperatividad de las Canaimitas.
No impartir la Alfabetización a
todos los niños por igual.
Clases Esporádicas impartidas por la Docente de Aula.
Tendencia favorable por parte de la Docente de
Aula al ser también representante.
Docentes que no tienen conocimiento amplio de
como impartir los Programas Informáticos
de Grado.
No tener acceso a Internet.
Total disposición de la Docente de Aula
(Tutora Institucional) en cuanto a ideas de
beneficio a la Ejecución del
Proyecto.
Disponibilidad absoluta por parte del personal
Directivo de la Institución.
Inexperiencia en el uso de los equipos
Canaima.
No solucionar las deficiencias que presentan ciertas
Canaimitas.
PROYECTO SOCIOTECNOLÓGICO I
UNIDAD III
VALIDACIÓN DEL PROBLEMA CON LA INSTITUCIÓN O COMUNIDAD
GRUPO N° 5 SECCIÓN: I-INF-4M
INTEGRANTES: C.I.
ERICK FLORES 25.036.498
JEFFERSON ALFARO 25.087.093
ÁNGEL RAMOS 25.361.387
MARÍA CASTILLO 26.512.109
TUTOR INSTITUCIONAL:
MILAGRO VELÁSQUEZ
CIUDAD BOLÍVAR, 19 DE NOVIEMBRE DE 2014
Canaima Educativo es un Proyecto del Gobierno Bolivariano que tiene por
Objetivo apoyar la Formación Integral de las Niñas y los Niños, mediante la
dotación de una Computadora Portátil Escolar con Contenidos Educativos a los
Maestros y Estudiantes del Subsistema de Educación Primaria.
SI (X) NO
INSTITUCION EDUCATIVA:
UNIDAD EDUCATIVA ESTADAL BACHILLER “FELIPE HERNÁNDEZ”
DEPENDENCIA:
NACIONAL (ESTATAL) MUNICIPAL PRIVADA OTRA
GRADO 5TO SECCION “A”
TODOS SUS ALUMNAS Y ALUMNOS TIENEN LA CANAIMITA?
SI NO (X)
EN CASO NEGATIVO: CUANTAS COMPUTADORAS PORTATILES FALTA EN
SU SECCION?
(2) 4 7 10 OTRO
TIENE USTED SU COMPUTADORA PORTATIL?
SI NO (X)
TODAS LAS CANAIMITAS TRABAJAN CON SOFTWARE LIBRE?
SI (X) NO
EN CASO NEGATIVO: CUANTAS TIENEN OTRO SISTEMA OPERATIVO?
2 4 6 9 OTRO
ESTAN ACTUALIZADAS CON EL CONTENIDO DEL GRADO QUE CURSAN?
SI (X) NO
TODAS TIENEN SUS BATERIAS??
SI (X) NO
TODAS LAS CANAIMITAS TIENEN SUS CARGADORES?
SI NO (X)
EL SALON TIENE FALLAS CON LA ELECTRICIDAD?
SI NO (X)
EL SALON CUENTA CON CONEXIÓN DE INTERNET?
SI NO (X)
EN CASO AFIRMATIVO COMO ES LA CALIDAD DE ESA CONEXIÓN?
REGULAR BUENA MUY BUENA
EN CASO NEGATIVO: QUE OCURRE CON LA CONEXIÓN DE INTERNET EN
SU AULA?
NO HAY, YA QUE EL PLANTEL NO CUENTA CON ACCESO A LA RED DE
INTERNET.
HIZO EL CURSO DE ACTUALIZACION DOCENTE DEL PROYECTO CANAIMA
EDUCATIVO?
SI NO (X)
USA Y MANEJA SOFTWARE LIBRE?
SI (X) NO
Los Contenidos Educativos, Aplicaciones y Funciones Son totalmente
Desarrollados en Software Libre?
SI (X) NO
EL OBJETIVO GENERAL DEL PROYECTO CANAIMA EDUCATIVO ES?
•Promover la formación integral de los niños y niñas venezolanos (as), mediante el
aprendizaje liberador y emancipador apoyado por las Tecnologías de Información
Libres. (SI)
•Promover el desarrollo integral de los niños y niñas en correspondencia con los
fines educativos. (SI)
•Profundizar la concreción del Desarrollo Curricular para la formación integral y
con calidad de los niños y niñas venezolanos. (SI)
•Transformar la praxis docente con el uso crítico y creativo de las Tecnologías de
Información Libres. (SI)
•Desarrollar las potencialidades en Tecnologías de Información Libres, para el
apoyo a los procesos educativos en pro de la soberanía y la independencia
tecnológica. (SI)
Las computadoras portátiles escolares quedan bajo resguardo de los planteles en
Gabinetes Móviles, en los cuales son cargadas sus baterías y transportadas hasta
los pupitres de las niñas y los niños
SI NO (X)
EN CASO NEGATIVO: EXPLIQUE COMO FUNCIONA EN SU SECCION.
LOS ALUMNOS SE LLEVAN SUS PORTÁTILES HASTA SUS HOGARES.
Mediante un dispositivo inalámbrico se conecta la computadora portátil escolar de
cada niña y cada niño con la computadora portátil del maestro, conformando una
Red Salón que le permite guiar y orientar el proceso de aprendizaje.
SI NO (X)
EN CASO NEGATIVO EXPLIQUE EL PROCESO
SE ORIENTA A LOS NIÑOS A QUE REFUERCEN LO ENSEÑADO, AL INDAGAR
EN LAS “ÁREAS DE APRENDIZAJE” Y RESOLVER LAS ACTIVIDADES QUE EN
ELLAS ESTÁN.
CUALES SON LAS CATEGORÍAS DE LOS CONTENIDOS EDUCATIVOS DE SU
GRADO?
PARA LA FAMILIA
GALERÍA.
LECTURAS SUGERIDAS.
VIDEOS.
PARA EL DOCENTE
LECTURAS SUGERIDAS
VIDEOS.
CARACTERIZACIONES.
GALERÍA.
PARA LOS ESTUDIANTES
CULTURA.
CIENCIA Y TECNOLOGIA.
DEPORTE Y RECREACIÓN.
CIENCIAS SOCIALES Y GEOHISTORIA.
LENGUAJE Y COMUNICACIÓN.
LA TAPARITA MÁGICA.
TIEMPO TRABAJANDO CON ESTE PROYECTO?
APROXIMADAMENTE 4 AÑOS.
QUE OPINA DE ESTE PROYECTO EN EL DESARROLLO DE SU LABOR
DOCENTE??
ES UN APORTE MUY IMPORTANTE NOS PROVEE DE HERRAMIENTAS QUE
SE PUEDEN DESARROLLAR EN PROCESO E-A DEL ESTUDIANTE: EN LA
MÚSICA, ACTUACIÓN, INVESTIGACIÓN ENTRE OTROS.
ESTA CONFORME CON LOS RESULTADOS?
SI (X) NO
LE PARECE INTERESANTE EL APOYO DEL PNF INFORMATICA IUTEB PARA
SOLUCIONAR ALGUNOS INCONVENIENTES?
SI (X) NO
BLOGS INDIVIDUALES
BLOG GRUPAL BLOG INSTITUCIONAL
http://arr3036.blogspot.com/ http://erickflores-inf-4m.blogspot.com/ http://jeffersonrafa12.blogspot.com/ http://marijocas17.blogspot.com/
http://pst1grupo5.blogspot.com/
http://eliutebenescuelafelipehernandez.blogspot.com/
VIDEOS PUBLICADOS
https://www.youtube.com/watch?v=V5xN5FIRPdg https://www.youtube.com/watch?v=xp2WzkDBclY https://www.youtube.com/watch?v=A0xXxKlDcw8 https://www.youtube.com/watch?v=UsH6cqAxDog
Recommended