76

Revista Conocimiento 72

Embed Size (px)

DESCRIPTION

Revista Ciencia CONOCIMIENTO Tecnología número 72

Citation preview

Page 1: Revista Conocimiento 72

portada.indd 1 26/02/2008 17:45:53

Page 2: Revista Conocimiento 72

La Universidad Autónoma de Nuevo León, en el marco del septuagésimo quinto aniversario de su fundación, presentará el libro

el día 3 de marzo del presente, a las 19:00 horas,en el Patio Ala Sur, del Colegio Civil Centro Cultural Universitario

La presentación estará a cargo de:

Ing. José Antonio González TreviñoRector de la Universidad Autónoma de Nuevo León

Dr. Juan Ramón de la Fuente RamírezEx rector de la Universidad Nacional Autónoma de México

Lic. Emiliano Salinas OccelliPosgraduado en Cuestionamiento Racional

Se contará con la presencia del Lic. José Natividad González Parás,Gobernador Constitucional del Estado de Nuevo León

Al término de la presentación, la Pinacoteca de Nuevo León, (ubicada en el Colegio Civil Centro Cultural Universitario) inaugurará una muestra de obras de

arte relativas al tema de adicciones, del artista regiomontano Juan Caballero (1959-1998)

Entrada libre

AdiccionesEnfermedades del siglo XXI

del doctor Luis Eugenio Todd

invita a la:

Presentación de las 37 Investigaciones Educativas realizadas por elCentro de Altos Estudios e Investigación Pedagógica – CAEIP

publicadas del 2004 al 2007

Miércoles 5 de Marzo, 2008 / 19:00 horasPatio de Esculturas Planta Baja / Pinacoteca de Nuevo León

Presentadores:

Dr. Reyes S. Tamez GuerraSecretario de Educación en el Estado de Nuevo León

Dr. Luis Eugenio ToddDirector General del Colegio de Estudios Científicos y Tecnológicos

del Estado de Nuevo León – CECYTE, NL

Dr. Carlos OrnelasInvestigador

Mtro. Ismael Vidales DelgadoDirector del Centro de Altos Estudios e Investigación Pedagógica – CAEIP

PINACOTECA DE NUEVO LEÓNJUÁREZ Y WASHINGTON S/N CENTRO DE MONTERREY | TEL 13404358

(ESTACIONAMIENTO SUBTERRÁNEO POR CALLE 5 DE MAYO)

EL COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS

DEL ESTADO DE NUEVO LEÓN

FORROS.indd 1 26/02/2008 17:12:08

A personajes nuestrosen el mundo de las Tecnologías Web

Juan Roberto [email protected]

Maestro Luis Carlos Aceves Gutiérrez

Ligado siempre a las tecnologías Web; a las metodologías ágiles de desarrollo de software y al fomento de la economía digital, Luis Carlos Aceves Gutiérrez es también experto en comercio electrónico, actividad en la que utiliza tecnología de información de punta para las transacciones monetarias. Ha sido evaluador de

empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

Ingeniero en sistemas computacionales, tiene una Maestría en Administración, ambos grados académicos del ITESM. Actualmente es profesor en el Departamento de Ciencias Computacionales de la UDEM, y articulista de El Norte y Reforma; es reconocido como uno de los principales impulsores de temas relacionados con la experiencia del usuario en la Web.

Doctor Ramón E. Brena Pinero

Experto en modelos matemáticos de especificaciones de software y profesor en el ITESM, en los niveles de grado y de posgrado; de métodos formales en ingeniería de software, análisis de algoritmos, sistemas multiagentes y lógica matemática, Ramón Brena tiene, entre sus líneas de investigación, las de agentes inteligentes y semántica

del Internet. Es miembro del Sistema Nacional de Investigadores, nivel I, y ha sido profesor en la UAM y en el Instituto Autónomo de México, así como profesor visitante en la Universidad de Montreal, en Canadá, y en la Universidad de Texas, en Dallas.

Es ingeniero en Computación por la UNAM y tiene un Diplomado de Estudios Avanzados en Información, en Grenoble, Francia. Su Doctorado en Informática es del Laboratoire d´Informatique Fondamentale et d’Intelligence Artificielle en Grenoble, Francia.

Maestro Roberto Ivon Dibildox

Maestro desde el año 2004, en el de nivel posgrado, en la Universidad Regiomontana, donde imparte las materias Paradigmas de Programación, Complejidad Algorítmica e Ingeniería de Software, Roberto Ivon Dibildox ha realizado importantes investigaciones en las áreas de redes sociales y aprendizaje colaborativo, mediante la

utilización de tecnologías Web.

Ha sido profesor en el ITESM, campus Querétaro, Monterrey y San Luís Potosí, donde fue director de las carreras de informática. En la UR ha sido director de sistemas educativos y director de tecnología. Es ingeniero en sistemas Computacionales por el ITESM, campus Querétaro, y tiene una Maestría en Ciencias Computacionales del ITESM, campus Monterrey. Tiene un diplomado en Sistemas Modernos de Manufactura de la Western Illinois University.

Maestro Fernando Méndez Barajas

Como director de Operaciones de Servicios a Estados Unidos de la empresa Softtek, que brinda servicios globales a distancia en tecnologías de información, como mantenimiento, soporte, desarrollo y pruebas de aplicaciones, Fernando Méndez Barajas trabaja con modelos de entrega globales basados en CMMI5,

SixSigma, procesos digitalizados y metodologías de vanguardia en desarrollo e implementación de sistemas.

Es ingeniero en Sistemas Electrónicos por el Instituto Tecnológico y de Estudios Superiores de Monterrey, y tiene una Maestría en Educación Familiar, del Instituto de Estudios Europeos de Educación (IEEE) y el Instituto Mexicano de Estudios de la Educación (IMEE). Tomó el programa de Alta Dirección de Empresas del Instituto Panamericano de Alta Dirección de Empresas (IPADE).

Ingeniero Aldo Gamaliel Peñuelas López

Con un larga experiencia en desarrollo de proyectos basados en tecnología Web, como el Sistema de Inscripciones del ITESM; arquitecto y líder de proyectos de la Aplicación ILS, que la empresa General Electric utiliza a nivel mundial para la logística de sus turbinas y materiales, Aldo Gamaliel Peñuelas labora desde el año

2002 en la empresa Softtek, donde, entre otras cosas, participó como líder de diseño técnico del proyecto Nuevo Sistema de Pensiones, del IMSS.

Es ingeniero en Sistemas Computacionales por el ITESM, y tomó el curso SixSigma. Actualmente es líder de operaciones en Softtek, y tiene a su cargo 20 proyectos de desarrollo, el 85 por ciento de ellos con tecnología de punta en Web.

Licenciado Rogelio J. Sepúlveda Guerrero

Con importantes estudios sobre ingeniería de software, especialmente en metodologías de desarrollos evolutivos que modifican las metodologías tradicionales, para así construir softwares de calidad dentro de los tiempos y costos establecidos, pero haciendo las diferencias entre desarrollos web y desarrollos en la arquitectura cliente-

servidor, Rogelio J. Sepúlveda Guerrero es maestro en la Facultad de Ciencias Físico Matemáticas de la Universidad Autónoma de Nuevo León.

Es licenciado en Ciencias Computacionales, y tiene una Maestría en Teleinformática, ambos grados académicos de la Facultad de Ciencias Físico Matemáticas de la UANL, donde actualmente es también subdirector del Centro de Servicios en Informática, que brinda servicio y atiende proyectos de los sectores público y privado.

El doctor Arturo Galván analiza los servicios Web y lo que éstos ofrecen a los usuarios, página 4; en tanto que el ingeniero Roberto Ivon Dibildox aborda el tema de la Web 2.0 en la Sociedad del Conocimiento, página 7, y la ingeniera María Imelda González hace consideraciones sobre la experiencia del usuario en la nueva red, página 10.

Tecn

olog

ías

Web

CONTENIDO

Director GeneralDoctor Luis Eugenio ToddSubdirectorLicenciado Juan Roberto ZavalaDirector EditorialFélix Ramos GamiñoEducaciónProfesor Ismael Vidales DelgadoCiencias Básicas y del AmbienteDoctor Juan Lauro AguirreDesarrollo Urbano y SocialIngeniero Gabriel ToddCiencias MédicasDoctor David Gómez AlmaguerCiencias Políticas y / o de Administración PúblicaContador Público José Cárdenas CavazosCiencias de la ComunicaciónDoctora Patricia Liliana Cerda Pérez

Consejo Editorial

Directorio

Presidente del Consejo de Ciencia y Tecnología de Nuevo LeónIngeniero Juan Antonio González AréchigaN. L. Gob.Licenciado Omar Cervantes RodríguezDirector del Programa Ciudad Internacional del ConocimientoIngeniero Jaime Parada ÁvilaCAINTRAIngeniero Xavier Lozano MartínezITESMM. C. Silvia Patricia Mora CastroUANLDoctor Mario César Salinas Carmona

Doctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

EditorialLa ola digitalEl nuevo universo: Web

El Universo de las Tecnologías Web

3

4

15

17

20

27

29

34

35

41

48

Qué ofrecen los servicios WebDoctor Arturo Galván Rodríguez

Importancia de la Web 2.0 en la Sociedad del ConocimientoIngeniero Roberto Ivon Dibildox

La experiencia del usuario en la nueva WebIngeniera María Imelda González Báez

La Web Semántica: para humanos y para máquinasM. C. Héctor G. Ceballos

La democratización de la Web, un reto mundialDoctora Patricia Liliana Cerda Pérez

Modelos de negocios WebMaestro Rodrigo Soto

Hacia un futuro evolutivo de la WebDoctor José Aldo Díaz Prado

Las Mejores Prácticas de Ingeniería de Software en los Desarrollos WEB Licenciado Rogelio J. Sepúlveda

La Web y los fractalesProfesor Ismael Vidales Delgado

La importancia del open source en la WebIngeniero Jorge CárdenasTécnico Antonio López Magaña

El alma de un buscador de páginas WebDoctora Elisa Schaeffer

Cómo redactar los textos para la WebIngeniera Marta Sylvia del Río

El coach que diseña y construye componentes del software WebLicenciado Felipe de Jesús Rodríguez García, MT Yo necesito una banca segura. ¿Y tú?Licenciada Laura Rodríguez

Implementación de la tecnología AjaxMaestro José Luis Ramos Martínez

Silverlight, nueva y versátil tecnología WebIngeniero José de León Rodríguez La zanahoria por delante y el látigo por detrásAlejandro Camino

Mas allá de los buscadores en InternetDoctor Ramón Brena

Invasores en la redIngeniera Claudia Ordaz

7

10

12

23

25

31

37

39

44

La Web semántica para humanos y para máquinas es el tema que desarrolla el M. C. Héctor G. Ceballos, página 12, y la doctora Patricia Liliana Cerda reflexiona sobre el reto que constituye la democratización de la Web, página 15. El maestro Rodrigo Soto, a su vez, narra, en forma sintética, algunos de los negocios que se han desarrollado en el ámbito de las tecnologías Web, página 17.

72y1.indd 1 26/02/2008 17:26:30

Page 3: Revista Conocimiento 72

La Universidad Autónoma de Nuevo León, en el marco del septuagésimo quinto aniversario de su fundación, presentará el libro

el día 3 de marzo del presente, a las 19:00 horas,en el Patio Ala Sur, del Colegio Civil Centro Cultural Universitario

La presentación estará a cargo de:

Ing. José Antonio González TreviñoRector de la Universidad Autónoma de Nuevo León

Dr. Juan Ramón de la Fuente RamírezEx rector de la Universidad Nacional Autónoma de México

Lic. Emiliano Salinas OccelliPosgraduado en Cuestionamiento Racional

Se contará con la presencia del Lic. José Natividad González Parás,Gobernador Constitucional del Estado de Nuevo León

Al término de la presentación, la Pinacoteca de Nuevo León, (ubicada en el Colegio Civil Centro Cultural Universitario) inaugurará una muestra de obras de

arte relativas al tema de adicciones, del artista regiomontano Juan Caballero (1959-1998)

Entrada libre

AdiccionesEnfermedades del siglo XXI

del doctor Luis Eugenio Todd

invita a la:

Presentación de las 37 Investigaciones Educativas realizadas por elCentro de Altos Estudios e Investigación Pedagógica – CAEIP

publicadas del 2004 al 2007

Miércoles 5 de Marzo, 2008 / 19:00 horasPatio de Esculturas Planta Baja / Pinacoteca de Nuevo León

Presentadores:

Dr. Reyes S. Tamez GuerraSecretario de Educación en el Estado de Nuevo León

Dr. Luis Eugenio ToddDirector General del Colegio de Estudios Científicos y Tecnológicos

del Estado de Nuevo León – CECYTE, NL

Dr. Carlos OrnelasInvestigador

Mtro. Ismael Vidales DelgadoDirector del Centro de Altos Estudios e Investigación Pedagógica – CAEIP

PINACOTECA DE NUEVO LEÓNJUÁREZ Y WASHINGTON S/N CENTRO DE MONTERREY | TEL 13404358

(ESTACIONAMIENTO SUBTERRÁNEO POR CALLE 5 DE MAYO)

EL COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS

DEL ESTADO DE NUEVO LEÓN

FORROS.indd 1 26/02/2008 17:12:08

A personajes nuestrosen el mundo de las Tecnologías Web

Juan Roberto [email protected]

Maestro Luis Carlos Aceves Gutiérrez

Ligado siempre a las tecnologías Web; a las metodologías ágiles de desarrollo de software y al fomento de la economía digital, Luis Carlos Aceves Gutiérrez es también experto en comercio electrónico, actividad en la que utiliza tecnología de información de punta para las transacciones monetarias. Ha sido evaluador de

empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

Ingeniero en sistemas computacionales, tiene una Maestría en Administración, ambos grados académicos del ITESM. Actualmente es profesor en el Departamento de Ciencias Computacionales de la UDEM, y articulista de El Norte y Reforma; es reconocido como uno de los principales impulsores de temas relacionados con la experiencia del usuario en la Web.

Doctor Ramón E. Brena Pinero

Experto en modelos matemáticos de especificaciones de software y profesor en el ITESM, en los niveles de grado y de posgrado; de métodos formales en ingeniería de software, análisis de algoritmos, sistemas multiagentes y lógica matemática, Ramón Brena tiene, entre sus líneas de investigación, las de agentes inteligentes y semántica

del Internet. Es miembro del Sistema Nacional de Investigadores, nivel I, y ha sido profesor en la UAM y en el Instituto Autónomo de México, así como profesor visitante en la Universidad de Montreal, en Canadá, y en la Universidad de Texas, en Dallas.

Es ingeniero en Computación por la UNAM y tiene un Diplomado de Estudios Avanzados en Información, en Grenoble, Francia. Su Doctorado en Informática es del Laboratoire d´Informatique Fondamentale et d’Intelligence Artificielle en Grenoble, Francia.

Maestro Roberto Ivon Dibildox

Maestro desde el año 2004, en el de nivel posgrado, en la Universidad Regiomontana, donde imparte las materias Paradigmas de Programación, Complejidad Algorítmica e Ingeniería de Software, Roberto Ivon Dibildox ha realizado importantes investigaciones en las áreas de redes sociales y aprendizaje colaborativo, mediante la

utilización de tecnologías Web.

Ha sido profesor en el ITESM, campus Querétaro, Monterrey y San Luís Potosí, donde fue director de las carreras de informática. En la UR ha sido director de sistemas educativos y director de tecnología. Es ingeniero en sistemas Computacionales por el ITESM, campus Querétaro, y tiene una Maestría en Ciencias Computacionales del ITESM, campus Monterrey. Tiene un diplomado en Sistemas Modernos de Manufactura de la Western Illinois University.

Maestro Fernando Méndez Barajas

Como director de Operaciones de Servicios a Estados Unidos de la empresa Softtek, que brinda servicios globales a distancia en tecnologías de información, como mantenimiento, soporte, desarrollo y pruebas de aplicaciones, Fernando Méndez Barajas trabaja con modelos de entrega globales basados en CMMI5,

SixSigma, procesos digitalizados y metodologías de vanguardia en desarrollo e implementación de sistemas.

Es ingeniero en Sistemas Electrónicos por el Instituto Tecnológico y de Estudios Superiores de Monterrey, y tiene una Maestría en Educación Familiar, del Instituto de Estudios Europeos de Educación (IEEE) y el Instituto Mexicano de Estudios de la Educación (IMEE). Tomó el programa de Alta Dirección de Empresas del Instituto Panamericano de Alta Dirección de Empresas (IPADE).

Ingeniero Aldo Gamaliel Peñuelas López

Con un larga experiencia en desarrollo de proyectos basados en tecnología Web, como el Sistema de Inscripciones del ITESM; arquitecto y líder de proyectos de la Aplicación ILS, que la empresa General Electric utiliza a nivel mundial para la logística de sus turbinas y materiales, Aldo Gamaliel Peñuelas labora desde el año

2002 en la empresa Softtek, donde, entre otras cosas, participó como líder de diseño técnico del proyecto Nuevo Sistema de Pensiones, del IMSS.

Es ingeniero en Sistemas Computacionales por el ITESM, y tomó el curso SixSigma. Actualmente es líder de operaciones en Softtek, y tiene a su cargo 20 proyectos de desarrollo, el 85 por ciento de ellos con tecnología de punta en Web.

Licenciado Rogelio J. Sepúlveda Guerrero

Con importantes estudios sobre ingeniería de software, especialmente en metodologías de desarrollos evolutivos que modifican las metodologías tradicionales, para así construir softwares de calidad dentro de los tiempos y costos establecidos, pero haciendo las diferencias entre desarrollos web y desarrollos en la arquitectura cliente-

servidor, Rogelio J. Sepúlveda Guerrero es maestro en la Facultad de Ciencias Físico Matemáticas de la Universidad Autónoma de Nuevo León.

Es licenciado en Ciencias Computacionales, y tiene una Maestría en Teleinformática, ambos grados académicos de la Facultad de Ciencias Físico Matemáticas de la UANL, donde actualmente es también subdirector del Centro de Servicios en Informática, que brinda servicio y atiende proyectos de los sectores público y privado.

El doctor Arturo Galván analiza los servicios Web y lo que éstos ofrecen a los usuarios, página 4; en tanto que el ingeniero Roberto Ivon Dibildox aborda el tema de la Web 2.0 en la Sociedad del Conocimiento, página 7, y la ingeniera María Imelda González hace consideraciones sobre la experiencia del usuario en la nueva red, página 10.

Tecn

olog

ías

Web

CONTENIDO

Director GeneralDoctor Luis Eugenio ToddSubdirectorLicenciado Juan Roberto ZavalaDirector EditorialFélix Ramos GamiñoEducaciónProfesor Ismael Vidales DelgadoCiencias Básicas y del AmbienteDoctor Juan Lauro AguirreDesarrollo Urbano y SocialIngeniero Gabriel ToddCiencias MédicasDoctor David Gómez AlmaguerCiencias Políticas y / o de Administración PúblicaContador Público José Cárdenas CavazosCiencias de la ComunicaciónDoctora Patricia Liliana Cerda Pérez

Consejo Editorial

Directorio

Presidente del Consejo de Ciencia y Tecnología de Nuevo LeónIngeniero Juan Antonio González AréchigaN. L. Gob.Licenciado Omar Cervantes RodríguezDirector del Programa Ciudad Internacional del ConocimientoIngeniero Jaime Parada ÁvilaCAINTRAIngeniero Xavier Lozano MartínezITESMM. C. Silvia Patricia Mora CastroUANLDoctor Mario César Salinas Carmona

Doctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

EditorialLa ola digitalEl nuevo universo: Web

El Universo de las Tecnologías Web

3

4

15

17

20

27

29

34

35

41

48

Qué ofrecen los servicios WebDoctor Arturo Galván Rodríguez

Importancia de la Web 2.0 en la Sociedad del ConocimientoIngeniero Roberto Ivon Dibildox

La experiencia del usuario en la nueva WebIngeniera María Imelda González Báez

La Web Semántica: para humanos y para máquinasM. C. Héctor G. Ceballos

La democratización de la Web, un reto mundialDoctora Patricia Liliana Cerda Pérez

Modelos de negocios WebMaestro Rodrigo Soto

Hacia un futuro evolutivo de la WebDoctor José Aldo Díaz Prado

Las Mejores Prácticas de Ingeniería de Software en los Desarrollos WEB Licenciado Rogelio J. Sepúlveda

La Web y los fractalesProfesor Ismael Vidales Delgado

La importancia del open source en la WebIngeniero Jorge CárdenasTécnico Antonio López Magaña

El alma de un buscador de páginas WebDoctora Elisa Schaeffer

Cómo redactar los textos para la WebIngeniera Marta Sylvia del Río

El coach que diseña y construye componentes del software WebLicenciado Felipe de Jesús Rodríguez García, MT Yo necesito una banca segura. ¿Y tú?Licenciada Laura Rodríguez

Implementación de la tecnología AjaxMaestro José Luis Ramos Martínez

Silverlight, nueva y versátil tecnología WebIngeniero José de León Rodríguez La zanahoria por delante y el látigo por detrásAlejandro Camino

Mas allá de los buscadores en InternetDoctor Ramón Brena

Invasores en la redIngeniera Claudia Ordaz

7

10

12

23

25

31

37

39

44

La Web semántica para humanos y para máquinas es el tema que desarrolla el M. C. Héctor G. Ceballos, página 12, y la doctora Patricia Liliana Cerda reflexiona sobre el reto que constituye la democratización de la Web, página 15. El maestro Rodrigo Soto, a su vez, narra, en forma sintética, algunos de los negocios que se han desarrollado en el ámbito de las tecnologías Web, página 17.

72y1.indd 1 26/02/2008 17:26:30

Page 4: Revista Conocimiento 72

CONOCIMIENTO TECNOLOGÍAS WEB 71

taminados, la recuperación o ampliación de los parques. Por ejemplo, la recuperación que hizo Barcelona de sus playas es un caso típico, o convertir el parque del Tibidago en una gigantesca reserva natural de diez mil hectáreas dentro de Barcelona; sí, diez mil hectáreas dentro de la ciudad. Entonces, por un lado esa calidad del paisaje tiene que ir de la mano con una intensa y profunda recuperación de todos los atributos naturales que una ciudad puede tener: un río, unas sierras, unos parques, unos bosques, un desierto, que por cierto también tiene un valor natural y paisajístico. Y, segundo, el paisaje humano, el paisaje cultural, esas ciudades que tienen esos fantásticos centros peatonales llenos de vida social, áreas deportivas… en fin. Entonces, la estrategia entre un paisaje humano cultural enormemente atractivo y un paisaje natural que ha sido reestablecido y se conserva es la que puede dar una ciudad de paisaje atractivo.

GT: ¿La persona proyecta la ciudad o la ciudad termina proyectando y condicionando la vida de la persona en una visión histórica?

RP: Muy buena. La condición humana tiene un poder tal sobre la naturaleza y sobre la historia, que ha sido la única que ha podido llevar al mundo a donde está; es un mal y es un bien; la especie humana, el ecosistema hu-mano tiene el poder para condicionar el destino de una ciudad; lo que pasa es que muchas veces ese acontecer humano, ese paisaje de acontecimientos, diría un gran escritor, Paul Virilio es tan caótico, que cada quien hace lo que quiere; los intereses económicos llegan a predomi-nar sobre los intereses sociales y culturales, y la ciudad finalmente es un caos. Por eso, si nosotros hacemos una

encuesta mundial, es probable que la mayor parte de

los habitantes del planeta digan que las ciudades son

malas. Y no es que sean malas. Las malas ciudades son

malas, y las buenas son espléndidas. Este mismo ambi-ente que tiene San Pedro Garza Garcia, Nuevo León, es un ambiente de grandísima calidad. Uno tiene más o menos toda la gama y oferta posible de bienes y servicios dentro de un paisaje verde, interesante, muy bonito; las colinas alrededor. Pero, claro, si aumenta el tráfico, si aumenta el ruido, si aumenta la contaminación y la congestión y así para adelante, el paisaje se tornará malo.

GT: La ciudad ¿es un proceso o es un destino? ¿Se conforma de manera eterna en un cambio constante o se puede llegar a un punto en donde digamos que tenemos o hemos logrado el entorno adecuado?

RP: En Ecología hay un principio que se conoce como el ecosistema clímax, que alcanza un momento de clímax; es muy peligroso, porque después del clímax suele suceder el envejecimiento o la desaparición. Yo creo que el camino lo están mostrando algunas grandes ciudades del mundo, en particular en Europa, aunque también en otros lados, como San Francisco, en Estados Unidos, Sydney, en Aus-tralia, etcétera. El destino es un crecimiento pautado, más bien lento, mediante una mejor distribución de actividades en el territorio, que incide en una maduración de esas me-joras que siempre requieren años, requieren cultura. Las ciudades de crecimiento explosivo no pueden ser buenas; es como un adolescente que crece diez centímetros por

Trayectoria

Rubén Pesci es arquitecto. Nació en La Plata, Argentina, en 1942, y se graduó en la Universidad Nacional de dicha ciudad en 1965. Ha sido profesor titular de las universidades: Nacional de La Plata, Católica de La Plata y de Belgrano; profesor invitado en las universidades de Venecia (Italia), Menéndez y Pelayo y Valencia (España), Tucumán y Mendoza (Argentina), Mérida y Caracas (Venezuela) y Porto Alegre y Curitiba (Brasil). Dirigió el Curso Superior de Proyectación Ambiental (Universidad de Belgrano, 1980-87); el Taller Latinoamericano de Formación Ambiental (1985-87), varios cursos y talleres de grado y posgrado en Formación Ambiental de la FLACAM (Foro Latinoamericano de Ciencias Ambientales). Ha ejercido importantes cargos públicos y privados: asesor en Cuestiones Metropolitanas del Gobierno de la Provincia de Buenos Aires, director provincial del Conurbano Bonaerense y subsecretario de Coordinación Técnica del Área Metropolitana de Buenos Aires (AMBA) (1984-89). Es autor de los libros: Del ambiente individual al ambiente colectivo, 1973; La ciudad in-urbana, 1985; Parque Costero del Sur, 1990; Nuestras Propias Soluciones, 1992; Proyectación Ambiental, 1995; La ciudad de la urbanidad, 1997 y Del Titanic al Velero: la vida como proyecto, 2000. Ha publicado más de trescientos artículos en revistas y periódicos locales e internacionales. El accionar de Rubén Pesci en materia arquitectónica, urbanística y ambiental -reconocido por su originalidad- lo llevó a merecer importantes distinciones y reconocimientos: - Premios en concursos nacionales y certámenes internacionales. - Invitado a exponer sus obras y planes en París, Roma, Bolonia, Milán, Venecia, Madrid, Barcelona, Santiago de Chile, Montevideo, Buenos Aires, Porto Alegre, Curitiba, Río de Janeiro, Lima, Caracas, México, South Carolina y Los Angeles (USA), etcétera. - Jurado en distintas manifestaciones locales y extranjeras. - Conferencista invitado en congresos nacionales e internacionales y en universidades de América y Europa.

año: No tiene ropa que aguante; ese adolescente tiene que parar en algún momento, porque si no, termina siendo un deforme gigante. Las madres se ponen nerviosas cuando un chico de 14 años sigue creciendo. Lo mismo les pasa a las ciudades. Hay que pautar su crecimiento; hay que descentralizarlas, para que crezcan varias ciudades y no sólo una sola gigantesca (ejemplo adecuado, el valle del Po, en Italia).

Lo que nos depara el futuro con la evolución de la Web es tema que analiza el doctor José Aldo Díaz Prado, página 20, mientras que el licenciado Rogelio J. Sepúlveda desarrolla el tema de las mejores prácticas de ingeniería de software, página 23; aunque confiesa su poca experiencia en el mundo de la Web, el profesor Ismael Vidales no oculta la admiración que le han causado los fractales, página 25.

CONTENIDO

La Ciencia es CulturaLicenciado Jorge PedrazaIngeniera Claudia OrdazEducación Física y DeporteDoctor Óscar Salas FraireLas Universidades y la CienciaDoctor Mario César Salinas CarmonaRedacciónLicenciada Alma TrejoLicenciado Carlos JoloyDiseñoVíctor Eduardo ArmendárizLindsay Jiménez EspinosaArte GráficoArquitecto Rafael Adame DoriaCirculación y AdministraciónProfesor Oliverio Anaya Rodríguez

La revista CONOCIMIENTO es un órgano de difusión del CECyTE, editada por el COCyTE, y abre sus páginas a las instituciones de educación superior para la publicación de artículos y noticias de carácter científico. Teléfonos en la redacción: 8346 7499 y 8346 [email protected] solicitado previamente con el nombre de CONOCIMIENTO.

Las opiniones expresadas en los artículos son responsabilidad exclusiva de sus autores.

Directorio

Computación socialDoctor José I. Icaza

Wikinómica: cómo la colaboración masiva lo cambia todoDoctor Juan Lauro Aguirre

El Manifiesto de Usabilidad y Accesibilidad para Portales Gubernamentales MexicanosIngeniero Luis Carlos Aceves Accesible para ciegos el Portal Internetdel Gobierno del Estado La burocracia electrónica SalutacionesKeith Raniere

Inicia operaciones aquí la empresa india ARICENT

Capacitará la UR a talentos en Tecnologías de la Información

50

52

55Tecn

olog

ías

Web

El Universo de las Tecnologías Web

57

58

61

64

66

EspecialFelicita el ITESM a IMPLAN San Pedro

A la edad de 94 añosFallece el papá del gobernador

Cultura y Arte

Niña con flores amarillas, en la Pinacoteca Nuevo León

La convención del paisaje,conjunción de naturaleza y cultura

Reconocimiento

67

68

69

70

La doctora Elisa Schaeffer trata de meterse en el alma de un buscador de páginas Web, página 29; y la ingeniera Marta Sylvia del Río explica las diferencias entre un texto normal, y un texto para páginas Web, página 31. Dos nuevas tecnologías Web son objeto de análisis de parte de expertos: la tecnología Ajax, por parte del maestro José Luis Ramos, página 37, y Silverlight, por parte del ingeniero José de León, página 39.

72

Mapa de Internet 2.0

2y71.indd 1 26/02/2008 17:50:20

70 3

Alvin Toffler, futurólogo a quien conocimos hace mucho tiempo, describió el término: La tercera ola, refiriéndose a la nueva época de la comuni-

cación, que desborda la revolución industrial del siglo XVIII, el XIX y la revolución agrícola, que es milenaria. Nosotros nos atrevemos a escribir sobre el tema de la “cuarta ola”, que es la de los súper canales de la infor-mación, que, queramos o no, están trasformando nues-tra civilización.

Los cambios dramáticos de la ola digital, que fue-ron producto de investigaciones matemáticas con al-goritmos muy complejos, y después de la innovación tecnológica, rica en alternativas, del uso de las ondas hertzianas y de la comunicación trasnacional, han pro-ducido cambios en las múltiples áreas del existir coti-diano y vivencial. Algunos ejemplos pueden describir este potencial:

Uno de ellos es el impacto que este proceso tiene sobre el arte-ciencia del gobernar, el cual se transforma a gran velocidad en la actualidad con el llamado e-go-bierno, que, aprovechando la denominada banda ancha y la comunicación intranet, generará, de aprovecharse bien, una alta eficiencia en el sector gubernamental y disminuirá las enfermedades de la apología social en-démica, que caracteriza algunas veces a la burocracia.

En Nuevo León, Estado de Progreso, se está dando este rumbo de modernización, y nuestra página elec-trónica es ya un ejemplo nacional. Además, la trans-parencia vía electrónica, que es obligación legal del sector público, está resultando un buen antibiótico en contra de la enfermedad de la corrupción. Este proceso, de hacer objetivas las acciones del servidor público, mejora la imagen del gobierno y aumenta la confianza ocular; sin embargo, las leyes de transparencia y la pu-blicación a tiempo real, solas, no nos van a hacer más honestos, pero al menos nos obligan a ser inteligentes y más eficientes. El verdadero tratamiento de este fenó-meno está en la educación, en el incremento de nuestra autoestima y en la dignificación del servidor público.

También los vientos de la electrónica están modifi-cando los rumbos fenicios del mercado, pues está bien documentado que las compras y ventas por Internet, y la simbología fantasiosa y conductista de la imagen están desviando el tradicional mercado persa hacia la

adquisición de bienes y servicios a través de la banda ancha, que de esa forma amplifica la adicción a las com-pras, enfermedad que caracteriza a la sociedad actual.

Por supuesto, no todo “está podrido en Dinamarca”, como diría Shakespeare, pues la ola digital trae profun-dos cambios en la educación, en el arte lúdico del gozo y en la comunicación interhumana rápida y permanen-te que la telefonía celular y la informática permiten a tiempo real. De nuestra capacidad de aprovechar y no desvirtuar esta tecnología se producirá un mundo sin analfabetismo y con menores contrasentidos sociales y mayor justicia en la distribución del ingreso de esta nueva sociedad del conocimiento. Si a esto le agrega-mos la “sociedad del conocimiento” como aliada de las páginas Web y de la comunicación vía súper canales de información, podremos aprovechar las bondades docu-mentadas de esta nueva ola.

En síntesis: este tsunami de la banda ancha digital y de la sociedad E está sacudiendo el interior de nuestro potencial humano creativo, y si logramos que esta nue-va energía se vectorice en beneficio de la raza humana, a través de respetar un marco ético de comportamiento, estaremos satisfechos de que la nueva ola sea condu-cida con los valores de siempre, evitando que la misma nos guíe a desvirtuar la esencia del humanismo virtual, que es la síntesis poética de la libertad del hombre he-cha preocupación, no sólo por el “yo”, sino también por el “nosotros”.

Pienso, luego existo

DESCARTES1596 a 1650

De haber sabido que mi método cartesiano

iba a producir una revolución digital como la actual, quizás no me

hubiera muerto.

Tecn

olog

ías

Web

EDITORIAL

La ola digital

El nuevo universo: Web

El arquitecto y urbanista Rubén Pesci, reconocido

internacionalmente por su destacada trayectoria profe-

sional, estuvo en días pasados en San Pedro Garza Gar-

cía, y accedió a una entrevista con CONOCIMIENTO. He

aquí el texto de la conversación:

Gabriel Todd: La ciudad ¿es ciencia o es arte?

Ruben Pesci: Muy buena pregunta. En síntesis, la ciu-dad es ante todo arte, una mirada integradora histórica cultural. El propio Albert Einsten, uno de los más notables científicos de la historia, dijo que en tiempo de crisis, de cambio, de evolución, es más importante la imaginación que el conocimiento. La imaginación es típicamente una

forma de pensamiento artística. Ese arte urbano, como

se le llamaba desde el siglo XIX; tiene que estar basado en conocimiento, en datos, en evidencia, en donde la ciencia viene en auxilio, pero viene en auxilio. Invertir la ecuación y decir que el arte es un complemento, decir que es un artefacto de la ciencia, es no entender la vida.

GT: Como recomponer la ciudad desde el paisaje, que

Ingeniero Gabriel ToddDirector General

del Instituto Municipal de Planeación

Urbana San Pedro Garza García

[email protected]

el paisaje sea el elemento rector de la ciudad a pesar de toda la actividad económica que engloba la vida urbana. ¿Estás de acuerdo?

RP: Totalmente de acuerdo, y me entusiasma que pre-guntes y estés pensando en eso; es la noción que nueva-mente se ha puesto en el tapete. En la Unión Europea tenían convenciones muy interesantes de urbanismo, de ecología y de más; pero recientemente han creado la convención del paisaje, que es modernísima, interesantísima, y que recomiendo la busquen en Internet y la miren. La conven-

ción del paisaje de la UE ve en el paisaje una conjunción

de naturaleza y cultura, de mirada humana y de mirada

científica. Creo que el paisaje es la gran presión sintetiza-dora para describir un ambiente de calidad. ¿Cómo hacer esto en las ciudades…? Hay componentes que consider-ar, hay el paisaje natural y el humano. Esto, en todas las grandes ciudades se da. Uno puede hablar de Roma, de ciudades maravillosas, de paisaje cultural y también del paisaje natural, introducido en la ciudad: los ríos descon

Sostiene Rubén Pesci

La convención del paisaje, conjunción de naturaleza y culturaGabriel Todd

El Arco de Constantino, Roma Italia.

70y3.indd 1 26/02/2008 17:00:10

Page 5: Revista Conocimiento 72

CONOCIMIENTO TECNOLOGÍAS WEB 71

taminados, la recuperación o ampliación de los parques. Por ejemplo, la recuperación que hizo Barcelona de sus playas es un caso típico, o convertir el parque del Tibidago en una gigantesca reserva natural de diez mil hectáreas dentro de Barcelona; sí, diez mil hectáreas dentro de la ciudad. Entonces, por un lado esa calidad del paisaje tiene que ir de la mano con una intensa y profunda recuperación de todos los atributos naturales que una ciudad puede tener: un río, unas sierras, unos parques, unos bosques, un desierto, que por cierto también tiene un valor natural y paisajístico. Y, segundo, el paisaje humano, el paisaje cultural, esas ciudades que tienen esos fantásticos centros peatonales llenos de vida social, áreas deportivas… en fin. Entonces, la estrategia entre un paisaje humano cultural enormemente atractivo y un paisaje natural que ha sido reestablecido y se conserva es la que puede dar una ciudad de paisaje atractivo.

GT: ¿La persona proyecta la ciudad o la ciudad termina proyectando y condicionando la vida de la persona en una visión histórica?

RP: Muy buena. La condición humana tiene un poder tal sobre la naturaleza y sobre la historia, que ha sido la única que ha podido llevar al mundo a donde está; es un mal y es un bien; la especie humana, el ecosistema hu-mano tiene el poder para condicionar el destino de una ciudad; lo que pasa es que muchas veces ese acontecer humano, ese paisaje de acontecimientos, diría un gran escritor, Paul Virilio es tan caótico, que cada quien hace lo que quiere; los intereses económicos llegan a predomi-nar sobre los intereses sociales y culturales, y la ciudad finalmente es un caos. Por eso, si nosotros hacemos una

encuesta mundial, es probable que la mayor parte de

los habitantes del planeta digan que las ciudades son

malas. Y no es que sean malas. Las malas ciudades son

malas, y las buenas son espléndidas. Este mismo ambi-ente que tiene San Pedro Garza Garcia, Nuevo León, es un ambiente de grandísima calidad. Uno tiene más o menos toda la gama y oferta posible de bienes y servicios dentro de un paisaje verde, interesante, muy bonito; las colinas alrededor. Pero, claro, si aumenta el tráfico, si aumenta el ruido, si aumenta la contaminación y la congestión y así para adelante, el paisaje se tornará malo.

GT: La ciudad ¿es un proceso o es un destino? ¿Se conforma de manera eterna en un cambio constante o se puede llegar a un punto en donde digamos que tenemos o hemos logrado el entorno adecuado?

RP: En Ecología hay un principio que se conoce como el ecosistema clímax, que alcanza un momento de clímax; es muy peligroso, porque después del clímax suele suceder el envejecimiento o la desaparición. Yo creo que el camino lo están mostrando algunas grandes ciudades del mundo, en particular en Europa, aunque también en otros lados, como San Francisco, en Estados Unidos, Sydney, en Aus-tralia, etcétera. El destino es un crecimiento pautado, más bien lento, mediante una mejor distribución de actividades en el territorio, que incide en una maduración de esas me-joras que siempre requieren años, requieren cultura. Las ciudades de crecimiento explosivo no pueden ser buenas; es como un adolescente que crece diez centímetros por

Trayectoria

Rubén Pesci es arquitecto. Nació en La Plata, Argentina, en 1942, y se graduó en la Universidad Nacional de dicha ciudad en 1965. Ha sido profesor titular de las universidades: Nacional de La Plata, Católica de La Plata y de Belgrano; profesor invitado en las universidades de Venecia (Italia), Menéndez y Pelayo y Valencia (España), Tucumán y Mendoza (Argentina), Mérida y Caracas (Venezuela) y Porto Alegre y Curitiba (Brasil). Dirigió el Curso Superior de Proyectación Ambiental (Universidad de Belgrano, 1980-87); el Taller Latinoamericano de Formación Ambiental (1985-87), varios cursos y talleres de grado y posgrado en Formación Ambiental de la FLACAM (Foro Latinoamericano de Ciencias Ambientales). Ha ejercido importantes cargos públicos y privados: asesor en Cuestiones Metropolitanas del Gobierno de la Provincia de Buenos Aires, director provincial del Conurbano Bonaerense y subsecretario de Coordinación Técnica del Área Metropolitana de Buenos Aires (AMBA) (1984-89). Es autor de los libros: Del ambiente individual al ambiente colectivo, 1973; La ciudad in-urbana, 1985; Parque Costero del Sur, 1990; Nuestras Propias Soluciones, 1992; Proyectación Ambiental, 1995; La ciudad de la urbanidad, 1997 y Del Titanic al Velero: la vida como proyecto, 2000. Ha publicado más de trescientos artículos en revistas y periódicos locales e internacionales. El accionar de Rubén Pesci en materia arquitectónica, urbanística y ambiental -reconocido por su originalidad- lo llevó a merecer importantes distinciones y reconocimientos: - Premios en concursos nacionales y certámenes internacionales. - Invitado a exponer sus obras y planes en París, Roma, Bolonia, Milán, Venecia, Madrid, Barcelona, Santiago de Chile, Montevideo, Buenos Aires, Porto Alegre, Curitiba, Río de Janeiro, Lima, Caracas, México, South Carolina y Los Angeles (USA), etcétera. - Jurado en distintas manifestaciones locales y extranjeras. - Conferencista invitado en congresos nacionales e internacionales y en universidades de América y Europa.

año: No tiene ropa que aguante; ese adolescente tiene que parar en algún momento, porque si no, termina siendo un deforme gigante. Las madres se ponen nerviosas cuando un chico de 14 años sigue creciendo. Lo mismo les pasa a las ciudades. Hay que pautar su crecimiento; hay que descentralizarlas, para que crezcan varias ciudades y no sólo una sola gigantesca (ejemplo adecuado, el valle del Po, en Italia).

Lo que nos depara el futuro con la evolución de la Web es tema que analiza el doctor José Aldo Díaz Prado, página 20, mientras que el licenciado Rogelio J. Sepúlveda desarrolla el tema de las mejores prácticas de ingeniería de software, página 23; aunque confiesa su poca experiencia en el mundo de la Web, el profesor Ismael Vidales no oculta la admiración que le han causado los fractales, página 25.

CONTENIDO

La Ciencia es CulturaLicenciado Jorge PedrazaIngeniera Claudia OrdazEducación Física y DeporteDoctor Óscar Salas FraireLas Universidades y la CienciaDoctor Mario César Salinas CarmonaRedacciónLicenciada Alma TrejoLicenciado Carlos JoloyDiseñoVíctor Eduardo ArmendárizLindsay Jiménez EspinosaArte GráficoArquitecto Rafael Adame DoriaCirculación y AdministraciónProfesor Oliverio Anaya Rodríguez

La revista CONOCIMIENTO es un órgano de difusión del CECyTE, editada por el COCyTE, y abre sus páginas a las instituciones de educación superior para la publicación de artículos y noticias de carácter científico. Teléfonos en la redacción: 8346 7499 y 8346 [email protected] solicitado previamente con el nombre de CONOCIMIENTO.

Las opiniones expresadas en los artículos son responsabilidad exclusiva de sus autores.

Directorio

Computación socialDoctor José I. Icaza

Wikinómica: cómo la colaboración masiva lo cambia todoDoctor Juan Lauro Aguirre

El Manifiesto de Usabilidad y Accesibilidad para Portales Gubernamentales MexicanosIngeniero Luis Carlos Aceves Accesible para ciegos el Portal Internetdel Gobierno del Estado La burocracia electrónica SalutacionesKeith Raniere

Inicia operaciones aquí la empresa india ARICENT

Capacitará la UR a talentos en Tecnologías de la Información

50

52

55Tecn

olog

ías

Web

El Universo de las Tecnologías Web

57

58

61

64

66

EspecialFelicita el ITESM a IMPLAN San Pedro

A la edad de 94 añosFallece el papá del gobernador

Cultura y Arte

Niña con flores amarillas, en la Pinacoteca Nuevo León

La convención del paisaje,conjunción de naturaleza y cultura

Reconocimiento

67

68

69

70

La doctora Elisa Schaeffer trata de meterse en el alma de un buscador de páginas Web, página 29; y la ingeniera Marta Sylvia del Río explica las diferencias entre un texto normal, y un texto para páginas Web, página 31. Dos nuevas tecnologías Web son objeto de análisis de parte de expertos: la tecnología Ajax, por parte del maestro José Luis Ramos, página 37, y Silverlight, por parte del ingeniero José de León, página 39.

72

Mapa de Internet 2.0

2y71.indd 1 26/02/2008 17:50:20

70 3

Alvin Toffler, futurólogo a quien conocimos hace mucho tiempo, describió el término: La tercera ola, refiriéndose a la nueva época de la comuni-

cación, que desborda la revolución industrial del siglo XVIII, el XIX y la revolución agrícola, que es milenaria. Nosotros nos atrevemos a escribir sobre el tema de la “cuarta ola”, que es la de los súper canales de la infor-mación, que, queramos o no, están trasformando nues-tra civilización.

Los cambios dramáticos de la ola digital, que fue-ron producto de investigaciones matemáticas con al-goritmos muy complejos, y después de la innovación tecnológica, rica en alternativas, del uso de las ondas hertzianas y de la comunicación trasnacional, han pro-ducido cambios en las múltiples áreas del existir coti-diano y vivencial. Algunos ejemplos pueden describir este potencial:

Uno de ellos es el impacto que este proceso tiene sobre el arte-ciencia del gobernar, el cual se transforma a gran velocidad en la actualidad con el llamado e-go-bierno, que, aprovechando la denominada banda ancha y la comunicación intranet, generará, de aprovecharse bien, una alta eficiencia en el sector gubernamental y disminuirá las enfermedades de la apología social en-démica, que caracteriza algunas veces a la burocracia.

En Nuevo León, Estado de Progreso, se está dando este rumbo de modernización, y nuestra página elec-trónica es ya un ejemplo nacional. Además, la trans-parencia vía electrónica, que es obligación legal del sector público, está resultando un buen antibiótico en contra de la enfermedad de la corrupción. Este proceso, de hacer objetivas las acciones del servidor público, mejora la imagen del gobierno y aumenta la confianza ocular; sin embargo, las leyes de transparencia y la pu-blicación a tiempo real, solas, no nos van a hacer más honestos, pero al menos nos obligan a ser inteligentes y más eficientes. El verdadero tratamiento de este fenó-meno está en la educación, en el incremento de nuestra autoestima y en la dignificación del servidor público.

También los vientos de la electrónica están modifi-cando los rumbos fenicios del mercado, pues está bien documentado que las compras y ventas por Internet, y la simbología fantasiosa y conductista de la imagen están desviando el tradicional mercado persa hacia la

adquisición de bienes y servicios a través de la banda ancha, que de esa forma amplifica la adicción a las com-pras, enfermedad que caracteriza a la sociedad actual.

Por supuesto, no todo “está podrido en Dinamarca”, como diría Shakespeare, pues la ola digital trae profun-dos cambios en la educación, en el arte lúdico del gozo y en la comunicación interhumana rápida y permanen-te que la telefonía celular y la informática permiten a tiempo real. De nuestra capacidad de aprovechar y no desvirtuar esta tecnología se producirá un mundo sin analfabetismo y con menores contrasentidos sociales y mayor justicia en la distribución del ingreso de esta nueva sociedad del conocimiento. Si a esto le agrega-mos la “sociedad del conocimiento” como aliada de las páginas Web y de la comunicación vía súper canales de información, podremos aprovechar las bondades docu-mentadas de esta nueva ola.

En síntesis: este tsunami de la banda ancha digital y de la sociedad E está sacudiendo el interior de nuestro potencial humano creativo, y si logramos que esta nue-va energía se vectorice en beneficio de la raza humana, a través de respetar un marco ético de comportamiento, estaremos satisfechos de que la nueva ola sea condu-cida con los valores de siempre, evitando que la misma nos guíe a desvirtuar la esencia del humanismo virtual, que es la síntesis poética de la libertad del hombre he-cha preocupación, no sólo por el “yo”, sino también por el “nosotros”.

Pienso, luego existo

DESCARTES1596 a 1650

De haber sabido que mi método cartesiano

iba a producir una revolución digital como la actual, quizás no me

hubiera muerto.

Tecn

olog

ías

Web

EDITORIAL

La ola digital

El nuevo universo: Web

El arquitecto y urbanista Rubén Pesci, reconocido

internacionalmente por su destacada trayectoria profe-

sional, estuvo en días pasados en San Pedro Garza Gar-

cía, y accedió a una entrevista con CONOCIMIENTO. He

aquí el texto de la conversación:

Gabriel Todd: La ciudad ¿es ciencia o es arte?

Ruben Pesci: Muy buena pregunta. En síntesis, la ciu-dad es ante todo arte, una mirada integradora histórica cultural. El propio Albert Einsten, uno de los más notables científicos de la historia, dijo que en tiempo de crisis, de cambio, de evolución, es más importante la imaginación que el conocimiento. La imaginación es típicamente una

forma de pensamiento artística. Ese arte urbano, como

se le llamaba desde el siglo XIX; tiene que estar basado en conocimiento, en datos, en evidencia, en donde la ciencia viene en auxilio, pero viene en auxilio. Invertir la ecuación y decir que el arte es un complemento, decir que es un artefacto de la ciencia, es no entender la vida.

GT: Como recomponer la ciudad desde el paisaje, que

Ingeniero Gabriel ToddDirector General

del Instituto Municipal de Planeación

Urbana San Pedro Garza García

[email protected]

el paisaje sea el elemento rector de la ciudad a pesar de toda la actividad económica que engloba la vida urbana. ¿Estás de acuerdo?

RP: Totalmente de acuerdo, y me entusiasma que pre-guntes y estés pensando en eso; es la noción que nueva-mente se ha puesto en el tapete. En la Unión Europea tenían convenciones muy interesantes de urbanismo, de ecología y de más; pero recientemente han creado la convención del paisaje, que es modernísima, interesantísima, y que recomiendo la busquen en Internet y la miren. La conven-

ción del paisaje de la UE ve en el paisaje una conjunción

de naturaleza y cultura, de mirada humana y de mirada

científica. Creo que el paisaje es la gran presión sintetiza-dora para describir un ambiente de calidad. ¿Cómo hacer esto en las ciudades…? Hay componentes que consider-ar, hay el paisaje natural y el humano. Esto, en todas las grandes ciudades se da. Uno puede hablar de Roma, de ciudades maravillosas, de paisaje cultural y también del paisaje natural, introducido en la ciudad: los ríos descon

Sostiene Rubén Pesci

La convención del paisaje, conjunción de naturaleza y culturaGabriel Todd

El Arco de Constantino, Roma Italia.

70y3.indd 1 26/02/2008 17:00:10

Page 6: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB4 69

A partir de su invención, a principios de los años 90 y hasta nuestros días, la World Wide Web, o Inter-net, ha sido utilizada principalmente para disemi-

nar información o acceder a ella mediante la publicación y recuperación de documentos, típicamente en formato HTML. Los principales usuarios de dicha información son personas, que acceden a ella mediante un navegador o al-gún reproductor de contenido. Esto es lo que comúnmente llamamos Web 1.0.

La Web 2.0 se refiere al acceso a información no sola-mente por las personas, sino también por las computa-doras, a fin de que dicha información sea procesada de manera automática. Los Servicios Web son una parte im-portante de esta nueva Web.

CONCEPTOS BÁSICOS

Un servicio web es esencialmente un servicio cuya interfaz de acceso está disponible en Internet. Los Servicios Web son construidos mediante el uso de tecnologías estándar de Internet. En otras palabras, si es posible acceder a un

servicio a través de Internet utilizando protocolos están-

dar, entonces dicho servicio es un servicio web.

Un servicio web es una interfaz ubicada entre un pro-grama o aplicación y el usuario final de dicho programa o aplicación. Funciona como una abstracción de la apli-cación, y hace posible que cualquier lenguaje de progra-mación tenga acceso a la funcionalidad provista por la aplicación.

Un servicio Web es independiente del sistema opera-tivo y del lenguaje de programación utilizado.

SERVICIOS WEB HASTA HOY

En la actualidad, los servicios web que encontramos comúnmente son sitios web. En dichos sitios, se accede a las aplicaciones mediante el protocolo estándar HTTP y se recupera información en el formato estándar HTML. Di-

chos servicios web nos permiten, por ejemplo, comprar li-bros o leer noticias. Debido a que tanto HTTP como HTML son protocolos estándar, cuyas definiciones son públicas, cualquier navegador permite a los usuarios acceder a los servicios web actuales. Tanto el lenguaje de programación utilizado para implementar el navegador, como el sistema operativo sobre el cual es ejecutado el navegador son irre-levantes desde el punto de vista del servicio web. Un nave-gador solamente tiene que poder solicitar información mediante HTTP y saber interpretar código HTML.

Los Servicios Web actuales están diseñados para

presentar la información directamente al usuario final. Esto permite una gran flexibilidad, ya que el ser humano es capaz de interpretar información en cualquier formato: con o sin indentación, a doble espacio, en columnas, con figuras intercaladas e inclusive con faltas ortográficas o gramaticales.

SERVICIOS WEB A PARTIR HOY

Utilizando el ejemplo de la compra de libros en línea, es fácil para un humano interpretar la interfaz de compra. De inmediato se ve dónde es necesario alimentar infor-mación y dónde hacer clic para que el libro sea enviado. La interfaz de acceso está diseñada para ser usada por seres humanos.

Si deseamos, en cambio, automatizar la compra de li-bros de una biblioteca, de manera que un programa busque la disponibilidad de ellos y consiga los mejores precios, entonces la interfaz anterior no le es muy útil a nuestro programa de compra de libros. Es necesario diseñar una

interfaz a la cual puedan acceder programas. Esto im-

plica necesariamente una estandarización mucho más

detallada de la información que se manipula.

Se hace necesario el acceso estandarizado a llamadas tales como: “Ejecuta esta subrutina con estos parámetros’’ y a respuestas del tipo: “Éstos son los resultados de la llamada a la subrutina’’.

EJEMPLO DE SERVICIOS WEB

A continuación presentamos un ejemplo de lo que es po-sible lograr mediante Servicios Web.La biblioteca municipal de Monterrey está permanente-mente conectada a Internet.

Un usuario pregunta si existe el libro El laberinto de la soledad. El libro no existe en la biblioteca, pero es la cuarta vez en la semana que alguien lo solicita.

La biblioteca realiza automáticamente una búsqueda en Internet y descubre que el libro puede ser adquirido en http://www.amazon.com. La biblioteca realiza la compra y recibe un número de guía UPS, mediante el cual puede rastrear el paquete enviado.

El usuario recibe un mensaje en el que se le indica

que el libro no está actualmente en existencia, pero que

llegará dentro de tres días.

Al día siguiente, el usuario pregunta dónde esta el li-bro. El sistema consulta el servicio de rastreo de UPS, que le indica que el paquete está en tránsito en un pequeño pueblo de Estados Unidos. El sistema accede a los servicios de Google Maps, ubica el pueblo en un mapa y presenta di-

Qué ofrecen losServicios Web

Doctor Arturo Galván Rodríguez

Profesor InvestigadorCentro de SistemasInteligentes / [email protected]

Arturo Galván Rodríguez

Niña con flores amarillas, en la Pinacoteca Nuevo León

La obra de Rufino Tamayo “Niña con flores amarillas”,

realizada en 1946, cuando el artista oaxaqueño estaba en la plenitud de su carrera, es presentada en la sala de recepción de la Pinacoteca de Nuevo León, desde el 6 de febrero de 2008, en la recién instituida “Sala de Invitados”.

La señora Elvira Lozano de Todd, directora del recinto ubicado en el Colegio Civil, Centro Cultural Universitario, informó que a partir de la institución de este proyecto, en sustitución de la pieza del mes, se podrán exponer obras “universales”, durante uno o dos meses, de colecciones privadas, galeristas e incluso de otras pinacotecas estatales.

En esta ocasión, la Sala de Invitados alberga la obra del maestro Rufino Tamayo, prestada por el coleccionista y promotor cultural Mauricio Fernández Garza, quien apa-drinó este proyecto, apoyando la exhibición de “Niña con flores amarillas”, en la entrada de la Pinacoteca.

PROMOCIÓN Y DIFUSIÓN

Lozano de Todd reiteró que la vocación de la Pinacoteca de Nuevo León es promover y difundir la obra plástica de los artistas nuevoleoneses, pero que existe la apertura para presentar la obra de artistas que no sean del Estado, para que como distinguidos huéspedes puedan recibir la atención y admiración de los visitantes del recinto.

La funcionaria hizo una semblanza del artista oax-aqueño y mencionó que, previamente, el patrimonio cul-tural de Monterrey se ha enriquecido con grandes obras del creador: el vitral “El Universo”, del centro Cultural Alfa, y la escultura urbana “Homenaje al sol”.

La presentación de “Niña con flores amarillas” fue in-tegrada a un espacio que destaca con la museografía de Elisa Téllez, la cual es apoyada con un texto que investigó José Doria.

Los paisajistas locales han capturado la magia y color de las montañas que rodean

a Monterrey, el colorido de la flora vernácula y el agreste escenario que en ocasiones se percibe en algunos rinco-nes del Estado. Con estas imágenes han llenado sus lienzos y los han deja-do como mudos testigos de un cambio que pocos perciben.

Con una visible preocupación por el deterioro ambiental el arquitecto-acuarelista Héctor Cantú Ojeda hizo un llamado para tomar conciencia de lo erosionado de la flora local en la ac-tualidad.

“Se va acabando”, puntualizó el artista participante de la muestra “Paisaje” que estará abierta al público a partir del 5 de marzo en las salas de la Pinacoteca. Consideró que ya no existe respeto por preservar el paisaje y la naturaleza, como lo evidencian el uso y explotación que sufren los ce-rros y otras zonas representativas de Monterrey, como La Huasteca. Ante el evidente cambio del paisaje urbano, el artista hizo un llamado a la conserva-ción de la naturaleza, principalmente al entorno local, del cual dijo que tiene un colorido único. “Cuando a un ceni-zo le cae el agua cambia de color, y así toda la vegetación, pero eso es algo que ya nadie observa”, dijo.

Cantú Ojeda y Saskia Juárez estu-vieron presentes en la rueda de prensa donde se informó de esta exhibición de la selección de piezas con el tema

del “Paisaje”, que se presentará a par-tir del 5 de marzo en la Pinacoteca de Nuevo León.

Este tema, que ha sido manejado por los creadores nuevoleoneses en diversos estilos y épocas, se desple-gará hasta el mes de agosto, con la exhibición de 28 obras de 18 artistas; entre ellos Carmen Cortés, maestra fundadora del Taller de Artes Plásti-cas de la Universidad Autónoma de Nuevo León, hasta representantes de las generaciones más jóvenes, como Israel Mercado.

Presentarán selección

de obras escultóricas

La producción escultórica nuevoleone-sa tiene distintos matices, como ha-llazgos de los propios artistas de dife-rentes generaciones; así, el espectador puede observar los diversos materia-les utilizados en estas obras.

A partir del 6 de marzo, la Pina-coteca de Nuevo León presentará una selección de obras escultóricas de di-versos estilos y técnicas, con obras de Fidias Elizondo y Federico Cantú, así como de artistas contemporáneas, tales como Elisa Pasquel, Mauricio Cortés, Cuauhtémoc Zamudio, Enrique Canales, Gerardo Azcúnaga, Hilda San Vicente, Javier Zarazúa, J.L. Morales (SERALOM) y Raúl de la Rosa, entre otros.

La Pinacoteca de Nuevo León está ubicada en el Colegio Civil Centro Uni-versitario, en Juárez y Washington.

Capturan paisajistas locales magia y color de nuestras montañas

“El vallecito”, Saskia Juárez

4y69.indd 1 26/02/2008 17:00:41

68 CONOCIMIENTO TECNOLOGÍAS WEB 5

cho mapa al usuario, incluida información de distancia al destino y tiempo de entrega.

El responsable estatal de las bibliotecas de Nuevo León solicita información acerca del número de libros en exis-tencia. Se solicita automáticamente dicha información a todas las bibliotecas del estado y se genera un reporte.

TECNOLOGÍAS DE LOS SERVICIOS WEB

El día de hoy es posible implementar el ejemplo anterior. Un buen programador cuenta con todas las herramien-

tas para llevar a cabo dicha implementación. Lo único que necesita es una manera sistemática de acceder a cada uno de los Servicios Web de los diferentes proveedores de servicios (Google Maps, Amazon, UPS).

La necesidad de definir la información de manera de-tallada implica el uso de una serie de tecnologías para sa-tisfacer dicha necesidad. Se requiere una manera estándar de realizar cada una de las siguientes actividades:

- Transporte de mensajes- Definición de mensajes- Descripción de servicios web

TRANSPORTE DE MENSAJES

El transporte de mensajes utilizados por los Servicios Web se realiza mediante el protocolo HTTP. Se utiliza dicho pro-

tocolo debido a que está ya bien establecido en la comuni-dad Internet. Está definido de manera pública por el docu-mento RFC--2616 de la Internet Engineering Task Force (IETF), disponible en http://www.ietf.org/rfc/rfc2616.txt, y existen múltiples implementaciones del mismo.

El protocolo HTTP fue creado pensando en el trans-

porte de páginas web (esencialmente, documentos

HTML) y es posible que no sea el protocolo idóneo para solicitar la ejecución remota de subrutinas; sin embargo, a falta de un protocolo específico cuya utilización haya sido ampliamente probada en Internet, se utiliza HTTP para transportar los mensajes intercambiados por los servicios web.

DEFINICIÓN DE MENSAJES

Debido a que un Servicio Web es independiente del siste-ma operativo y del lenguaje de programación, es necesa-rio establecer claramente la manera en que se solicita la ejecución remota de procedimientos. La manera natural en que se hace esto es utilizando XML (eXtensible Markup Language). XML es un lenguaje de uso general utilizado para lo que se conoce como markup. El siguiente segmen-to de código está escrito en XML:

Don José Natividad González González, padre del gobernador José Natividad González Parás, falleció el domingo 24 de febrero de 2008 a las

5:40 horas, a la edad de 94 años. El gobernador se encontraba en Washington, D. C,

en donde asistiría a la Reunión de Gobernadores Fron-terizos de México y Estados Unidos.

De acuerdo a una información emitida por el Depar-tamento de Comunicación Social del Gobierno de Nuevo León, don José Natividad murió por causas naturales. Le sobreviven sus hijos: José Natividad, Luis Francisco, Javier, Gerardo, Gustavo, María Cris-tina y Miriam González Parás, producto de su ma-trimonio con la señora María Cristina Parás Barocio.

Nacido en Rafael El Llano, Municipio de General Terán, González González se dedicó a negocios priva-dos, y estuvo al margen de la política. Los restos de González González fueron velados en la Iglesia María de los Ángeles, en la Colonia Valle de San Ángel; donde el lunes 25 de febrero, a las 16:00 horas, el cardenal Francisco Robles Ortega ofició misa de cuer-

po presente. La inhumación fue de carácter priva-do, y sólo asistieron los integrantes de la familia.

REUNIÓN DE WASHINGTON

La reunión en la que participaría González Parás se rea-lizaría en el hotel Four Seasons, de Washington, D.C., los días domingo 24 y lunes 25 de febrero. En el pri-

mer día de actividades, el mandatario nuevoleonés

sostendría reuniones con otros gobernadores y el

secretario del Tesoro y otros altos funcionarios del

gobierno de Washington donde se abordaría el tema

sobre Fondos para Proyectos de Cambio Climático.

Otras reuniones fueron programadas con el se-cretario de Seguridad Interna de los Estados Unidos, Michael Chertoff, y con Jeffrey Berman, director ejecu-tivo del National Strategy Information Center.

Durante esos dos días, los gobernadores mexi-canos y estadounidenses trataron temas de trascen-dencia en materia de desarrollo económico, medio ambiente, seguridad fronteriza y de logística y cruces fronterizos, así como el proyecto del puente ferrovia-rio en Colombia, Nuevo León

A la edad de 94 años

Fallece el papá del gobernador

Don José Natividad González González en la entrega de una ambulancia en el municipio de General Terán.

68y5.indd 1 26/02/2008 17:01:03

Page 7: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB4 69

A partir de su invención, a principios de los años 90 y hasta nuestros días, la World Wide Web, o Inter-net, ha sido utilizada principalmente para disemi-

nar información o acceder a ella mediante la publicación y recuperación de documentos, típicamente en formato HTML. Los principales usuarios de dicha información son personas, que acceden a ella mediante un navegador o al-gún reproductor de contenido. Esto es lo que comúnmente llamamos Web 1.0.

La Web 2.0 se refiere al acceso a información no sola-mente por las personas, sino también por las computa-doras, a fin de que dicha información sea procesada de manera automática. Los Servicios Web son una parte im-portante de esta nueva Web.

CONCEPTOS BÁSICOS

Un servicio web es esencialmente un servicio cuya interfaz de acceso está disponible en Internet. Los Servicios Web son construidos mediante el uso de tecnologías estándar de Internet. En otras palabras, si es posible acceder a un

servicio a través de Internet utilizando protocolos están-

dar, entonces dicho servicio es un servicio web.

Un servicio web es una interfaz ubicada entre un pro-grama o aplicación y el usuario final de dicho programa o aplicación. Funciona como una abstracción de la apli-cación, y hace posible que cualquier lenguaje de progra-mación tenga acceso a la funcionalidad provista por la aplicación.

Un servicio Web es independiente del sistema opera-tivo y del lenguaje de programación utilizado.

SERVICIOS WEB HASTA HOY

En la actualidad, los servicios web que encontramos comúnmente son sitios web. En dichos sitios, se accede a las aplicaciones mediante el protocolo estándar HTTP y se recupera información en el formato estándar HTML. Di-

chos servicios web nos permiten, por ejemplo, comprar li-bros o leer noticias. Debido a que tanto HTTP como HTML son protocolos estándar, cuyas definiciones son públicas, cualquier navegador permite a los usuarios acceder a los servicios web actuales. Tanto el lenguaje de programación utilizado para implementar el navegador, como el sistema operativo sobre el cual es ejecutado el navegador son irre-levantes desde el punto de vista del servicio web. Un nave-gador solamente tiene que poder solicitar información mediante HTTP y saber interpretar código HTML.

Los Servicios Web actuales están diseñados para

presentar la información directamente al usuario final. Esto permite una gran flexibilidad, ya que el ser humano es capaz de interpretar información en cualquier formato: con o sin indentación, a doble espacio, en columnas, con figuras intercaladas e inclusive con faltas ortográficas o gramaticales.

SERVICIOS WEB A PARTIR HOY

Utilizando el ejemplo de la compra de libros en línea, es fácil para un humano interpretar la interfaz de compra. De inmediato se ve dónde es necesario alimentar infor-mación y dónde hacer clic para que el libro sea enviado. La interfaz de acceso está diseñada para ser usada por seres humanos.

Si deseamos, en cambio, automatizar la compra de li-bros de una biblioteca, de manera que un programa busque la disponibilidad de ellos y consiga los mejores precios, entonces la interfaz anterior no le es muy útil a nuestro programa de compra de libros. Es necesario diseñar una

interfaz a la cual puedan acceder programas. Esto im-

plica necesariamente una estandarización mucho más

detallada de la información que se manipula.

Se hace necesario el acceso estandarizado a llamadas tales como: “Ejecuta esta subrutina con estos parámetros’’ y a respuestas del tipo: “Éstos son los resultados de la llamada a la subrutina’’.

EJEMPLO DE SERVICIOS WEB

A continuación presentamos un ejemplo de lo que es po-sible lograr mediante Servicios Web.La biblioteca municipal de Monterrey está permanente-mente conectada a Internet.

Un usuario pregunta si existe el libro El laberinto de la soledad. El libro no existe en la biblioteca, pero es la cuarta vez en la semana que alguien lo solicita.

La biblioteca realiza automáticamente una búsqueda en Internet y descubre que el libro puede ser adquirido en http://www.amazon.com. La biblioteca realiza la compra y recibe un número de guía UPS, mediante el cual puede rastrear el paquete enviado.

El usuario recibe un mensaje en el que se le indica

que el libro no está actualmente en existencia, pero que

llegará dentro de tres días.

Al día siguiente, el usuario pregunta dónde esta el li-bro. El sistema consulta el servicio de rastreo de UPS, que le indica que el paquete está en tránsito en un pequeño pueblo de Estados Unidos. El sistema accede a los servicios de Google Maps, ubica el pueblo en un mapa y presenta di-

Qué ofrecen losServicios Web

Doctor Arturo Galván Rodríguez

Profesor InvestigadorCentro de SistemasInteligentes / [email protected]

Arturo Galván Rodríguez

Niña con flores amarillas, en la Pinacoteca Nuevo León

La obra de Rufino Tamayo “Niña con flores amarillas”,

realizada en 1946, cuando el artista oaxaqueño estaba en la plenitud de su carrera, es presentada en la sala de recepción de la Pinacoteca de Nuevo León, desde el 6 de febrero de 2008, en la recién instituida “Sala de Invitados”.

La señora Elvira Lozano de Todd, directora del recinto ubicado en el Colegio Civil, Centro Cultural Universitario, informó que a partir de la institución de este proyecto, en sustitución de la pieza del mes, se podrán exponer obras “universales”, durante uno o dos meses, de colecciones privadas, galeristas e incluso de otras pinacotecas estatales.

En esta ocasión, la Sala de Invitados alberga la obra del maestro Rufino Tamayo, prestada por el coleccionista y promotor cultural Mauricio Fernández Garza, quien apa-drinó este proyecto, apoyando la exhibición de “Niña con flores amarillas”, en la entrada de la Pinacoteca.

PROMOCIÓN Y DIFUSIÓN

Lozano de Todd reiteró que la vocación de la Pinacoteca de Nuevo León es promover y difundir la obra plástica de los artistas nuevoleoneses, pero que existe la apertura para presentar la obra de artistas que no sean del Estado, para que como distinguidos huéspedes puedan recibir la atención y admiración de los visitantes del recinto.

La funcionaria hizo una semblanza del artista oax-aqueño y mencionó que, previamente, el patrimonio cul-tural de Monterrey se ha enriquecido con grandes obras del creador: el vitral “El Universo”, del centro Cultural Alfa, y la escultura urbana “Homenaje al sol”.

La presentación de “Niña con flores amarillas” fue in-tegrada a un espacio que destaca con la museografía de Elisa Téllez, la cual es apoyada con un texto que investigó José Doria.

Los paisajistas locales han capturado la magia y color de las montañas que rodean

a Monterrey, el colorido de la flora vernácula y el agreste escenario que en ocasiones se percibe en algunos rinco-nes del Estado. Con estas imágenes han llenado sus lienzos y los han deja-do como mudos testigos de un cambio que pocos perciben.

Con una visible preocupación por el deterioro ambiental el arquitecto-acuarelista Héctor Cantú Ojeda hizo un llamado para tomar conciencia de lo erosionado de la flora local en la ac-tualidad.

“Se va acabando”, puntualizó el artista participante de la muestra “Paisaje” que estará abierta al público a partir del 5 de marzo en las salas de la Pinacoteca. Consideró que ya no existe respeto por preservar el paisaje y la naturaleza, como lo evidencian el uso y explotación que sufren los ce-rros y otras zonas representativas de Monterrey, como La Huasteca. Ante el evidente cambio del paisaje urbano, el artista hizo un llamado a la conserva-ción de la naturaleza, principalmente al entorno local, del cual dijo que tiene un colorido único. “Cuando a un ceni-zo le cae el agua cambia de color, y así toda la vegetación, pero eso es algo que ya nadie observa”, dijo.

Cantú Ojeda y Saskia Juárez estu-vieron presentes en la rueda de prensa donde se informó de esta exhibición de la selección de piezas con el tema

del “Paisaje”, que se presentará a par-tir del 5 de marzo en la Pinacoteca de Nuevo León.

Este tema, que ha sido manejado por los creadores nuevoleoneses en diversos estilos y épocas, se desple-gará hasta el mes de agosto, con la exhibición de 28 obras de 18 artistas; entre ellos Carmen Cortés, maestra fundadora del Taller de Artes Plásti-cas de la Universidad Autónoma de Nuevo León, hasta representantes de las generaciones más jóvenes, como Israel Mercado.

Presentarán selección

de obras escultóricas

La producción escultórica nuevoleone-sa tiene distintos matices, como ha-llazgos de los propios artistas de dife-rentes generaciones; así, el espectador puede observar los diversos materia-les utilizados en estas obras.

A partir del 6 de marzo, la Pina-coteca de Nuevo León presentará una selección de obras escultóricas de di-versos estilos y técnicas, con obras de Fidias Elizondo y Federico Cantú, así como de artistas contemporáneas, tales como Elisa Pasquel, Mauricio Cortés, Cuauhtémoc Zamudio, Enrique Canales, Gerardo Azcúnaga, Hilda San Vicente, Javier Zarazúa, J.L. Morales (SERALOM) y Raúl de la Rosa, entre otros.

La Pinacoteca de Nuevo León está ubicada en el Colegio Civil Centro Uni-versitario, en Juárez y Washington.

Capturan paisajistas locales magia y color de nuestras montañas

“El vallecito”, Saskia Juárez

4y69.indd 1 26/02/2008 17:00:41

68 CONOCIMIENTO TECNOLOGÍAS WEB 5

cho mapa al usuario, incluida información de distancia al destino y tiempo de entrega.

El responsable estatal de las bibliotecas de Nuevo León solicita información acerca del número de libros en exis-tencia. Se solicita automáticamente dicha información a todas las bibliotecas del estado y se genera un reporte.

TECNOLOGÍAS DE LOS SERVICIOS WEB

El día de hoy es posible implementar el ejemplo anterior. Un buen programador cuenta con todas las herramien-

tas para llevar a cabo dicha implementación. Lo único que necesita es una manera sistemática de acceder a cada uno de los Servicios Web de los diferentes proveedores de servicios (Google Maps, Amazon, UPS).

La necesidad de definir la información de manera de-tallada implica el uso de una serie de tecnologías para sa-tisfacer dicha necesidad. Se requiere una manera estándar de realizar cada una de las siguientes actividades:

- Transporte de mensajes- Definición de mensajes- Descripción de servicios web

TRANSPORTE DE MENSAJES

El transporte de mensajes utilizados por los Servicios Web se realiza mediante el protocolo HTTP. Se utiliza dicho pro-

tocolo debido a que está ya bien establecido en la comuni-dad Internet. Está definido de manera pública por el docu-mento RFC--2616 de la Internet Engineering Task Force (IETF), disponible en http://www.ietf.org/rfc/rfc2616.txt, y existen múltiples implementaciones del mismo.

El protocolo HTTP fue creado pensando en el trans-

porte de páginas web (esencialmente, documentos

HTML) y es posible que no sea el protocolo idóneo para solicitar la ejecución remota de subrutinas; sin embargo, a falta de un protocolo específico cuya utilización haya sido ampliamente probada en Internet, se utiliza HTTP para transportar los mensajes intercambiados por los servicios web.

DEFINICIÓN DE MENSAJES

Debido a que un Servicio Web es independiente del siste-ma operativo y del lenguaje de programación, es necesa-rio establecer claramente la manera en que se solicita la ejecución remota de procedimientos. La manera natural en que se hace esto es utilizando XML (eXtensible Markup Language). XML es un lenguaje de uso general utilizado para lo que se conoce como markup. El siguiente segmen-to de código está escrito en XML:

Don José Natividad González González, padre del gobernador José Natividad González Parás, falleció el domingo 24 de febrero de 2008 a las

5:40 horas, a la edad de 94 años. El gobernador se encontraba en Washington, D. C,

en donde asistiría a la Reunión de Gobernadores Fron-terizos de México y Estados Unidos.

De acuerdo a una información emitida por el Depar-tamento de Comunicación Social del Gobierno de Nuevo León, don José Natividad murió por causas naturales. Le sobreviven sus hijos: José Natividad, Luis Francisco, Javier, Gerardo, Gustavo, María Cris-tina y Miriam González Parás, producto de su ma-trimonio con la señora María Cristina Parás Barocio.

Nacido en Rafael El Llano, Municipio de General Terán, González González se dedicó a negocios priva-dos, y estuvo al margen de la política. Los restos de González González fueron velados en la Iglesia María de los Ángeles, en la Colonia Valle de San Ángel; donde el lunes 25 de febrero, a las 16:00 horas, el cardenal Francisco Robles Ortega ofició misa de cuer-

po presente. La inhumación fue de carácter priva-do, y sólo asistieron los integrantes de la familia.

REUNIÓN DE WASHINGTON

La reunión en la que participaría González Parás se rea-lizaría en el hotel Four Seasons, de Washington, D.C., los días domingo 24 y lunes 25 de febrero. En el pri-

mer día de actividades, el mandatario nuevoleonés

sostendría reuniones con otros gobernadores y el

secretario del Tesoro y otros altos funcionarios del

gobierno de Washington donde se abordaría el tema

sobre Fondos para Proyectos de Cambio Climático.

Otras reuniones fueron programadas con el se-cretario de Seguridad Interna de los Estados Unidos, Michael Chertoff, y con Jeffrey Berman, director ejecu-tivo del National Strategy Information Center.

Durante esos dos días, los gobernadores mexi-canos y estadounidenses trataron temas de trascen-dencia en materia de desarrollo económico, medio ambiente, seguridad fronteriza y de logística y cruces fronterizos, así como el proyecto del puente ferrovia-rio en Colombia, Nuevo León

A la edad de 94 años

Fallece el papá del gobernador

Don José Natividad González González en la entrega de una ambulancia en el municipio de General Terán.

68y5.indd 1 26/02/2008 17:01:03

Page 8: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB6 67

<?xml version=”1.0”>

<persona>

<nombre> Juan </nombre>

<apellido tipo=”paterno”> Martínez </apellido>

<apellido tipo=”materno> Pérez </apellido>

<telefono tipo=”casa”> (123) 456-7890 </telefono>

<telefono tipo=”oficina”> (123) 789-0123 </tele-

fono>

</persona>

La interpretación del código es bastante obvia para los seres humanos, y es lo suficientemente estructurada para

poder ser procesada por un programa computacional. Las etiquetas nombre’’, “apellido’’, “teléfono’’, etcétera, cuen-tan con una interpretación (intuitiva para nosotros) que debe ser definida en lo que se llama un “namespace’’.

La definición de los mensajes utilizados por los Ser-vicios Web tiene una implementación específica de XML llamada SOAP, una aplicación de la especificación de XML que establece significados especiales a las etiquetas uti-lizadas.

La World Wide Web Consortium (W3C) es la encargada de mantener la especificación del protocolo SOAP. Es posi-ble consultar dicha especificación en http://www.w3.org/TR/soap12

DESCRIPCIÓN DE SERVICIOS WEB

La descripción estandarizada de servicios web facilita muchísimo el desarrollo de aplicaciones que accedan a di-chos servicios. Dicha descripción se realiza mediante Web Services Description Language (WSDL). La definición de WSDL es pública y está disponible en http://www.w3.org/TR/wsdl.

WSDL permite la generación automática del código ca-paz de acceder al servicio web en cuestion. WSDL define:

- Las subrutinas accesibles mediante el servicio

Web.

- Los parámetros que reciben las subrutinas.

- Los valores que regresan las subrutinas.

- La manera de acceder al servicio web (por ejemplo,

HTTP)

- La dirección (url) en la cual está disponible el Ser-

vicio Web.

CONCLUSIÓN

Hemos presentado las tecnologías que se utilizan actual-mente para integrar Servicios Web. Es necesario que los desarrolladores se apeguen estrictamente a los estándares establecidos, a fin de que todos podamos acceder a los Web que provean. La impresionante explosión de Internet se debió a que todos podían implementar servidores HTTP y aplicaciones cliente capaces de interpretar HTML y pre-sentarlos a los usuarios.

Antes de la explosión de las computadoras personales, cada fabricante producía equipos que funcionaban única-mente con equipos del mismo fabricante. La computa-

dora personal hizo posible que las tarjetas producidas

por cualquier fabricante pudieran ser conectadas a las

computadoras de cualquier otro fabricante gracias a es-

tándares tales como ISA o PCI.

Asimismo, antes de la explosión de Internet, cada fa-bricante de equipos de red producía equipos que funcio-naban únicamente con equipos de red del mismo fabri-cante. Estándares tales como Ethernet y TCP/IP hicieron posible que cualquier aplicación transmitiera información a cualquier otra aplicación, lo cual hizo posible lo que hoy conocemos como Internet. Todos los Servicios Web pue-den interactuar entre sí únicamente si se apegan a es-tándares públicos. El ejemplo que se mencionó es posible debido a que todos los agentes involucrados respetan los estándares de WSDL, SOAP y HTTP.

El World Wide Web Consortium Abreviado W3C, es un consorcio internacional que produce estándares para la World Wide Web. Está dirigida por Tim Berners-Lee, el creador original de URL (Uniform Resource Locator, Localizador Uniforme de Recursos), HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de HiperTexto) y HTML (Lenguaje de Marcado de HiperTexto) que son las principales tecnologías sobre las que se basa la Web.Creada el 1 de octubre de 1994 por Tim Berners-Lee en el MIT, actual sede central del consorcio. Uniéndose posteriormente en abril de 1995 INRIA en Francia, reemplazado por el ERCIM en el 2003 como el huésped europeo del consorcio y Universidad de Keio (Shonan Fujisawa Campus) en Japón en septiembre de 1996 como huésped asiatico. Estos organismos administran el consorcio, el cual está integrado por:

* Miembros del W3C. A octubre de 2007 contaba con 435 miembros (lista completa) * Equipo W3C (W3C Team) 65 investigadores y expertos de todo el mundo (Directorio) * Oficinas W3C (W3C Offices). Centros regionales establecidos en Alemania y Austria (oficina conjunta), Australia, Benelux (oficina conjunta), China, Corea del Sur, España, Finlandia, Grecia, Hong Kong, Hungría, India, Israel, Italia, Marruecos, Suecia y Reino Unido e Irlanda (oficina conjunta) (Oficinas W3C)

Felicita el ITESM a IMPLAN San PedroPor su proyecto Caminar es posible

6y67.indd 1 26/02/2008 17:01:26

66 CONOCIMIENTO TECNOLOGÍAS WEB 7

Tal y como lo predijo Peter Drucker en 1969, en su libro The Age of Discontinuity, la economía glo-bal ha sufrido un gran cambio, pues la riqueza

y ventajas competitivas ya no giran en torno a los recursos naturales ni a la capacidad productiva convencional. En

este nuevo entorno, cada vez cobra más valor el cono-

cimiento como activo generador de riqueza; conceptos como productividad y calidad están siendo sobrepasados por otros como innovación y conocimiento, y dan lugar a “nuevos” conceptos como sociedad del conocimiento y economía del conocimiento. (Aunque el concepto de economía del conocimiento ya lo maneja Drucker en el li-bro citado, no considera el papel tan relevante que iba a jugar la tecnología como facilitador).

Llegó la era de la información y la consolidación de la internet, pero muy pronto se vio rebasada por la enorme cantidad de datos que había que procesar. Además de esto, la información vertida en el medio está dispersa y poco es-tructurada, y en muchos casos es de dudosa procedencia.

Importancia de la Web 2.0 en la Sociedad del Conocimiento

Ingeniero Roberto Ivon DibildoxDirector de Tecnología / [email protected]

Roberto Ivon Dibildox

A pesar de esto, se reconoce el enorme potencial que

tiene la internet como repositorio; es decir, un medio de

publicación, con las limitantes estáticas de otros medios

convencionales. ¿Éste es el medio idóneo del que se va a valer la sociedad del conocimiento para su desarrollo?

DESARROLLO

DE CONOCIMIENTO

Es un hecho que la capacidad individual para el desarrollo de conocimiento cada vez es más difícil; en parte, dada la gran cantidad de información acumulada que el individuo tiene que procesar. Además, hay que mencionar que los costos para procesar esta cantidad de información cada vez vuelven más inviable el mismo. Dan Tapscott, autor del libro Wikinomics: How Mass Collaboration Changes Eve-rything, nos muestra un ejemplo de cómo una compañía minera, a punto de cerrar operaciones por agotamiento de sus reservas, comparte información privilegiada a la comunidad en la búsqueda de nuevas minas, y cómo esta

En el recién inaugurado campus urbano de la Uni-versidad Regiomontana se llevará a cabo la capaci-tación y desarrollo de talento en Tecnologías de la

Información, programa del Gobierno del Estado en el que participan conjuntamente el Tecnológico de Monterrey, el Tec Milenio, la Universidad Autónoma de Nuevo León y la Universidad de Monterrey.

Este programa, integrado con el apoyo del gobierno es-tatal, federal, universidades y empresarios, funciona den-tro del Instituto de Desarrollo de Talento en Tecnologías de la Información, de reciente creación en Nuevo León,

Capacitará la UR a Talentosen Tecnologías de la Información

señaló el ingeniero Noé Salinas Brondo, director de las ca-rreras de Tecnologías de Información de la UR.

Explicó que, actualmente, un equipo integrado por diez especialistas de las universidades mencionadas di-seña el plan de estudios que se implementará a partir de junio o julio, con el fin de capacitar en la primera etapa a 100 de los 500 ingenieros que requiere la empresa india Infosys, para su funcionamiento en Nuevo León, después de un convenio celebrado con el gobernador José Nativi-dad González Parás.

“Se pretende dar una beca de seis meses para capaci-tar a jóvenes con grado de ingeniero para que cubran los puestos que en este caso requiere la empresa Infosys”, mencionó.

DESARROLLO DE TALENTO HUMANO

Salinas Brondo puntualizó que la delegación del Estado de Nuevo León que fue a la India para conocer un cen-tro de tecnología educativa, vio de cerca las bondades del modelo desarrollado en el sector tecnológico en ese país, principalmente en Mysore, donde está el campus en que la empresa Infosys desarrolla su talento humano.

“Se pretende contratar a cualquier ingeniero; la meta es prepararlo y en este caso se ofrece un plan de conver-sión para capacitar a egresados de cualquier ingeniería en Tecnologías de la Información”, dijo.

El funcionario de la UR comentó que ésta es una opor-tunidad para personas que por algún motivo no han po-dido ejercer sus profesiones de ingeniero y se dedican a otros menesteres para salir adelante.

“Este programa para generar capital intelectual a través de la capacitación, está tomado de esta experiencia que fuimos a conocer a la India”, mencionó Salinas Brondo.

Explicó que en un período de 14 semanas, los partici-pantes podrán ser incorporados al mercado laboral de las Tecnologías de la Información.

Recordó que el pasado mees de enero, para analizar esta experiencia e implementarla en el Estado, la comitiva encabezada por el gobernador, directivos de la Universi-dad Regiomontana, del Tecnológico de Monterrey, de la Universidad Autónoma de Nuevo León, y de la UDEM, así como empresarios emprendieron este viaje a Mysore y a Bangalore, el corazón del sector de servicios informáticos de ese país.

“La meta con este programa es que en Nuevo León, para 2014, haya 20 mil empleos en el rubro de la industria del software”, puntualizó Salinas Brondo.

Mencionó que es impresionante el desarrollo que la India ha tenido en los últimos años, gracias a progra-mas como el que ha desarrollado Infosys en la población hindú, lo que ha detonado la existencia de una incipiente clase media en ese país.

De Izq. A Derecha: Rogelio Granguillhome Embajador de México en la India, Noé Salinas Director de las carreras de TI Universidad Regiomontana, Natividad Gonzalez P. Gobernador del estado de N. L. Dr. Fernando Valles Maestro de la UR.

66y7.indd 1 26/02/2008 17:01:54

Page 9: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB6 67

<?xml version=”1.0”>

<persona>

<nombre> Juan </nombre>

<apellido tipo=”paterno”> Martínez </apellido>

<apellido tipo=”materno> Pérez </apellido>

<telefono tipo=”casa”> (123) 456-7890 </telefono>

<telefono tipo=”oficina”> (123) 789-0123 </tele-

fono>

</persona>

La interpretación del código es bastante obvia para los seres humanos, y es lo suficientemente estructurada para

poder ser procesada por un programa computacional. Las etiquetas nombre’’, “apellido’’, “teléfono’’, etcétera, cuen-tan con una interpretación (intuitiva para nosotros) que debe ser definida en lo que se llama un “namespace’’.

La definición de los mensajes utilizados por los Ser-vicios Web tiene una implementación específica de XML llamada SOAP, una aplicación de la especificación de XML que establece significados especiales a las etiquetas uti-lizadas.

La World Wide Web Consortium (W3C) es la encargada de mantener la especificación del protocolo SOAP. Es posi-ble consultar dicha especificación en http://www.w3.org/TR/soap12

DESCRIPCIÓN DE SERVICIOS WEB

La descripción estandarizada de servicios web facilita muchísimo el desarrollo de aplicaciones que accedan a di-chos servicios. Dicha descripción se realiza mediante Web Services Description Language (WSDL). La definición de WSDL es pública y está disponible en http://www.w3.org/TR/wsdl.

WSDL permite la generación automática del código ca-paz de acceder al servicio web en cuestion. WSDL define:

- Las subrutinas accesibles mediante el servicio

Web.

- Los parámetros que reciben las subrutinas.

- Los valores que regresan las subrutinas.

- La manera de acceder al servicio web (por ejemplo,

HTTP)

- La dirección (url) en la cual está disponible el Ser-

vicio Web.

CONCLUSIÓN

Hemos presentado las tecnologías que se utilizan actual-mente para integrar Servicios Web. Es necesario que los desarrolladores se apeguen estrictamente a los estándares establecidos, a fin de que todos podamos acceder a los Web que provean. La impresionante explosión de Internet se debió a que todos podían implementar servidores HTTP y aplicaciones cliente capaces de interpretar HTML y pre-sentarlos a los usuarios.

Antes de la explosión de las computadoras personales, cada fabricante producía equipos que funcionaban única-mente con equipos del mismo fabricante. La computa-

dora personal hizo posible que las tarjetas producidas

por cualquier fabricante pudieran ser conectadas a las

computadoras de cualquier otro fabricante gracias a es-

tándares tales como ISA o PCI.

Asimismo, antes de la explosión de Internet, cada fa-bricante de equipos de red producía equipos que funcio-naban únicamente con equipos de red del mismo fabri-cante. Estándares tales como Ethernet y TCP/IP hicieron posible que cualquier aplicación transmitiera información a cualquier otra aplicación, lo cual hizo posible lo que hoy conocemos como Internet. Todos los Servicios Web pue-den interactuar entre sí únicamente si se apegan a es-tándares públicos. El ejemplo que se mencionó es posible debido a que todos los agentes involucrados respetan los estándares de WSDL, SOAP y HTTP.

El World Wide Web Consortium Abreviado W3C, es un consorcio internacional que produce estándares para la World Wide Web. Está dirigida por Tim Berners-Lee, el creador original de URL (Uniform Resource Locator, Localizador Uniforme de Recursos), HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de HiperTexto) y HTML (Lenguaje de Marcado de HiperTexto) que son las principales tecnologías sobre las que se basa la Web.Creada el 1 de octubre de 1994 por Tim Berners-Lee en el MIT, actual sede central del consorcio. Uniéndose posteriormente en abril de 1995 INRIA en Francia, reemplazado por el ERCIM en el 2003 como el huésped europeo del consorcio y Universidad de Keio (Shonan Fujisawa Campus) en Japón en septiembre de 1996 como huésped asiatico. Estos organismos administran el consorcio, el cual está integrado por:

* Miembros del W3C. A octubre de 2007 contaba con 435 miembros (lista completa) * Equipo W3C (W3C Team) 65 investigadores y expertos de todo el mundo (Directorio) * Oficinas W3C (W3C Offices). Centros regionales establecidos en Alemania y Austria (oficina conjunta), Australia, Benelux (oficina conjunta), China, Corea del Sur, España, Finlandia, Grecia, Hong Kong, Hungría, India, Israel, Italia, Marruecos, Suecia y Reino Unido e Irlanda (oficina conjunta) (Oficinas W3C)

Felicita el ITESM a IMPLAN San PedroPor su proyecto Caminar es posible

6y67.indd 1 26/02/2008 17:01:26

66 CONOCIMIENTO TECNOLOGÍAS WEB 7

Tal y como lo predijo Peter Drucker en 1969, en su libro The Age of Discontinuity, la economía glo-bal ha sufrido un gran cambio, pues la riqueza

y ventajas competitivas ya no giran en torno a los recursos naturales ni a la capacidad productiva convencional. En

este nuevo entorno, cada vez cobra más valor el cono-

cimiento como activo generador de riqueza; conceptos como productividad y calidad están siendo sobrepasados por otros como innovación y conocimiento, y dan lugar a “nuevos” conceptos como sociedad del conocimiento y economía del conocimiento. (Aunque el concepto de economía del conocimiento ya lo maneja Drucker en el li-bro citado, no considera el papel tan relevante que iba a jugar la tecnología como facilitador).

Llegó la era de la información y la consolidación de la internet, pero muy pronto se vio rebasada por la enorme cantidad de datos que había que procesar. Además de esto, la información vertida en el medio está dispersa y poco es-tructurada, y en muchos casos es de dudosa procedencia.

Importancia de la Web 2.0 en la Sociedad del Conocimiento

Ingeniero Roberto Ivon DibildoxDirector de Tecnología / [email protected]

Roberto Ivon Dibildox

A pesar de esto, se reconoce el enorme potencial que

tiene la internet como repositorio; es decir, un medio de

publicación, con las limitantes estáticas de otros medios

convencionales. ¿Éste es el medio idóneo del que se va a valer la sociedad del conocimiento para su desarrollo?

DESARROLLO

DE CONOCIMIENTO

Es un hecho que la capacidad individual para el desarrollo de conocimiento cada vez es más difícil; en parte, dada la gran cantidad de información acumulada que el individuo tiene que procesar. Además, hay que mencionar que los costos para procesar esta cantidad de información cada vez vuelven más inviable el mismo. Dan Tapscott, autor del libro Wikinomics: How Mass Collaboration Changes Eve-rything, nos muestra un ejemplo de cómo una compañía minera, a punto de cerrar operaciones por agotamiento de sus reservas, comparte información privilegiada a la comunidad en la búsqueda de nuevas minas, y cómo esta

En el recién inaugurado campus urbano de la Uni-versidad Regiomontana se llevará a cabo la capaci-tación y desarrollo de talento en Tecnologías de la

Información, programa del Gobierno del Estado en el que participan conjuntamente el Tecnológico de Monterrey, el Tec Milenio, la Universidad Autónoma de Nuevo León y la Universidad de Monterrey.

Este programa, integrado con el apoyo del gobierno es-tatal, federal, universidades y empresarios, funciona den-tro del Instituto de Desarrollo de Talento en Tecnologías de la Información, de reciente creación en Nuevo León,

Capacitará la UR a Talentosen Tecnologías de la Información

señaló el ingeniero Noé Salinas Brondo, director de las ca-rreras de Tecnologías de Información de la UR.

Explicó que, actualmente, un equipo integrado por diez especialistas de las universidades mencionadas di-seña el plan de estudios que se implementará a partir de junio o julio, con el fin de capacitar en la primera etapa a 100 de los 500 ingenieros que requiere la empresa india Infosys, para su funcionamiento en Nuevo León, después de un convenio celebrado con el gobernador José Nativi-dad González Parás.

“Se pretende dar una beca de seis meses para capaci-tar a jóvenes con grado de ingeniero para que cubran los puestos que en este caso requiere la empresa Infosys”, mencionó.

DESARROLLO DE TALENTO HUMANO

Salinas Brondo puntualizó que la delegación del Estado de Nuevo León que fue a la India para conocer un cen-tro de tecnología educativa, vio de cerca las bondades del modelo desarrollado en el sector tecnológico en ese país, principalmente en Mysore, donde está el campus en que la empresa Infosys desarrolla su talento humano.

“Se pretende contratar a cualquier ingeniero; la meta es prepararlo y en este caso se ofrece un plan de conver-sión para capacitar a egresados de cualquier ingeniería en Tecnologías de la Información”, dijo.

El funcionario de la UR comentó que ésta es una opor-tunidad para personas que por algún motivo no han po-dido ejercer sus profesiones de ingeniero y se dedican a otros menesteres para salir adelante.

“Este programa para generar capital intelectual a través de la capacitación, está tomado de esta experiencia que fuimos a conocer a la India”, mencionó Salinas Brondo.

Explicó que en un período de 14 semanas, los partici-pantes podrán ser incorporados al mercado laboral de las Tecnologías de la Información.

Recordó que el pasado mees de enero, para analizar esta experiencia e implementarla en el Estado, la comitiva encabezada por el gobernador, directivos de la Universi-dad Regiomontana, del Tecnológico de Monterrey, de la Universidad Autónoma de Nuevo León, y de la UDEM, así como empresarios emprendieron este viaje a Mysore y a Bangalore, el corazón del sector de servicios informáticos de ese país.

“La meta con este programa es que en Nuevo León, para 2014, haya 20 mil empleos en el rubro de la industria del software”, puntualizó Salinas Brondo.

Mencionó que es impresionante el desarrollo que la India ha tenido en los últimos años, gracias a progra-mas como el que ha desarrollado Infosys en la población hindú, lo que ha detonado la existencia de una incipiente clase media en ese país.

De Izq. A Derecha: Rogelio Granguillhome Embajador de México en la India, Noé Salinas Director de las carreras de TI Universidad Regiomontana, Natividad Gonzalez P. Gobernador del estado de N. L. Dr. Fernando Valles Maestro de la UR.

66y7.indd 1 26/02/2008 17:01:54

Page 10: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB8 65

acción de apertura no sólo rescató a la compañía de la quiebra, sino la volvió más próspera.

INICIOS

En el año 2004, durante un evento auspiciado por O’Reilly Media, el concepto de Web 2.0 adquirió notoriedad. En una sesión de lluvia de ideas, se preguntó cuál sería la evolu-ción de la actual internet (Web 1.0) y se produjo una serie de ideas que confluirían en los conceptos de interacción y colaboración. Algunas tecnologías que están dando vida a la Web 2.0 son:

- Páginas web interactivas- Blogs- Wikis- Folksonomy (red semántica)Éstas nos muestran cómo el concepto de la internet ha

cambiado desde sus inicios, cuando el enfoque se concen-traba en la publicación y navegación.

PÁGINAS WEB INTERACTIVAS

Originalmente, el diseño de páginas Web consistía en la publicación de texto cuyo formato era desplegado median-te código html, el cual ayudaba a dar legibilidad y acceso a la información contenida en una página de internet, con la adición del concepto de la hiperliga para darle dinamis-mo; sin embargo, el resultado final era una experiencia de navegación más bien estática. Con el surgimiento de nue-vas tecnologías de codificación como dhtml, Flash y AJAX, ahora es posible diseñar páginas web interactivas que pue-den no requerir un acceso a un servidor para actualizar su estado, lo que da como resultado una experiencia de uso más ágil y amigable, y facilita una oportuna retroalimen-tación hacia el usuario.

BLOGS

Las BLOGs son un tipo de servicio de internet que permite la publicación de bitácoras (de ahí su nombre, Binary LOG).

Éstas, a su vez, permiten a cualquier persona publicar un diario con el contenido que desee, en tanto que los visi-tantes pueden revisar las aportaciones y comentar sobre las mismas, de modo que es posible generar discusiones entre varios usuarios. Esta experiencia de participación e interacción es la que puede facilitar la creación de nuevo conocimiento, si se modera adecuadamente. El potencial de uso de esta herramienta en la nueva sociedad del cono-cimiento es enorme, pues permite la expresión de ideas, conceptos y vivencias, para impactar positivamente en la cultura y el desarrollo de la ciencia.

WIKIS

Quizá una de las tecnologías más prometedoras es el concepto de Wiki. Aunque es un concepto simple, su sim-pleza y flexibilidad le otorgan un gran potencial. Un Wiki es una evolución de la página convencional de internet, la cual distinguía a quien la publicaba (con derechos ex-clusivos de edición) de quienes la consultaban. Las wikis

permiten a cualquier usuario modificar el contenido

del sitio o agregar información, de tal manera que se

facilita el desarrollo de conocimiento comunitario. Cada apor-tación es registrada mediante una bitácora detallada de cambios (de tal manera que cualquier cambio se pue-de revertir si es necesario), y cada aportación tiene asig-nada un área de discusión que sirve de base para docu-mentar los cambios o debatir sobre el contenido.

La utilidad práctica de esta herramienta ha sido con-trovertida, dado el aparente nulo control de las aportacio-nes en materia de calidad o autoridad editorial. El claro ejemplo en este debate son la Enciclopedia Británica y la Wikipedia, pues se contrasta el rigor editorial de la primera contra la apertura y flexibilidad de la segunda (lo que da lugar a fuertes debates como el ocurrido entre la revista científica Nature y Encyclopaedia Britannica Inc.). Por otro lado, el resultado de la apertura editorial de Wikipedia ha resultado en un repositorio de contenido de más de dos millones de artículos (aproximadamente 20 veces más que la Enciclopedia Británica).

FOLKSONOMY

El concepto de folksonomía (etiquetado colaborativo, cla-sificación social) trata de la capacidad de los usua-rios de una fuente de información de agregar etiquetas a par-tes específicas del contenido, de tal manera que se crea una clasificación del mismo que ayuda a los motores de búsqueda a organizar y encontrar información de manera más pertinente. Lo interesante del proceso de “etiquetado”, que es realizado por seres humanos, es que se requiere un proceso de análisis y síntesis de la información para darle sentido a la etiqueta. Por supuesto, este proceso, si bien puede traer consigo una fuerte carga subjetiva que gener-aría ruido, tiene el potencial de agregar conocimiento, al cual se le pueden encontrar ángulos científicos, cultura-les y sociales. Ya en sí, este medio provee una riquísima fuente de información para realizar estudios antropológi-cos. Esta herramienta de etiquetado se puede encontrar en diversas aplicaciones como Flickr, del.icio.us y Furl, por mencionar algunos.

senten nuestro desarrollo”, dijo González Parás.En el primer día de la visita de la delegación de Nuevo León, el “gurú” de la industria tecnológica en India, que estableció la primera compañía de Tecnologías de Infor-mación (TI), Pawan Kumar, recibió “impresionado” a la delegación nuevoleonesa.

COLABORACIÓN INDIA-MÉXICO

Kumar mostró complacencia de que las empresas de TI de India puedan colaborar con México y contó a los visitantes mexicanos la experiencia de India: “El desa-rrollo del sec-tor en India se dio porque hubo una conciencia temprana en la importancia de la educación; la industria se asoció, y se logró que el Gobierno fuera más un facilitador que un controlador”, señaló.

Rangel Sostmann, a su vez, puntualizó que debe haber políticas diferenciadas entre las industrias con el afán de promover el crecimiento. Aseguró que en México hay el doble de ingenieros per cápita que en India en números relativos, ya que cada año se gradúan 70 mil ingenieros. “Tenemos el número, pero tenemos que prepararlos para que sean igualmente competitivos en este tipo de empre-sa”, insistió Rangel Sostman.

Durante este encuentro, Kumar explicó que exis-ten diferentes modelos de países con TI, pero insistió que India es única en cuanto a bajo costo y alta calidad. Desde su punto de vista, las empresas indias que se ins-talen en México van a necesitar a las mexicanas, cono-cimiento del lenguaje y recursos locales porque querrán servir al mercado local también. Ante Kumar, los empresa-rios mexicanos externaron sus inquietudes.

“Competir con las empresas grandes es muy difícil. Es-toy segura que México va a ser un gran jugador, pero hay que reconocer que va a haber un impacto y que tenemos que prepararnos”, puntualizó Blanca Treviño, presidenta de Softek, una de las empresas regiomontanas que más tecnología ha desarrollado.

COMPETENCIA POR LOS TALENTOS

Para Héctor González Rodríguez, presidente de la Aso-ciación Mexicana de Empresas de Tecnologías de Infor-mación (AETI), otro de los retos es que, con la llegada de empresas extranjeras, habrá más competencia por los ta-lentos.

La comitiva también se entrevistó en su segunda jor-nada de actividades con empresas líderes en Tecnología de la Información, como lo es Cognizant, una de las cinco compañías punteras de servicios de TI con sede en Estados Unidos, pero con el 80 por ciento de sus operaciones en India. El acelerado crecimiento de Cognizant durante 2007 fue reconocido por la revista Fortune que la listó entre las 100 de mayor crecimiento en el mundo por quinto año consecutivo. También, Business Week la reconoció como la sexta de las diez compañías de tecnología de más rápido crecimiento y la primera en servicios de TI.

En todas sus reuniones, Rangel Sostmann enfatizó sobre los motivos de su visita a India, sobre todo en lo que se refiere al porqué México no está tan fuerte-mente posicionado en el sector de TI como lo está India. El rector del Tec ofreció el servicio de Soft landing que ofrece el Sistema. El presidente de la empresa, R. Chandrasekaran, aseguró que la compañía, que en los últimos 18 meses ha du-plicado sus operaciones, actualmente cuenta con 58 mil empleados y continúa en pleno crecimiento e intentando expandirse globalmente.

Consideró que México es una buena opción para emprender negocios, de-bido a los beneficios que reporta la zona horaria, propicia para dar servicio al mercado de Estados Unidos y Latinoamérica.

Como otra de las ventajas, mencionó el talento de los recursos humanos, apuntalados desde luego por el número extraordinario de personas que hablan inglés como segunda lengua, aseguraron los directivos de esta empresa.

VALOR AGREGADO

De concretarse una alianza con esta empresa, se uniría a otras de este tipo, como Infosys, Wipro y Sasken, que ya están aquí y que fomentan la economía del cono-cimiento. Esta empresa se diferencia de la mayoría de sus competidores en que ofrece un alto valor agregado a sus productos.

En otro momento de la reunión entre el Tecnológico de Monterrey y Cog-nizant, ambas instituciones coincidieron en afirmar que la base principal de industria de la Tecnología de la Información es el talento, y que la educación continua es el punto clave para innovar. “Estamos convencidos que la Universi-dad debe jugar un papel importante para llevar al país hacia una economía del conocimiento y aumentar su competitividad”, afirmó.

También intercambiaron sus inquietudes en cuanto a la preparación de los nuevos empleados. En cuanto al reclutamiento de recursos humanos, Chan-drasekaran dijo que su empresa valora habilidades de comunicación, de trabajo en equipo y de aprendizaje constante. La tecnología se mantiene cambiando; por ello, la gente debe tener flexibilidad y adaptabilidad para mantenerse a la vanguardia. La comitiva también visitó los nuevos desarrollos de HP Labs India, uno de los siete centros globales de investigación y el Centro para el Desarrollo de la Computación Avanzada, donde se encuentra la supercomputadora que desarrollaron ingenieros indios en respuesta a la negación de Estados Unidos de venderles una a finales de la década de los 80.

En gira de trabajo por La India, el Gobernador del Estado, sostuvo reuniones con directivos de Sasken, Aricent e Infosys.

8y65.indd 1 26/02/2008 17:02:09

64 CONOCIMIENTO TECNOLOGÍAS WEB 9

Por otro lado, el desarrollo de nuevos lenguajes de

codificación de texto como XML, que también incluye el

concepto de etiquetado del texto, libera al contenido de

los sitios de los detalles de estilo y formato, y permite a

los robots de búsqueda analizar con mayor facilidad la

información, también facilitando el acceso del contenido desde diferentes medios (v.g. celulares).

CRÍTICAS A WEB 2.0

Por supuesto, este nuevo concepto no es ajeno a la crítica, dada su naturaleza abierta (no propietaria), aplicaciones con controles o moderación limitada, y el hecho de que sigue en proceso de consolidación. Las principales críticas son:

- No hay estándares - La tendencia de la industria a creer que la Web 2.0

no es más que blogs y wikis, hace ver al mismo nada más como un término de mercadotecnia.

- Contenidos informales, mal organizados y anárquicos.

CONCLUSIONES

En resumen, la Web 2.0 es resultado de la evolución del medio, en donde pasamos de sitios web estáticos con claras delimitaciones de quienes consultan y quienes son las fuentes de publicación (autoridad) a sitios donde se fomenta la participación de todos los usuarios, se da total libertad para el desarrollo de los contenidos, y se busca crear una fuente de conocimiento colectivo que rompa las capacidades individuales de desarrollo de nuevo cono-cimiento.

Mediante herramientas como BLOGs, wikis, y sitios de interacción social como foros de discusión, intercambio de imágenes, intercambio de videos (youtube) y de catego-rización de contenido (Furl) se busca potenciar la capaci-dad de los individuos para acceder a nuevo conocimiento, a la vez que aporta el propio. Este enfoque no está ajeno a críticas, dado que presenta algunas debilidades por la na-turaleza misma del concepto, la cual busca darle el poder de creación de conocimiento a la comunidad con aparente poco control. ¿Estará la sociedad a la altura del reto?

Iconos WEB 2.0

Peter Drucker

Peter Ferdinand Drucker (1909 – 2005) fue un autor

austríaco de literatura relacionada con el management

o gestión. Tras trabajar en la banca y como periodista,

se doctoró en Derecho Internacional en Alemania. El auge del

nazismo le forzó a emigrar a EE.UU. (1937), tras vivir 4 años en

Londres, donde se convirtió en profesor y escritor. Dio clases de

Management en la Universidad de Nueva York (1950-1971).

Su carrera como pensador del mundo de la empresa despegó

en 1943, cuando sus primeros escritos sobre política y sociedad le dieron acceso a

las entrañas de la General Motors, que se había convertido en una de las mayores

compañías del mundo del momento. Sus experiencias en Europa le dejaron

fascinado con el problema de la autoridad. Compartió dicha fascinación con

Donaldson Brown, la cabeza pensante tras los controles administrativos en General

Motors. El libro resultante de todo ello El Concepto de Corporación (un estudio

de General Motors), del que se derivaron muchos artículos y trabajos posteriores.

Gracias a él se popularizó la estructura multidivisional de GM.

Drucker se interesó por la creciente importancia de los empleados que

trabajaban con sus mentes más que con sus manos. Le intrigaba el hecho de que

determinados trabajadores que llegaban a saber más de ciertas materias que

sus propios superiores y colegas, aún teniendo que cooperar con otros en una

gran organización. Drucker analizó y explicó cómo dicho fenómeno desafiaba

la corriente de pensamiento tradicional de cómo deberían gestionarse las

organizaciones.

En 1969, Peter Drucker, en su libro más conocido “La era de la discontinuidad”,

escribió una sección sobre “la Sociedad del Conocimiento”, basándose en una serie

de datos y proyecciones económicas de Fritz Machlup (uno de los primeros autores

en acuñar la expresión “Sociedad de la Información”.

Con una inversión inicial de tres millones de dólares, inició operaciones aquí la empresa tecnológica Ari-cent donde, en una primera etapa, se emplearán 60

ingenieros, que podrían incrementarse a 500 en los próxi-mos cuatro años.

Éste y otros convenios empresariales fueron resultado del viaje que, a principios de año, realizó por Bangalore y Maysore, India, el gobernador José Natividad González Parás.

Durante su viaje, el gobernador visitó las empresas tecnológicas Wipro, Sasken y Aricent, y como resultado de ésta, destacaron los planes de atraer más empresas de este ramo, mientras que las universidades vislumbraron la adecuación de los planes de estudio para los nuevos requerimientos del mercado.

El gobernador González Parás participó en esta gira, acompañado del ingeniero José Antonio González, rec-tor de la UANL, y del doctor Rafael Rangel Sostmann, del ITESM, y aproximadamente 30 personas entre empresa-rios y funcionarios.

TECNOLOGÍAS DE LA INFORMACIÓN

El objetivo del recorrido fue que González Parás se en-trevistara con directivos de empresas líderes en el área de tecnologías de la información de ese país, y durante la cual también se anunciaron planes de expansión de las mismas en México, especialmente en el área metropolitana de Monterrey.

Destacó la intención de la empresa Wipro, la tercera compañía tecnológica más grande de India, de establecer en Monterrey un centro de desarrollo de soluciones de ing-eniería de productos aeroespaciales, defensa y satélites.

Por su parte, el gobernador señaló que durante su ad-ministración en Monte-rrey se establecerá un centro de investigación y desarrollo que apoyen el fun-cionamiento de los seis clusters que en áreas específicas se están in-tegrando en el estado, con el objeto de emigrar hacia la economía del conocimiento.

SOFTWARE PARA LA INDUSTRIA

DE LA COMUNICACIÓN

Entre los resultados positivos de esta gira destacó el esta-blecimiento de la empresa Aricent en Nuevo León, la cual desarrolla software para la industria de la comunicación. González Parás señaló que Aricent escogió el lugar co-

Con inversión inicial de tres millones de dólares

Inicia operaciones aquí la empresa India Aricent

rrecto, el momento correcto y la gente correcta, por lo que apoyará su estableci-miento en la localidad.

En una primera etapa, Aricent invirtió 2.5 millones de dólares para iniciar operaciones con 60 ingenieros, pero planea incrementarlos a 500 en los próxi-mos tres o cuatro años. La inversión inicial se incrementará a tres millones de dólares para este año 2008.

En estas visitas, se dijo que el Gobernador González Parás buscará trabajar para dar incentivos a empresas extranjeras que quieran establecerse en la enti-dad, con el fin de impulsar el desarrollo y la competitividad.

Para el titular del proyecto Monterrey Ciudad Internacional del Conocimien-to, Jaime Parada, el generar coo-peración entre la academia y la industria, así como con el apoyo del Gobierno, es el mejor camino que está tomando actual-mente Monterrey en la creación de los parques científicos y tecnológicos. “Eso es lo que hizo India y en diez años ha multiplicado sus empresas de industria tecnológica, biotecnología y aeronáutica”, afirmó.

ESTUDIAN MODELO INDIO

La delegación del Estado de Nuevo León que fue a la India vio de cerca las bon-dades del modelo desarrollado en el sector tecnológico en ese país. A pesar de que India es un país en desarrollo, el sector de tecnología tiene ganancias en el exterior por 30 mil millones de dólares, pero esperan duplicarlas para el año 2010.

Para analizar esta experiencia, la comitiva encabezada por el gobernador de Nuevo León, directivos del Tecnológico de Monterrey (que llegaron dos días antes), de la Universidad Autónoma de Nuevo León y empresarios emprendieron este viaje a Bangalore, el corazón del sector de servicios informáticos de ese país. En dos décadas, el Silicon Valley indio ha atraído a las principales empresas tecnológicas del mundo. Ahí ya no sólo se ofrecen servicios y productos, sino que se desarrolla e innova.

“Venimos con el fin de establecer una relación estratégica con la India en los sectores de Tecnologías de la Información y Biotecnología. Queremos que en Nuevo León, la academia, el sector empresarial y con el apoyo del Gobierno, se llegue a una economía donde la mente-factura y no sólo la manufactura repre-

Los Rectores de la UANL y del ITESM acompañan al gobernador del Estado, José Natividad González Páras, en su gira de trabajo por la India.

64y9.indd 1 26/02/2008 17:02:46

Page 11: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB8 65

acción de apertura no sólo rescató a la compañía de la quiebra, sino la volvió más próspera.

INICIOS

En el año 2004, durante un evento auspiciado por O’Reilly Media, el concepto de Web 2.0 adquirió notoriedad. En una sesión de lluvia de ideas, se preguntó cuál sería la evolu-ción de la actual internet (Web 1.0) y se produjo una serie de ideas que confluirían en los conceptos de interacción y colaboración. Algunas tecnologías que están dando vida a la Web 2.0 son:

- Páginas web interactivas- Blogs- Wikis- Folksonomy (red semántica)Éstas nos muestran cómo el concepto de la internet ha

cambiado desde sus inicios, cuando el enfoque se concen-traba en la publicación y navegación.

PÁGINAS WEB INTERACTIVAS

Originalmente, el diseño de páginas Web consistía en la publicación de texto cuyo formato era desplegado median-te código html, el cual ayudaba a dar legibilidad y acceso a la información contenida en una página de internet, con la adición del concepto de la hiperliga para darle dinamis-mo; sin embargo, el resultado final era una experiencia de navegación más bien estática. Con el surgimiento de nue-vas tecnologías de codificación como dhtml, Flash y AJAX, ahora es posible diseñar páginas web interactivas que pue-den no requerir un acceso a un servidor para actualizar su estado, lo que da como resultado una experiencia de uso más ágil y amigable, y facilita una oportuna retroalimen-tación hacia el usuario.

BLOGS

Las BLOGs son un tipo de servicio de internet que permite la publicación de bitácoras (de ahí su nombre, Binary LOG).

Éstas, a su vez, permiten a cualquier persona publicar un diario con el contenido que desee, en tanto que los visi-tantes pueden revisar las aportaciones y comentar sobre las mismas, de modo que es posible generar discusiones entre varios usuarios. Esta experiencia de participación e interacción es la que puede facilitar la creación de nuevo conocimiento, si se modera adecuadamente. El potencial de uso de esta herramienta en la nueva sociedad del cono-cimiento es enorme, pues permite la expresión de ideas, conceptos y vivencias, para impactar positivamente en la cultura y el desarrollo de la ciencia.

WIKIS

Quizá una de las tecnologías más prometedoras es el concepto de Wiki. Aunque es un concepto simple, su sim-pleza y flexibilidad le otorgan un gran potencial. Un Wiki es una evolución de la página convencional de internet, la cual distinguía a quien la publicaba (con derechos ex-clusivos de edición) de quienes la consultaban. Las wikis

permiten a cualquier usuario modificar el contenido

del sitio o agregar información, de tal manera que se

facilita el desarrollo de conocimiento comunitario. Cada apor-tación es registrada mediante una bitácora detallada de cambios (de tal manera que cualquier cambio se pue-de revertir si es necesario), y cada aportación tiene asig-nada un área de discusión que sirve de base para docu-mentar los cambios o debatir sobre el contenido.

La utilidad práctica de esta herramienta ha sido con-trovertida, dado el aparente nulo control de las aportacio-nes en materia de calidad o autoridad editorial. El claro ejemplo en este debate son la Enciclopedia Británica y la Wikipedia, pues se contrasta el rigor editorial de la primera contra la apertura y flexibilidad de la segunda (lo que da lugar a fuertes debates como el ocurrido entre la revista científica Nature y Encyclopaedia Britannica Inc.). Por otro lado, el resultado de la apertura editorial de Wikipedia ha resultado en un repositorio de contenido de más de dos millones de artículos (aproximadamente 20 veces más que la Enciclopedia Británica).

FOLKSONOMY

El concepto de folksonomía (etiquetado colaborativo, cla-sificación social) trata de la capacidad de los usua-rios de una fuente de información de agregar etiquetas a par-tes específicas del contenido, de tal manera que se crea una clasificación del mismo que ayuda a los motores de búsqueda a organizar y encontrar información de manera más pertinente. Lo interesante del proceso de “etiquetado”, que es realizado por seres humanos, es que se requiere un proceso de análisis y síntesis de la información para darle sentido a la etiqueta. Por supuesto, este proceso, si bien puede traer consigo una fuerte carga subjetiva que gener-aría ruido, tiene el potencial de agregar conocimiento, al cual se le pueden encontrar ángulos científicos, cultura-les y sociales. Ya en sí, este medio provee una riquísima fuente de información para realizar estudios antropológi-cos. Esta herramienta de etiquetado se puede encontrar en diversas aplicaciones como Flickr, del.icio.us y Furl, por mencionar algunos.

senten nuestro desarrollo”, dijo González Parás.En el primer día de la visita de la delegación de Nuevo León, el “gurú” de la industria tecnológica en India, que estableció la primera compañía de Tecnologías de Infor-mación (TI), Pawan Kumar, recibió “impresionado” a la delegación nuevoleonesa.

COLABORACIÓN INDIA-MÉXICO

Kumar mostró complacencia de que las empresas de TI de India puedan colaborar con México y contó a los visitantes mexicanos la experiencia de India: “El desa-rrollo del sec-tor en India se dio porque hubo una conciencia temprana en la importancia de la educación; la industria se asoció, y se logró que el Gobierno fuera más un facilitador que un controlador”, señaló.

Rangel Sostmann, a su vez, puntualizó que debe haber políticas diferenciadas entre las industrias con el afán de promover el crecimiento. Aseguró que en México hay el doble de ingenieros per cápita que en India en números relativos, ya que cada año se gradúan 70 mil ingenieros. “Tenemos el número, pero tenemos que prepararlos para que sean igualmente competitivos en este tipo de empre-sa”, insistió Rangel Sostman.

Durante este encuentro, Kumar explicó que exis-ten diferentes modelos de países con TI, pero insistió que India es única en cuanto a bajo costo y alta calidad. Desde su punto de vista, las empresas indias que se ins-talen en México van a necesitar a las mexicanas, cono-cimiento del lenguaje y recursos locales porque querrán servir al mercado local también. Ante Kumar, los empresa-rios mexicanos externaron sus inquietudes.

“Competir con las empresas grandes es muy difícil. Es-toy segura que México va a ser un gran jugador, pero hay que reconocer que va a haber un impacto y que tenemos que prepararnos”, puntualizó Blanca Treviño, presidenta de Softek, una de las empresas regiomontanas que más tecnología ha desarrollado.

COMPETENCIA POR LOS TALENTOS

Para Héctor González Rodríguez, presidente de la Aso-ciación Mexicana de Empresas de Tecnologías de Infor-mación (AETI), otro de los retos es que, con la llegada de empresas extranjeras, habrá más competencia por los ta-lentos.

La comitiva también se entrevistó en su segunda jor-nada de actividades con empresas líderes en Tecnología de la Información, como lo es Cognizant, una de las cinco compañías punteras de servicios de TI con sede en Estados Unidos, pero con el 80 por ciento de sus operaciones en India. El acelerado crecimiento de Cognizant durante 2007 fue reconocido por la revista Fortune que la listó entre las 100 de mayor crecimiento en el mundo por quinto año consecutivo. También, Business Week la reconoció como la sexta de las diez compañías de tecnología de más rápido crecimiento y la primera en servicios de TI.

En todas sus reuniones, Rangel Sostmann enfatizó sobre los motivos de su visita a India, sobre todo en lo que se refiere al porqué México no está tan fuerte-mente posicionado en el sector de TI como lo está India. El rector del Tec ofreció el servicio de Soft landing que ofrece el Sistema. El presidente de la empresa, R. Chandrasekaran, aseguró que la compañía, que en los últimos 18 meses ha du-plicado sus operaciones, actualmente cuenta con 58 mil empleados y continúa en pleno crecimiento e intentando expandirse globalmente.

Consideró que México es una buena opción para emprender negocios, de-bido a los beneficios que reporta la zona horaria, propicia para dar servicio al mercado de Estados Unidos y Latinoamérica.

Como otra de las ventajas, mencionó el talento de los recursos humanos, apuntalados desde luego por el número extraordinario de personas que hablan inglés como segunda lengua, aseguraron los directivos de esta empresa.

VALOR AGREGADO

De concretarse una alianza con esta empresa, se uniría a otras de este tipo, como Infosys, Wipro y Sasken, que ya están aquí y que fomentan la economía del cono-cimiento. Esta empresa se diferencia de la mayoría de sus competidores en que ofrece un alto valor agregado a sus productos.

En otro momento de la reunión entre el Tecnológico de Monterrey y Cog-nizant, ambas instituciones coincidieron en afirmar que la base principal de industria de la Tecnología de la Información es el talento, y que la educación continua es el punto clave para innovar. “Estamos convencidos que la Universi-dad debe jugar un papel importante para llevar al país hacia una economía del conocimiento y aumentar su competitividad”, afirmó.

También intercambiaron sus inquietudes en cuanto a la preparación de los nuevos empleados. En cuanto al reclutamiento de recursos humanos, Chan-drasekaran dijo que su empresa valora habilidades de comunicación, de trabajo en equipo y de aprendizaje constante. La tecnología se mantiene cambiando; por ello, la gente debe tener flexibilidad y adaptabilidad para mantenerse a la vanguardia. La comitiva también visitó los nuevos desarrollos de HP Labs India, uno de los siete centros globales de investigación y el Centro para el Desarrollo de la Computación Avanzada, donde se encuentra la supercomputadora que desarrollaron ingenieros indios en respuesta a la negación de Estados Unidos de venderles una a finales de la década de los 80.

En gira de trabajo por La India, el Gobernador del Estado, sostuvo reuniones con directivos de Sasken, Aricent e Infosys.

8y65.indd 1 26/02/2008 17:02:09

64 CONOCIMIENTO TECNOLOGÍAS WEB 9

Por otro lado, el desarrollo de nuevos lenguajes de

codificación de texto como XML, que también incluye el

concepto de etiquetado del texto, libera al contenido de

los sitios de los detalles de estilo y formato, y permite a

los robots de búsqueda analizar con mayor facilidad la

información, también facilitando el acceso del contenido desde diferentes medios (v.g. celulares).

CRÍTICAS A WEB 2.0

Por supuesto, este nuevo concepto no es ajeno a la crítica, dada su naturaleza abierta (no propietaria), aplicaciones con controles o moderación limitada, y el hecho de que sigue en proceso de consolidación. Las principales críticas son:

- No hay estándares - La tendencia de la industria a creer que la Web 2.0

no es más que blogs y wikis, hace ver al mismo nada más como un término de mercadotecnia.

- Contenidos informales, mal organizados y anárquicos.

CONCLUSIONES

En resumen, la Web 2.0 es resultado de la evolución del medio, en donde pasamos de sitios web estáticos con claras delimitaciones de quienes consultan y quienes son las fuentes de publicación (autoridad) a sitios donde se fomenta la participación de todos los usuarios, se da total libertad para el desarrollo de los contenidos, y se busca crear una fuente de conocimiento colectivo que rompa las capacidades individuales de desarrollo de nuevo cono-cimiento.

Mediante herramientas como BLOGs, wikis, y sitios de interacción social como foros de discusión, intercambio de imágenes, intercambio de videos (youtube) y de catego-rización de contenido (Furl) se busca potenciar la capaci-dad de los individuos para acceder a nuevo conocimiento, a la vez que aporta el propio. Este enfoque no está ajeno a críticas, dado que presenta algunas debilidades por la na-turaleza misma del concepto, la cual busca darle el poder de creación de conocimiento a la comunidad con aparente poco control. ¿Estará la sociedad a la altura del reto?

Iconos WEB 2.0

Peter Drucker

Peter Ferdinand Drucker (1909 – 2005) fue un autor

austríaco de literatura relacionada con el management

o gestión. Tras trabajar en la banca y como periodista,

se doctoró en Derecho Internacional en Alemania. El auge del

nazismo le forzó a emigrar a EE.UU. (1937), tras vivir 4 años en

Londres, donde se convirtió en profesor y escritor. Dio clases de

Management en la Universidad de Nueva York (1950-1971).

Su carrera como pensador del mundo de la empresa despegó

en 1943, cuando sus primeros escritos sobre política y sociedad le dieron acceso a

las entrañas de la General Motors, que se había convertido en una de las mayores

compañías del mundo del momento. Sus experiencias en Europa le dejaron

fascinado con el problema de la autoridad. Compartió dicha fascinación con

Donaldson Brown, la cabeza pensante tras los controles administrativos en General

Motors. El libro resultante de todo ello El Concepto de Corporación (un estudio

de General Motors), del que se derivaron muchos artículos y trabajos posteriores.

Gracias a él se popularizó la estructura multidivisional de GM.

Drucker se interesó por la creciente importancia de los empleados que

trabajaban con sus mentes más que con sus manos. Le intrigaba el hecho de que

determinados trabajadores que llegaban a saber más de ciertas materias que

sus propios superiores y colegas, aún teniendo que cooperar con otros en una

gran organización. Drucker analizó y explicó cómo dicho fenómeno desafiaba

la corriente de pensamiento tradicional de cómo deberían gestionarse las

organizaciones.

En 1969, Peter Drucker, en su libro más conocido “La era de la discontinuidad”,

escribió una sección sobre “la Sociedad del Conocimiento”, basándose en una serie

de datos y proyecciones económicas de Fritz Machlup (uno de los primeros autores

en acuñar la expresión “Sociedad de la Información”.

Con una inversión inicial de tres millones de dólares, inició operaciones aquí la empresa tecnológica Ari-cent donde, en una primera etapa, se emplearán 60

ingenieros, que podrían incrementarse a 500 en los próxi-mos cuatro años.

Éste y otros convenios empresariales fueron resultado del viaje que, a principios de año, realizó por Bangalore y Maysore, India, el gobernador José Natividad González Parás.

Durante su viaje, el gobernador visitó las empresas tecnológicas Wipro, Sasken y Aricent, y como resultado de ésta, destacaron los planes de atraer más empresas de este ramo, mientras que las universidades vislumbraron la adecuación de los planes de estudio para los nuevos requerimientos del mercado.

El gobernador González Parás participó en esta gira, acompañado del ingeniero José Antonio González, rec-tor de la UANL, y del doctor Rafael Rangel Sostmann, del ITESM, y aproximadamente 30 personas entre empresa-rios y funcionarios.

TECNOLOGÍAS DE LA INFORMACIÓN

El objetivo del recorrido fue que González Parás se en-trevistara con directivos de empresas líderes en el área de tecnologías de la información de ese país, y durante la cual también se anunciaron planes de expansión de las mismas en México, especialmente en el área metropolitana de Monterrey.

Destacó la intención de la empresa Wipro, la tercera compañía tecnológica más grande de India, de establecer en Monterrey un centro de desarrollo de soluciones de ing-eniería de productos aeroespaciales, defensa y satélites.

Por su parte, el gobernador señaló que durante su ad-ministración en Monte-rrey se establecerá un centro de investigación y desarrollo que apoyen el fun-cionamiento de los seis clusters que en áreas específicas se están in-tegrando en el estado, con el objeto de emigrar hacia la economía del conocimiento.

SOFTWARE PARA LA INDUSTRIA

DE LA COMUNICACIÓN

Entre los resultados positivos de esta gira destacó el esta-blecimiento de la empresa Aricent en Nuevo León, la cual desarrolla software para la industria de la comunicación. González Parás señaló que Aricent escogió el lugar co-

Con inversión inicial de tres millones de dólares

Inicia operaciones aquí la empresa India Aricent

rrecto, el momento correcto y la gente correcta, por lo que apoyará su estableci-miento en la localidad.

En una primera etapa, Aricent invirtió 2.5 millones de dólares para iniciar operaciones con 60 ingenieros, pero planea incrementarlos a 500 en los próxi-mos tres o cuatro años. La inversión inicial se incrementará a tres millones de dólares para este año 2008.

En estas visitas, se dijo que el Gobernador González Parás buscará trabajar para dar incentivos a empresas extranjeras que quieran establecerse en la enti-dad, con el fin de impulsar el desarrollo y la competitividad.

Para el titular del proyecto Monterrey Ciudad Internacional del Conocimien-to, Jaime Parada, el generar coo-peración entre la academia y la industria, así como con el apoyo del Gobierno, es el mejor camino que está tomando actual-mente Monterrey en la creación de los parques científicos y tecnológicos. “Eso es lo que hizo India y en diez años ha multiplicado sus empresas de industria tecnológica, biotecnología y aeronáutica”, afirmó.

ESTUDIAN MODELO INDIO

La delegación del Estado de Nuevo León que fue a la India vio de cerca las bon-dades del modelo desarrollado en el sector tecnológico en ese país. A pesar de que India es un país en desarrollo, el sector de tecnología tiene ganancias en el exterior por 30 mil millones de dólares, pero esperan duplicarlas para el año 2010.

Para analizar esta experiencia, la comitiva encabezada por el gobernador de Nuevo León, directivos del Tecnológico de Monterrey (que llegaron dos días antes), de la Universidad Autónoma de Nuevo León y empresarios emprendieron este viaje a Bangalore, el corazón del sector de servicios informáticos de ese país. En dos décadas, el Silicon Valley indio ha atraído a las principales empresas tecnológicas del mundo. Ahí ya no sólo se ofrecen servicios y productos, sino que se desarrolla e innova.

“Venimos con el fin de establecer una relación estratégica con la India en los sectores de Tecnologías de la Información y Biotecnología. Queremos que en Nuevo León, la academia, el sector empresarial y con el apoyo del Gobierno, se llegue a una economía donde la mente-factura y no sólo la manufactura repre-

Los Rectores de la UANL y del ITESM acompañan al gobernador del Estado, José Natividad González Páras, en su gira de trabajo por la India.

64y9.indd 1 26/02/2008 17:02:46

Page 12: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB10 CONOCIMIENTO TECNOLOGÍAS WEB 63

Hoy en día es muy común escuchar que la Web está cambiando en muchos aspectos. Se han desarro-llado nuevas herramientas y esquemas de colabo-

ración e intercambio que muestran que la Web ya no es sólo una cadena de páginas con información estática.

Los Blogs y Sitios Wikis han adquirido mucha fama por facilitar a los usuarios la publicación de cualquier tipo de información accesible para todo el mundo, sin grandes complicaciones y con diseños y estándares listos para la distribución. Los contenidos se desarrollan con RSS (Rea-lly Simple Syndication), que permite el uso de encabeza-dos, descripciones y ligas de forma estándar para que pueda ser leído por cualquier lector de RSS y facilita el modificarlos en cualquier momento.

Pero la nueva Web no sólo trae cambios en lo que se publica en línea, sino que esta evolución se refleja tam-

bién en los usuarios, que empiezan a cambiar su forma

de interactuar con todo lo que Web2.0 trae consigo. Esto implica que se ponga especial atención a ellos y a su forma de percibir la Web.

EXPERIENCIA DEL USUARIO. ¿QUÉ SIGNIFICA?

De acuerdo con el Grupo Nielsen Norman, la experiencia del usuario comprende todos los aspectos de la interac-ción del usuario final con la compañía, sus servicios y sus productos. La verdadera experiencia del usuario va más allá de dar a los clientes lo que quieren o simplemente proveer una lista de funcionalidades; requiere analizar to-das las emociones que pueden experimentar al interactuar

La experiencia del usuario en la Nueva Web

Ingeniera María Imelda González

BáezAsesor Tecnológico

EmpresarialSATE-FUMEC

[email protected]

María Imelda González Báez

con un portal Web. [2]. Para Jesse James Garrett, la ex-periencia del usuario significa tomar en cuenta todas las posibles acciones que un usuario tomaría para entender adecuadamente sus expectativas a lo largo del funciona-miento y la navegación de un proceso.

La experiencia de los usuarios hoy en día no es tan simple como sólo accesar a un sitio y obtener lo que se busca. Ahora lo que se tiene en cuenta es un conjunto de decisiones que implican desde cómo es la apariencia del sitio, cómo se comporta, qué funcionalidades tiene, qué presenta como información de acceso rápido y qué es lo que permite hacer en él. Todo esto y otra serie de facto-res, en la nueva Web, constituyen la verdadera experiencia para el usuario.

DISEÑAR, MEDIR, CONTROLAR Y

PROBAR LOS REQUERIMIENTOS

Como parte de todo lo que implica trabajar con la experien-cia del usuario dentro de un proyecto de desarrollo Web y la nueva generación, es necesario tener una metodología que nos permita diseñar, medir, controlar y probar los re-querimientos y aspectos que se tienen que evaluar para mejorar la experiencia del usuario y que se explicarán a continuación.

La metodología de Diseño Centrado en la Experiencia del Usuario, de acuerdo con Garrett, consta de cinco pla-nos [1] que contienen ciertos aspectos por considerar para mejorar la experiencia de la navegación en un sitio Web:

ESTRATEGIA

Necesidades de los usuarios: Forman parte del objetivo del Sitio; sin embargo, desde la perspectiva externa a quien lo está desarrollando, pues es hacia quién está dirigido. Esta información nos permitirá no sólo saber qué buscan, sino definir todo lo que realmente necesitan en el resto de la aplicación de esta metodología que sugiere Garrett.Objetivos del Sitio: Todo sitio debe tener su objetivo prin-cipal y una serie de objetivos secundarios que se encamin-en al primero para que todo el contexto lo esté apoyando y soportando. El fijarnos en los usuarios no nos debe hacer perder de vista para qué está el sitio, pues son las metas o fines que la organización o quien hace el sitio está bus-cando.

ALCANCE

Especificaciones funcionales: Su nombre nos indica que hay que detallar qué hace cada cosa y cómo lo hace. Requerimientos de contenido: ¿Qué es lo que realmente necesitan de información en el sitio nuestros usuarios? Es la pregunta clave. Si no sabemos responder con base en lo que investigamos, la información que ellos quieren tener en el sitio será para ellos algo aburrido y sin sentido. Su experiencia se traduce en que el sitio no les sirve para lo que lo buscaban.

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

mos ahora iniciando el futuro legado de la humanidad. Si no somos leales a la realidad, si no abordamos esta tarea con noble gozo, ninguna compensación rectificará nues-tros efectos. ¿Estaremos dispuestos a sustentar la heroica imagen de Carlota quien intencionalmente mantuvo la fe y sostuvo el honor?

Wilbur: Entonces escriban esto en sus telarañas, cuan-do aprendan: Esta puerta sagrada fue una vez la morada de Carlota. Ella era brillante, bella, y leal hasta el fin. Su memoria será atesorada para siempre.

Las hijas de Carlota: ¡Oh!, eso nos tomaría toda una vida.

Wilbur: Una vida. Eso es lo que tenemos.

Humilde: el mensaje final de CarlotaSi lo piensa, es una gran responsabilidad. ¡Cualquier cosa que escriba en Internet se volverá parte de la historia hu-mana registrada para siempre! Si consideramos que la historia global humana empezó hace unos pocos años, sí estamos posicionando los primeros cimientos sobre los cuales se construirá el resto de la historia humana, para siempre. ¿Con cuanto cuidado deberíamos colocar tales cimientos? ¿Con cuanto cuidado debería Carlota consi-derar lo que escribe en su web? ¿Con qué tanto cuida-do deberíamos considerar lo que escribimos en nuestra web? ¿Cree Ud. que actualmente estemos a la altura de este reto?

Si la humanidad ha de dejar de ser una jungla salvaje y arrogante, como miembros debemos pensar; debemos sentir que nos importa; debemos amar. Debemos estar dispuestos a ayudarnos unos a otros, por lo tanto enno-bleciéndonos sólo un poco (ver cita anterior). Al escribir cualquier cosa en los cimientos de la historia humana de-bemos ver esto como una especie de responsabilidad que nos han confiado miles y miles de futuras generaciones: nuestros mensajes persistirán con sus efectos mucho des-pués de que nos hayamos ido. La comunicación global ha elevado la posición del escritor haciéndola uno de los más sagrados oficios. Sólo espero que cada uno de nosotros, haciendo las veces de Carlota, hagamos este trabajo como amigos de la humanidad.

Narrador: Wilbur nunca olvidó a Carlota. Aunque amó mucho a sus hijas y a sus nietas, ninguna de las nuevas arañas pudo tomar el lugar de ella en su corazón. Ella pertenecía a otra categoría. No es frecuente encontrar a alguien que sea una verdadera amiga y una buena escrito-ra. Carlota era ambas.

Traducido del inglés por Farouk Rojas

das, globales ni efectivas. La web es tan estructuralmente poderosa que podría facilitar la sustitución de mentiras por verdad. Actualmente, este potencial resultado de-pende principalmente del efecto neto de información de nuestra cultura orientada a los medios. ¿Qué tanto cree la gente lo que lee (ver cita anterior)?

Carlota pensó y eligió cuidadosamente el mensaje que iba a escribir en la telaraña. Sabía que dicho mensaje po-dría determinar la vida o muerte de Wilbur el cerdo. Sabía que la gente creería lo que escribiera. El proceso de crear y propagar dichos mensajes es la cuestión de nuestros tiempos. No hace mucho la mayoría de las noticias se cir-cunscribían a lo local. Los enclaves de datos por un lado preservaban la habilidad de la humanidad para eventual-mente encontrar la verdad a través de fuentes indepen-dientes de datos que habrían de convertirse en historia. Por otro lado, limitaban que datos potencialmente impor-tantes afectaran al resto del mundo.

Radiante: el tercer mensaje de CarlotaDos (2) definiciones de radiante: 1. Gozoso, esperanzado. 2. Un punto u objeto del cual proceden rayos. Nosotros elegimos cual aplica.

La red global de comunicación: conectado humanos en combinaciones casi incontables, facilitando una socie-dad y cultura globales; la humanidad unida. En el mejor de todos los futuros, sustentamos nuestras responsabili-dades mutuas y hacia futuras generaciones a través del uso ético de este recurso. Los efectos de nuestras vidas emanaran desde ahora hasta el fin de los tiempos huma-nos sustentando valores nobles registrados en luz, legi-bles como palabras e imágenes.

Tristemente, existe un potencial de una red global de comunicación donde la verdad es irreversiblemente alte-rada a través de la representación desproporcionada. La representación desproporcionada es el uso innoble del poder para vencer a la verdad, donde la notoriedad es un valor superior a la validez: es cuando una mentira mata a una verdad políticamente menos poderosa (ver la narra-ción anterior).

En cualquier caso, nuestro presente es un punto desde el cual proceden rayos de información. Todo lo que escri-bimos en Internet, sin importar su tamaño, tiene efectos globales, y esos efectos se propagarán por el resto de la historia humana. ¿Serán esos efectos rayos de gozo y es-peranza, o falsedades impulsadas por el poder e impues-tas como (y a fin de cuentas volviéndose) realidad? Esta-

10y63.indd 1 26/02/2008 17:03:15

CONOCIMIENTOTECNOLOGÍAS WEB62 CONOCIMIENTO TECNOLOGÍAS WEB 11

ESTRUCTURA

Diseño de la Interacción: El sistema reacciona. El usuario recibe respuestas según las acciones que ejecuta en el sistema; es aquí donde lo definimos. Muchos mensajes de respuesta o aviso pueden desesperar al usuario, así que hay que definir muy bien cuándo y cómo el sistema reac-cionará.Arquitectura de Información: El orden de los elementos de contenido sin tener la información aún. La Facilidad de localización, tener al alcance las cosas que el usuario usa más seguido o información estática que siempre debe visualizar, son sólo puntos que hay que considerar aquí. Lo interesante está en siempre conocer bien al usuario y pensar qué es lo que está buscando encontrar.

ESQUELETO

Diseño de la Información: ¿Cómo presentar la infor-mación de modo que sea fácil de localizar y de entender? Es importante aclarar que no es lo mismo escribir para Web que para un periódico; hay que definir bien qué es lo que hay que desplegar, para quién y cómo (sintetizado con opción a leer más en otro lugar, resumido, con ligas en cada término, etcétera). Diseño de la Interfaz: La interfaz hace referencia a la for-ma en que cada uno de los elementos en la pantalla inter-actúan con el usuario para consolidar las funcionalidades. ¡OJO! Esto es de suma importancia para los sentimientos de desesperación o tranquilidad en la experiencia que el usuario pueda tener.Diseño de la navegación: La navegación permite a los usuarios moverse entre las páginas de la Web. Muchos movimientos o clicks en un sitio hacen que los usuarios se cansen de buscar y de estar cargando nuevas páginas,

que incluso a veces pueden ser muy pesadas. Una nave-gación sencilla pero eficiente en pocos clicks para lle-gar a lo que se busca, trae consigo mejores sentimien-tos y percepciones a los usuarios.

SUPERFICIE

Diseño Visual: como su nombre lo indica, es la parte en la que nos preocupamos por poner “bonito” el sitio y donde la intención es darle al usuario su primera percepción para vivir su experiencia.

MEDICIÓN DE LA USABILIDAD

Dentro del término usabilidad, lo que se busca es lograr efectividad, eficiencia y satisfacción en los usua-rios después de haber pasado por el cumplimiento de objetivos respectivos al sitio Web.

En este punto, tanto los usuarios como los sitios son muy distintos, en sus objetivos, en su imagen, en su navegación, en sus funcionalidades; por lo que la usabilidad se mide bajo términos muy variables; pero lo que finalmente busca es que se haya cumplido el ob-jetivo del Sitio sin haber dejado sentimientos de frus-tración, enojo o desesperación en el usuario.

ENCANTAR AL USUARIO ES LA CLAVE

Hay muchos sentimientos que pueden alimentar la experiencia del usuario; sin embargo, lo que hay que buscar es encantarlo.

Su experiencia debe llevarlo a disfrutar al máximo cada sección y funcionalidad del sitio, por la combi-nación de los factores que analizamos con la me-todología de Garrett; permitirle sentir que está en otro mundo cuando entra en el sitio y que se sumerja en cada una de las sensaciones que el Sitio pueda provo-car en él.

Todos los aspectos de mensajes, interfaces, venta-nas que se abren aparte, deben ser muy bien cuidados para aparecer. Una vez que se logra meter al usuario

en un mundo de encanto, cualquier cosa mal utiliza-

da puede sacarlo y mandar toda su experiencia hacia

los sentimientos de desilusión y enojo por lo vivido.

Así que, hay que tener mucho cuidado en cómo manejar a los usuarios. La Web ha cambiado y seguirá haciéndolo y con ella lo que los usuarios están buscan-do. Cada vez son más exigentes, y tenemos que estar preparados para ello.

Figura 1. Los cinco planos de la metodología de Diseño Centrado en la Experiencia del Usuario [1]

[1] Garrett, Jesse James, The Elements of User Experience –User centered Design for the Web-, Editorial Pearson Education, Estados Unidos, 2002.

[2] Nielsen Norman Group. En: http://www.nngroup.com, 2008.

REFERENCIAS

62y11.indd 1 26/02/2008 17:03:39

Page 13: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB10 CONOCIMIENTO TECNOLOGÍAS WEB 63

Hoy en día es muy común escuchar que la Web está cambiando en muchos aspectos. Se han desarro-llado nuevas herramientas y esquemas de colabo-

ración e intercambio que muestran que la Web ya no es sólo una cadena de páginas con información estática.

Los Blogs y Sitios Wikis han adquirido mucha fama por facilitar a los usuarios la publicación de cualquier tipo de información accesible para todo el mundo, sin grandes complicaciones y con diseños y estándares listos para la distribución. Los contenidos se desarrollan con RSS (Rea-lly Simple Syndication), que permite el uso de encabeza-dos, descripciones y ligas de forma estándar para que pueda ser leído por cualquier lector de RSS y facilita el modificarlos en cualquier momento.

Pero la nueva Web no sólo trae cambios en lo que se publica en línea, sino que esta evolución se refleja tam-

bién en los usuarios, que empiezan a cambiar su forma

de interactuar con todo lo que Web2.0 trae consigo. Esto implica que se ponga especial atención a ellos y a su forma de percibir la Web.

EXPERIENCIA DEL USUARIO. ¿QUÉ SIGNIFICA?

De acuerdo con el Grupo Nielsen Norman, la experiencia del usuario comprende todos los aspectos de la interac-ción del usuario final con la compañía, sus servicios y sus productos. La verdadera experiencia del usuario va más allá de dar a los clientes lo que quieren o simplemente proveer una lista de funcionalidades; requiere analizar to-das las emociones que pueden experimentar al interactuar

La experiencia del usuario en la Nueva Web

Ingeniera María Imelda González

BáezAsesor Tecnológico

EmpresarialSATE-FUMEC

[email protected]

María Imelda González Báez

con un portal Web. [2]. Para Jesse James Garrett, la ex-periencia del usuario significa tomar en cuenta todas las posibles acciones que un usuario tomaría para entender adecuadamente sus expectativas a lo largo del funciona-miento y la navegación de un proceso.

La experiencia de los usuarios hoy en día no es tan simple como sólo accesar a un sitio y obtener lo que se busca. Ahora lo que se tiene en cuenta es un conjunto de decisiones que implican desde cómo es la apariencia del sitio, cómo se comporta, qué funcionalidades tiene, qué presenta como información de acceso rápido y qué es lo que permite hacer en él. Todo esto y otra serie de facto-res, en la nueva Web, constituyen la verdadera experiencia para el usuario.

DISEÑAR, MEDIR, CONTROLAR Y

PROBAR LOS REQUERIMIENTOS

Como parte de todo lo que implica trabajar con la experien-cia del usuario dentro de un proyecto de desarrollo Web y la nueva generación, es necesario tener una metodología que nos permita diseñar, medir, controlar y probar los re-querimientos y aspectos que se tienen que evaluar para mejorar la experiencia del usuario y que se explicarán a continuación.

La metodología de Diseño Centrado en la Experiencia del Usuario, de acuerdo con Garrett, consta de cinco pla-nos [1] que contienen ciertos aspectos por considerar para mejorar la experiencia de la navegación en un sitio Web:

ESTRATEGIA

Necesidades de los usuarios: Forman parte del objetivo del Sitio; sin embargo, desde la perspectiva externa a quien lo está desarrollando, pues es hacia quién está dirigido. Esta información nos permitirá no sólo saber qué buscan, sino definir todo lo que realmente necesitan en el resto de la aplicación de esta metodología que sugiere Garrett.Objetivos del Sitio: Todo sitio debe tener su objetivo prin-cipal y una serie de objetivos secundarios que se encamin-en al primero para que todo el contexto lo esté apoyando y soportando. El fijarnos en los usuarios no nos debe hacer perder de vista para qué está el sitio, pues son las metas o fines que la organización o quien hace el sitio está bus-cando.

ALCANCE

Especificaciones funcionales: Su nombre nos indica que hay que detallar qué hace cada cosa y cómo lo hace. Requerimientos de contenido: ¿Qué es lo que realmente necesitan de información en el sitio nuestros usuarios? Es la pregunta clave. Si no sabemos responder con base en lo que investigamos, la información que ellos quieren tener en el sitio será para ellos algo aburrido y sin sentido. Su experiencia se traduce en que el sitio no les sirve para lo que lo buscaban.

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

mos ahora iniciando el futuro legado de la humanidad. Si no somos leales a la realidad, si no abordamos esta tarea con noble gozo, ninguna compensación rectificará nues-tros efectos. ¿Estaremos dispuestos a sustentar la heroica imagen de Carlota quien intencionalmente mantuvo la fe y sostuvo el honor?

Wilbur: Entonces escriban esto en sus telarañas, cuan-do aprendan: Esta puerta sagrada fue una vez la morada de Carlota. Ella era brillante, bella, y leal hasta el fin. Su memoria será atesorada para siempre.

Las hijas de Carlota: ¡Oh!, eso nos tomaría toda una vida.

Wilbur: Una vida. Eso es lo que tenemos.

Humilde: el mensaje final de CarlotaSi lo piensa, es una gran responsabilidad. ¡Cualquier cosa que escriba en Internet se volverá parte de la historia hu-mana registrada para siempre! Si consideramos que la historia global humana empezó hace unos pocos años, sí estamos posicionando los primeros cimientos sobre los cuales se construirá el resto de la historia humana, para siempre. ¿Con cuanto cuidado deberíamos colocar tales cimientos? ¿Con cuanto cuidado debería Carlota consi-derar lo que escribe en su web? ¿Con qué tanto cuida-do deberíamos considerar lo que escribimos en nuestra web? ¿Cree Ud. que actualmente estemos a la altura de este reto?

Si la humanidad ha de dejar de ser una jungla salvaje y arrogante, como miembros debemos pensar; debemos sentir que nos importa; debemos amar. Debemos estar dispuestos a ayudarnos unos a otros, por lo tanto enno-bleciéndonos sólo un poco (ver cita anterior). Al escribir cualquier cosa en los cimientos de la historia humana de-bemos ver esto como una especie de responsabilidad que nos han confiado miles y miles de futuras generaciones: nuestros mensajes persistirán con sus efectos mucho des-pués de que nos hayamos ido. La comunicación global ha elevado la posición del escritor haciéndola uno de los más sagrados oficios. Sólo espero que cada uno de nosotros, haciendo las veces de Carlota, hagamos este trabajo como amigos de la humanidad.

Narrador: Wilbur nunca olvidó a Carlota. Aunque amó mucho a sus hijas y a sus nietas, ninguna de las nuevas arañas pudo tomar el lugar de ella en su corazón. Ella pertenecía a otra categoría. No es frecuente encontrar a alguien que sea una verdadera amiga y una buena escrito-ra. Carlota era ambas.

Traducido del inglés por Farouk Rojas

das, globales ni efectivas. La web es tan estructuralmente poderosa que podría facilitar la sustitución de mentiras por verdad. Actualmente, este potencial resultado de-pende principalmente del efecto neto de información de nuestra cultura orientada a los medios. ¿Qué tanto cree la gente lo que lee (ver cita anterior)?

Carlota pensó y eligió cuidadosamente el mensaje que iba a escribir en la telaraña. Sabía que dicho mensaje po-dría determinar la vida o muerte de Wilbur el cerdo. Sabía que la gente creería lo que escribiera. El proceso de crear y propagar dichos mensajes es la cuestión de nuestros tiempos. No hace mucho la mayoría de las noticias se cir-cunscribían a lo local. Los enclaves de datos por un lado preservaban la habilidad de la humanidad para eventual-mente encontrar la verdad a través de fuentes indepen-dientes de datos que habrían de convertirse en historia. Por otro lado, limitaban que datos potencialmente impor-tantes afectaran al resto del mundo.

Radiante: el tercer mensaje de CarlotaDos (2) definiciones de radiante: 1. Gozoso, esperanzado. 2. Un punto u objeto del cual proceden rayos. Nosotros elegimos cual aplica.

La red global de comunicación: conectado humanos en combinaciones casi incontables, facilitando una socie-dad y cultura globales; la humanidad unida. En el mejor de todos los futuros, sustentamos nuestras responsabili-dades mutuas y hacia futuras generaciones a través del uso ético de este recurso. Los efectos de nuestras vidas emanaran desde ahora hasta el fin de los tiempos huma-nos sustentando valores nobles registrados en luz, legi-bles como palabras e imágenes.

Tristemente, existe un potencial de una red global de comunicación donde la verdad es irreversiblemente alte-rada a través de la representación desproporcionada. La representación desproporcionada es el uso innoble del poder para vencer a la verdad, donde la notoriedad es un valor superior a la validez: es cuando una mentira mata a una verdad políticamente menos poderosa (ver la narra-ción anterior).

En cualquier caso, nuestro presente es un punto desde el cual proceden rayos de información. Todo lo que escri-bimos en Internet, sin importar su tamaño, tiene efectos globales, y esos efectos se propagarán por el resto de la historia humana. ¿Serán esos efectos rayos de gozo y es-peranza, o falsedades impulsadas por el poder e impues-tas como (y a fin de cuentas volviéndose) realidad? Esta-

10y63.indd 1 26/02/2008 17:03:15

CONOCIMIENTOTECNOLOGÍAS WEB62 CONOCIMIENTO TECNOLOGÍAS WEB 11

ESTRUCTURA

Diseño de la Interacción: El sistema reacciona. El usuario recibe respuestas según las acciones que ejecuta en el sistema; es aquí donde lo definimos. Muchos mensajes de respuesta o aviso pueden desesperar al usuario, así que hay que definir muy bien cuándo y cómo el sistema reac-cionará.Arquitectura de Información: El orden de los elementos de contenido sin tener la información aún. La Facilidad de localización, tener al alcance las cosas que el usuario usa más seguido o información estática que siempre debe visualizar, son sólo puntos que hay que considerar aquí. Lo interesante está en siempre conocer bien al usuario y pensar qué es lo que está buscando encontrar.

ESQUELETO

Diseño de la Información: ¿Cómo presentar la infor-mación de modo que sea fácil de localizar y de entender? Es importante aclarar que no es lo mismo escribir para Web que para un periódico; hay que definir bien qué es lo que hay que desplegar, para quién y cómo (sintetizado con opción a leer más en otro lugar, resumido, con ligas en cada término, etcétera). Diseño de la Interfaz: La interfaz hace referencia a la for-ma en que cada uno de los elementos en la pantalla inter-actúan con el usuario para consolidar las funcionalidades. ¡OJO! Esto es de suma importancia para los sentimientos de desesperación o tranquilidad en la experiencia que el usuario pueda tener.Diseño de la navegación: La navegación permite a los usuarios moverse entre las páginas de la Web. Muchos movimientos o clicks en un sitio hacen que los usuarios se cansen de buscar y de estar cargando nuevas páginas,

que incluso a veces pueden ser muy pesadas. Una nave-gación sencilla pero eficiente en pocos clicks para lle-gar a lo que se busca, trae consigo mejores sentimien-tos y percepciones a los usuarios.

SUPERFICIE

Diseño Visual: como su nombre lo indica, es la parte en la que nos preocupamos por poner “bonito” el sitio y donde la intención es darle al usuario su primera percepción para vivir su experiencia.

MEDICIÓN DE LA USABILIDAD

Dentro del término usabilidad, lo que se busca es lograr efectividad, eficiencia y satisfacción en los usua-rios después de haber pasado por el cumplimiento de objetivos respectivos al sitio Web.

En este punto, tanto los usuarios como los sitios son muy distintos, en sus objetivos, en su imagen, en su navegación, en sus funcionalidades; por lo que la usabilidad se mide bajo términos muy variables; pero lo que finalmente busca es que se haya cumplido el ob-jetivo del Sitio sin haber dejado sentimientos de frus-tración, enojo o desesperación en el usuario.

ENCANTAR AL USUARIO ES LA CLAVE

Hay muchos sentimientos que pueden alimentar la experiencia del usuario; sin embargo, lo que hay que buscar es encantarlo.

Su experiencia debe llevarlo a disfrutar al máximo cada sección y funcionalidad del sitio, por la combi-nación de los factores que analizamos con la me-todología de Garrett; permitirle sentir que está en otro mundo cuando entra en el sitio y que se sumerja en cada una de las sensaciones que el Sitio pueda provo-car en él.

Todos los aspectos de mensajes, interfaces, venta-nas que se abren aparte, deben ser muy bien cuidados para aparecer. Una vez que se logra meter al usuario

en un mundo de encanto, cualquier cosa mal utiliza-

da puede sacarlo y mandar toda su experiencia hacia

los sentimientos de desilusión y enojo por lo vivido.

Así que, hay que tener mucho cuidado en cómo manejar a los usuarios. La Web ha cambiado y seguirá haciéndolo y con ella lo que los usuarios están buscan-do. Cada vez son más exigentes, y tenemos que estar preparados para ello.

Figura 1. Los cinco planos de la metodología de Diseño Centrado en la Experiencia del Usuario [1]

[1] Garrett, Jesse James, The Elements of User Experience –User centered Design for the Web-, Editorial Pearson Education, Estados Unidos, 2002.

[2] Nielsen Norman Group. En: http://www.nngroup.com, 2008.

REFERENCIAS

62y11.indd 1 26/02/2008 17:03:39

Page 14: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB12 CONOCIMIENTO TECNOLOGÍAS WEB 61

Hoy en día, la gente con acceso a Internet está acostumbrada a usar cotidianamente la Web para buscar noticias, adquirir productos y ser-

vicios, acceder a información variada y, en general, para realizar una variedad de tareas que han dejado atrás las limitaciones espacio-temporales que enfrentaron otras generaciones. Sin embargo, nuestra generación se enfren-

ta a un problema distinto: el exceso de información. El navegar entre toda la información existente y encontrar lo que realmente necesita, requiere cada vez mayor esfuerzo de una persona y depende grandemente de su pericia para relacionar conceptos y descubrir sitios que contengan in-formación especializada.

La Web fue diseñada originalmente para integrar texto y multimedia en un formato que fuera fácil de usar, tanto para el usuario que buscaba información como para el que la publicara. El protocolo era simple y fue adoptado rápidamente por la industria y la academia. La sencillez y flexibilidad del formato permitieron que cada persona definiera su propio estilo para presentar la información,

La Web Semántica: para humanos y para máquinas

Héctor G. Ceballos

M. C. Héctor G. Ceballos

Asistente de Investigación Doctoral

Dirección de Investigación y

Posgrado Tecnológico de

Monterrey, Campus Monterrey.

[email protected], http://hgceballos.wordpress.com/

y la única restricción en el diseño residía en que la infor-mación fuera inteligible para las demás personas. Es decir, era una web de y para personas, y las máquinas sólo eran la herramienta y el vehículo.

UNA NUEVA WEB

Al reconocer la limitación de la Web para ofrecer a una persona la información específica que necesita, Tim Ber-

ners-Lee, creador del World Wide Web, propuso un nue-

vo concepto que revolucionaría la forma de ver la web:

una Web Semántica. Como él mismo la definió en el año 2000: “La Web Semántica trae a la Web la idea de definir y enlazar datos de manera que faciliten su descubrimiento, automatización, integración y reutilización a lo largo de diferentes aplicaciones” [1].

Como su definición lo dice, no se trata de hacer una nueva Web, sino de agregar a la Web actual capacidades que transformen el paradigma basado en documentos en uno basado en datos, donde cada dato tenga un signifi-cado común que incluso las máquinas sean capaces de reconocer y asociar. Finalmente, se trata de hacer que la Web sea inteligible para las computadoras, de tal forma que nos ayuden a encontrar la información que buscamos y a realizar operaciones de manera automática.

SU CONSTRUCCIÓN

El Consorcio World Wide Web o W3C inició en 2001 un proyecto para generar estándares de protocolos y len-guajes para construir la Web Semántica. El W3C es un con-sorcio internacional fundado por Tim Berners-Lee, en el cual participan organizaciones educativas, compañías y público en general, para el desarrollo de estándares para la Web. Los miembros del W3C forman grupos de trabajo con un proyecto y duración específica, y de ellos surgen los estándares.

La apuesta de la W3C ha sido generar una pila de pro-tocolos o lenguajes que sucesivamente logren el objetivo de la Web Semántica. Estos protocolos están organizados en las siguientes categorías:

1. Interoperabilidad dentro de una aplicación2. Interoperabilidad entre aplicaciones3. Una web con significado4. Consultas y reglas de negocio5. Sistemas confiables e interoperabilidad entre mo-

tores de inferencia.

En la primera capa encontramos un lenguaje que per-mite a cada usuario o aplicación definir su propia con-vención de marcado (tags) en formato de texto conocido como XML. En la segunda capa podemos encontrar un len-

táfora de una web que sea la estructura para transmitir mensajes ideológicos y fundacionales. Le sugiero enfá-ticamente que se tome una noche para leer esta historia o, mejor aún: encuentre un niño que nunca la haya oído y léasela.

Demos un paso atrás. El Internet tiene dos (2) aspec-tos: su tecnología (una herramienta), y su uso. Para mucha gente, su uso es lo más relevante mientras que el “milagro” de su existencia (ver cita anterior) es relegado a un mero interés potencial. Yo no creo que estos aspectos sean real-mente muy diferentes: son sólo diferentes formas creadas por el mismo proceso humano; a veces este proceso es usado para trabajar en la web (creando tecnología más efi-ciente) y a veces este proceso es usado para trabajar den-tro de la web (creando y organizando contenido usando la web como herramienta).

En el caso de Carlota la araña, ella trabajó en su web construyéndola en una esquina del marco de una puerta, y dentro de su web usándola como una herramienta para atrapar bichos (bugs) y escribir palabras. Preferimos que nuestra web esté libre de bugs (fallas) sin embargo cierta-mente la utilizamos para escribir palabras. Por supuesto, la parte más importante de la telaraña de Carlota (y de la web de la Internet humana) no es la tecnología ni la escritura, es el significado y efecto de lo que se escribe.

Tremendo: el segundomensaje de CarlotaTremendo tiene dos significados básicos: extremadamen-te bueno; maravilloso o temible; terrible. Nosotros elegi-mos cual aplica.

Estamos parados en los cimientos del resto de la his-toria humana: cómo pensemos respecto a estos cimientos y cómo los construyamos afectará a la humanidad para siempre. Estos cimientos están hechos de datos, de pala-bras y, sobre todo, estos cimientos están hechos del signi-ficado creado por dichas palabras.

¿Qué dirían ahora nuestros libros de historia si Ale-mania hubiera ganado la segunda guerra mundial? Bue-no, aunque probablemente Hitler sería presentado como un héroe, la esperanza es que hubiera pequeños grupos de personas que registraran la “verdad”. Por supuesto, si Hitler fuera estructuralmente tan poderoso que pudie-ra eliminar a todos estos grupos entonces la historia del mundo sería cambiada irreversiblemente: una mentira sin una referencias contraria se convierte en la verdad.

La world wide web es una extensión orgánica del pen-samiento y filosofía humanos. La ética con que utilizamos esta herramienta aún no logra igualar su poder. Aún hace 10 años el Internet no llegaba a tantos lugares, y las noti-cias (a fin de cuentas nuestra historia) no eran tan difundi-

12y61.indd 1 26/02/2008 17:03:57

CONOCIMIENTOTECNOLOGÍAS WEB60 CONOCIMIENTO TECNOLOGÍAS WEB 13

guaje que permite describir recursos referenciados en la Web (RDF), así como su extensión para representar clases y atributos de objetos (RDFS). En RDF, tanto los recursos electrónicos disponibles en la web como objetos del mun-do real son descritos por URIs, direcciones similares a los URL que conocemos, mientras que con RDFS se definen clases de objetos y se restringe el tipo de atributos que puede presentar cada instancia.

Para la tercera capa ha sido propuesto un lenguaje de ontologías (OWL), que permite definir conceptos y rela-ciones entre ellos con un gran poder expresivo. Este len-guaje es capaz de definir relaciones transitivas o inversas, por ejemplo, así como definir conceptos a partir de otros conceptos y expresar condiciones que deben tener los in-dividuos para ser considerados parte de una clase. Para la cuarta capa se ha propuesto un lenguaje de consulta (SPARQL), que permite expresar consultas sobre bases de conocimiento codificadas en RDF u OWL. Asimismo, se está trabajando en un formato de intercambio de reglas (RIF) que permita traducir reglas a distintos lenguajes.

Instituciones y compañías se encuentran desarro-llando editores de ontologías, convertidores de formatos, motores de inferencia y software en general que cumplen con estas especificaciones. Entre ellos puede encontrarse tanto software bajo licencia como software libre. Podemos mencionar por ejemplo a Protegé, un editor de ontologías y plataforma para adquisición de conocimiento; Jena Tool-kit, una plataforma en Java para desarrollar aplicaciones semánticas, o Racer, un razonador que soporta reglas, res-tricciones y consultas sobre ontologías de grandes propor-ciones.

SITUACIÓN ACTUAL

En la práctica, la Web Semántica se ha venido constru-yendo a partir del acuerdo de grupos o comunidades para definir una terminología común sobre su área de interés. Esta terminología se expresa en los lenguajes y formalis-mos arriba mencionados, mientras que las herramientas desarrolladas alrededor de estos estándares permiten crear aplicaciones con distintos grados de evolución [3]. Por ejemplo, los servicios sindicados de noticias, RSS, utili-zan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas, como por ejemplo: “Noticias publicadas en enero de 2008, en la fuente X, que contengan en el título la palabra Yahoo y en el contenido la palabra Venta”.

En el mismo sentido, podemos encontrar un nuevo

buscador propio de la era de la Web Semántica: DBPedia,

el cual es un motor de búsqueda que extrae información

de Wikipedia y permite realizar búsquedas complejas

en las que resuelve asociaciones y dependencias en-

tre conceptos. DBPedia puede resolver consultas como: “Quiénes son los integrantes de un equipó de fútbol soc-

cer que juegan en un club con un estadio de más de 40 mil asientos y que nacieron en países de más de 10 millones de habitantes”. Aun cuando este buscador enfrenta obs-táculos derivados de la flexibilidad con que se escriben los artículos de Wikipedia, es capaz de extraer y relacionar información de naturaleza variada.

Sin embargo, las áreas en que las tecnologías de la

Web Semántica han logrado mayor avance han sido la

Medicina y las Ciencias de la Vida.

Por ejemplo, en el Cincinnati Children’s Hospital Medi-cal Center se ha construido una base de datos en la que se integran ontologías con información de genes y productos genómicos, de relaciones entre enfermedades y síntomas, y de desórdenes genéticos, que han permitido encontrar probables causas genéticas para enfermedades cardiovas-culares.

Asimismo, en la University of Texas Health Science Center at Houston, desde 2004 se inició el proyecto SAPHIRE, que integra una amplia variedad de información de hospitales, agencias de protección ambiental y litera-tura científica.

Los servicios sindicados de noticias, RSS, utilizan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas

He estado involucrado en la industria de la computa-ción la mayor parte de mi vida. Incluso poseo algunas pa-tentes en el ramo del Internet y tengo unas pocas más en camino. Mi experiencia incluye desde la programación al análisis a la administración de proyectos al diseño; incluso me ensucié las manos trabajando con componentes elec-trónicos (construyendo circuitos para probar propiedades y crear sobre la marcha, dispositivos hechizos). Cuando pienso en escribir un simple artículo para expresar la vas-tedad de la tecnología web me enfrento a mis limitaciones como escritor, mi tendencia a complicar excesivamente las cosas como auténtico y entusiasta tecno-académico (y escribiéndolo como tal) y mis limitaciones muy reales de tiempo y espacio.

En períodos de intensidad intelectual me resulta mejor dar un paso atrás y tratar con principios fundamentales. Más vital que los detalles específicos de la tecnología web es su uso; su propósito. Lo que es más importante acerca de la web no es la web en sí; es la humanidad y el uso que le da a la web. Decidí encontrar una copia de un libro muy elemental y sin embargo históricamente muy importante, anterior a la web como la conocemos, que habla de una web similar ficticia. A veces podemos encontrar las raíces de nuestro pensamiento humano en la ficción. Después de todo, cualquier ideología o concepto sobre un mundo mejor es sólo ficción hasta ser actualizado.

Fui a mi biblioteca y examiné mis libreros; creo que debo haber jubilado este libro hace mucho. Trepar hasta mi ático, revisando cajas y cajas de libros, aún así no reve-ló nada. Finalmente tuve la fortuna de poder comprar una versión de este texto en una librería local (traté de usar la web pero no podía conseguirlo suficientemente rápido y ¡ciertamente el texto no estaba disponible en línea!).

El libro es verdaderamente refrescante, escrito más “a la antigua” y menos tecnológico. En un estilo que me atre-vería a llamar “poético” (algo que creo es muy importante en cuestiones de la relación entre la tecnología y la huma-nidad). En la literatura actual hemos perdido casi toda poesía y estilo al escribir de tecnología y cosas como las redes. Algunos de los libros más antiguos parecen ser mu-cho más filosóficos y generales comparados con los tex-tos actuales, precisos como un láser. Como el profesional incipiente necesita tantos conocimiento, hay poco tiempo para ahondar en el material más allá de breves sumarios. He aquí tan sólo unos pocos ejemplos de extractos de mi texto ancestral:

“Cuando las palabras aparecieron, todo mundo dijo que eran un milagro. Pero nadie mencionó que la web en sí es un milagro.”

“La gente cree casi cualquier cosa que ve impresa.”“Después de todo, ¿qué es realmente la vida? Nace-

mos, vivimos por un rato, morimos... Al ayudarte, quizás

Por Keith Raniere

estaba tratando de ennoblecer mi vida un poco. Dios sabe que la vida de cualquiera necesita un poco de eso.”

Este tipo de comentarios son altamente inusuales en un entorno tecnológico moderno. Me fui a las primeras páginas del texto y, lleno de recuerdos, sentimientos y an-ticipación, leí los primeros párrafos: “¿A dónde va papá con el hacha?” dijo Fern a su mamá cuando se sentaban a la mesa para desayunar.

“Va al corral de los cerdos,” contestó la Sra. Arable, “algu-nos cerdos nacieron anoche.”.

“No veo para qué necesita el hacha,” continuó Fern, que tan sólo tenía ocho años. “Bueno,” dijo su mamá, “uno de los cerdos salió demasiado pequeño y débil, y jamás servirá para nada. Así que tu papá ha decidido deshacer-se de él.”

“¿Deshacerse de él?” aulló Fern. “¿Quieres decir matarlo? ¿Sólo porque es más pequeño que los demás?”

Un cerdazo : el primer mensajede CarlotaComo le puede resultar evidente a algunos lectores, el li-bro al que me refiero es la novela infantil La telaraña de carlota de E. B. White. En inglés la palabra “web”, utilizada en el argot tecnológico, también es utilizada para referirse a las estructuras sedosas tejidas por las arañas.

Los párrafos superiores dan inicio a una maravillosa historia de salvación, amistad, dedicación y humanidad

Salutaciones!

(representada a través de animales). Un sumario láser de la historia sería: Wilbur es un cerdo que nació más pe-queño que los demás. Fue salvado de la exterminación y luego cuidado por las manos amorosas de una niña, Fern. Después, fue salvado de ser ejecutado por la creatividad de una araña llamada Carlota...una verdadera amiga.

Lo que es más importante para este artículo es que La telaraña de Carlota es poéticamente a propos como me

60y13.indd 1 26/02/2008 17:04:14

Page 15: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB12 CONOCIMIENTO TECNOLOGÍAS WEB 61

Hoy en día, la gente con acceso a Internet está acostumbrada a usar cotidianamente la Web para buscar noticias, adquirir productos y ser-

vicios, acceder a información variada y, en general, para realizar una variedad de tareas que han dejado atrás las limitaciones espacio-temporales que enfrentaron otras generaciones. Sin embargo, nuestra generación se enfren-

ta a un problema distinto: el exceso de información. El navegar entre toda la información existente y encontrar lo que realmente necesita, requiere cada vez mayor esfuerzo de una persona y depende grandemente de su pericia para relacionar conceptos y descubrir sitios que contengan in-formación especializada.

La Web fue diseñada originalmente para integrar texto y multimedia en un formato que fuera fácil de usar, tanto para el usuario que buscaba información como para el que la publicara. El protocolo era simple y fue adoptado rápidamente por la industria y la academia. La sencillez y flexibilidad del formato permitieron que cada persona definiera su propio estilo para presentar la información,

La Web Semántica: para humanos y para máquinas

Héctor G. Ceballos

M. C. Héctor G. Ceballos

Asistente de Investigación Doctoral

Dirección de Investigación y

Posgrado Tecnológico de

Monterrey, Campus Monterrey.

[email protected], http://hgceballos.wordpress.com/

y la única restricción en el diseño residía en que la infor-mación fuera inteligible para las demás personas. Es decir, era una web de y para personas, y las máquinas sólo eran la herramienta y el vehículo.

UNA NUEVA WEB

Al reconocer la limitación de la Web para ofrecer a una persona la información específica que necesita, Tim Ber-

ners-Lee, creador del World Wide Web, propuso un nue-

vo concepto que revolucionaría la forma de ver la web:

una Web Semántica. Como él mismo la definió en el año 2000: “La Web Semántica trae a la Web la idea de definir y enlazar datos de manera que faciliten su descubrimiento, automatización, integración y reutilización a lo largo de diferentes aplicaciones” [1].

Como su definición lo dice, no se trata de hacer una nueva Web, sino de agregar a la Web actual capacidades que transformen el paradigma basado en documentos en uno basado en datos, donde cada dato tenga un signifi-cado común que incluso las máquinas sean capaces de reconocer y asociar. Finalmente, se trata de hacer que la Web sea inteligible para las computadoras, de tal forma que nos ayuden a encontrar la información que buscamos y a realizar operaciones de manera automática.

SU CONSTRUCCIÓN

El Consorcio World Wide Web o W3C inició en 2001 un proyecto para generar estándares de protocolos y len-guajes para construir la Web Semántica. El W3C es un con-sorcio internacional fundado por Tim Berners-Lee, en el cual participan organizaciones educativas, compañías y público en general, para el desarrollo de estándares para la Web. Los miembros del W3C forman grupos de trabajo con un proyecto y duración específica, y de ellos surgen los estándares.

La apuesta de la W3C ha sido generar una pila de pro-tocolos o lenguajes que sucesivamente logren el objetivo de la Web Semántica. Estos protocolos están organizados en las siguientes categorías:

1. Interoperabilidad dentro de una aplicación2. Interoperabilidad entre aplicaciones3. Una web con significado4. Consultas y reglas de negocio5. Sistemas confiables e interoperabilidad entre mo-

tores de inferencia.

En la primera capa encontramos un lenguaje que per-mite a cada usuario o aplicación definir su propia con-vención de marcado (tags) en formato de texto conocido como XML. En la segunda capa podemos encontrar un len-

táfora de una web que sea la estructura para transmitir mensajes ideológicos y fundacionales. Le sugiero enfá-ticamente que se tome una noche para leer esta historia o, mejor aún: encuentre un niño que nunca la haya oído y léasela.

Demos un paso atrás. El Internet tiene dos (2) aspec-tos: su tecnología (una herramienta), y su uso. Para mucha gente, su uso es lo más relevante mientras que el “milagro” de su existencia (ver cita anterior) es relegado a un mero interés potencial. Yo no creo que estos aspectos sean real-mente muy diferentes: son sólo diferentes formas creadas por el mismo proceso humano; a veces este proceso es usado para trabajar en la web (creando tecnología más efi-ciente) y a veces este proceso es usado para trabajar den-tro de la web (creando y organizando contenido usando la web como herramienta).

En el caso de Carlota la araña, ella trabajó en su web construyéndola en una esquina del marco de una puerta, y dentro de su web usándola como una herramienta para atrapar bichos (bugs) y escribir palabras. Preferimos que nuestra web esté libre de bugs (fallas) sin embargo cierta-mente la utilizamos para escribir palabras. Por supuesto, la parte más importante de la telaraña de Carlota (y de la web de la Internet humana) no es la tecnología ni la escritura, es el significado y efecto de lo que se escribe.

Tremendo: el segundomensaje de CarlotaTremendo tiene dos significados básicos: extremadamen-te bueno; maravilloso o temible; terrible. Nosotros elegi-mos cual aplica.

Estamos parados en los cimientos del resto de la his-toria humana: cómo pensemos respecto a estos cimientos y cómo los construyamos afectará a la humanidad para siempre. Estos cimientos están hechos de datos, de pala-bras y, sobre todo, estos cimientos están hechos del signi-ficado creado por dichas palabras.

¿Qué dirían ahora nuestros libros de historia si Ale-mania hubiera ganado la segunda guerra mundial? Bue-no, aunque probablemente Hitler sería presentado como un héroe, la esperanza es que hubiera pequeños grupos de personas que registraran la “verdad”. Por supuesto, si Hitler fuera estructuralmente tan poderoso que pudie-ra eliminar a todos estos grupos entonces la historia del mundo sería cambiada irreversiblemente: una mentira sin una referencias contraria se convierte en la verdad.

La world wide web es una extensión orgánica del pen-samiento y filosofía humanos. La ética con que utilizamos esta herramienta aún no logra igualar su poder. Aún hace 10 años el Internet no llegaba a tantos lugares, y las noti-cias (a fin de cuentas nuestra historia) no eran tan difundi-

12y61.indd 1 26/02/2008 17:03:57

CONOCIMIENTOTECNOLOGÍAS WEB60 CONOCIMIENTO TECNOLOGÍAS WEB 13

guaje que permite describir recursos referenciados en la Web (RDF), así como su extensión para representar clases y atributos de objetos (RDFS). En RDF, tanto los recursos electrónicos disponibles en la web como objetos del mun-do real son descritos por URIs, direcciones similares a los URL que conocemos, mientras que con RDFS se definen clases de objetos y se restringe el tipo de atributos que puede presentar cada instancia.

Para la tercera capa ha sido propuesto un lenguaje de ontologías (OWL), que permite definir conceptos y rela-ciones entre ellos con un gran poder expresivo. Este len-guaje es capaz de definir relaciones transitivas o inversas, por ejemplo, así como definir conceptos a partir de otros conceptos y expresar condiciones que deben tener los in-dividuos para ser considerados parte de una clase. Para la cuarta capa se ha propuesto un lenguaje de consulta (SPARQL), que permite expresar consultas sobre bases de conocimiento codificadas en RDF u OWL. Asimismo, se está trabajando en un formato de intercambio de reglas (RIF) que permita traducir reglas a distintos lenguajes.

Instituciones y compañías se encuentran desarro-llando editores de ontologías, convertidores de formatos, motores de inferencia y software en general que cumplen con estas especificaciones. Entre ellos puede encontrarse tanto software bajo licencia como software libre. Podemos mencionar por ejemplo a Protegé, un editor de ontologías y plataforma para adquisición de conocimiento; Jena Tool-kit, una plataforma en Java para desarrollar aplicaciones semánticas, o Racer, un razonador que soporta reglas, res-tricciones y consultas sobre ontologías de grandes propor-ciones.

SITUACIÓN ACTUAL

En la práctica, la Web Semántica se ha venido constru-yendo a partir del acuerdo de grupos o comunidades para definir una terminología común sobre su área de interés. Esta terminología se expresa en los lenguajes y formalis-mos arriba mencionados, mientras que las herramientas desarrolladas alrededor de estos estándares permiten crear aplicaciones con distintos grados de evolución [3]. Por ejemplo, los servicios sindicados de noticias, RSS, utili-zan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas, como por ejemplo: “Noticias publicadas en enero de 2008, en la fuente X, que contengan en el título la palabra Yahoo y en el contenido la palabra Venta”.

En el mismo sentido, podemos encontrar un nuevo

buscador propio de la era de la Web Semántica: DBPedia,

el cual es un motor de búsqueda que extrae información

de Wikipedia y permite realizar búsquedas complejas

en las que resuelve asociaciones y dependencias en-

tre conceptos. DBPedia puede resolver consultas como: “Quiénes son los integrantes de un equipó de fútbol soc-

cer que juegan en un club con un estadio de más de 40 mil asientos y que nacieron en países de más de 10 millones de habitantes”. Aun cuando este buscador enfrenta obs-táculos derivados de la flexibilidad con que se escriben los artículos de Wikipedia, es capaz de extraer y relacionar información de naturaleza variada.

Sin embargo, las áreas en que las tecnologías de la

Web Semántica han logrado mayor avance han sido la

Medicina y las Ciencias de la Vida.

Por ejemplo, en el Cincinnati Children’s Hospital Medi-cal Center se ha construido una base de datos en la que se integran ontologías con información de genes y productos genómicos, de relaciones entre enfermedades y síntomas, y de desórdenes genéticos, que han permitido encontrar probables causas genéticas para enfermedades cardiovas-culares.

Asimismo, en la University of Texas Health Science Center at Houston, desde 2004 se inició el proyecto SAPHIRE, que integra una amplia variedad de información de hospitales, agencias de protección ambiental y litera-tura científica.

Los servicios sindicados de noticias, RSS, utilizan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas

He estado involucrado en la industria de la computa-ción la mayor parte de mi vida. Incluso poseo algunas pa-tentes en el ramo del Internet y tengo unas pocas más en camino. Mi experiencia incluye desde la programación al análisis a la administración de proyectos al diseño; incluso me ensucié las manos trabajando con componentes elec-trónicos (construyendo circuitos para probar propiedades y crear sobre la marcha, dispositivos hechizos). Cuando pienso en escribir un simple artículo para expresar la vas-tedad de la tecnología web me enfrento a mis limitaciones como escritor, mi tendencia a complicar excesivamente las cosas como auténtico y entusiasta tecno-académico (y escribiéndolo como tal) y mis limitaciones muy reales de tiempo y espacio.

En períodos de intensidad intelectual me resulta mejor dar un paso atrás y tratar con principios fundamentales. Más vital que los detalles específicos de la tecnología web es su uso; su propósito. Lo que es más importante acerca de la web no es la web en sí; es la humanidad y el uso que le da a la web. Decidí encontrar una copia de un libro muy elemental y sin embargo históricamente muy importante, anterior a la web como la conocemos, que habla de una web similar ficticia. A veces podemos encontrar las raíces de nuestro pensamiento humano en la ficción. Después de todo, cualquier ideología o concepto sobre un mundo mejor es sólo ficción hasta ser actualizado.

Fui a mi biblioteca y examiné mis libreros; creo que debo haber jubilado este libro hace mucho. Trepar hasta mi ático, revisando cajas y cajas de libros, aún así no reve-ló nada. Finalmente tuve la fortuna de poder comprar una versión de este texto en una librería local (traté de usar la web pero no podía conseguirlo suficientemente rápido y ¡ciertamente el texto no estaba disponible en línea!).

El libro es verdaderamente refrescante, escrito más “a la antigua” y menos tecnológico. En un estilo que me atre-vería a llamar “poético” (algo que creo es muy importante en cuestiones de la relación entre la tecnología y la huma-nidad). En la literatura actual hemos perdido casi toda poesía y estilo al escribir de tecnología y cosas como las redes. Algunos de los libros más antiguos parecen ser mu-cho más filosóficos y generales comparados con los tex-tos actuales, precisos como un láser. Como el profesional incipiente necesita tantos conocimiento, hay poco tiempo para ahondar en el material más allá de breves sumarios. He aquí tan sólo unos pocos ejemplos de extractos de mi texto ancestral:

“Cuando las palabras aparecieron, todo mundo dijo que eran un milagro. Pero nadie mencionó que la web en sí es un milagro.”

“La gente cree casi cualquier cosa que ve impresa.”“Después de todo, ¿qué es realmente la vida? Nace-

mos, vivimos por un rato, morimos... Al ayudarte, quizás

Por Keith Raniere

estaba tratando de ennoblecer mi vida un poco. Dios sabe que la vida de cualquiera necesita un poco de eso.”

Este tipo de comentarios son altamente inusuales en un entorno tecnológico moderno. Me fui a las primeras páginas del texto y, lleno de recuerdos, sentimientos y an-ticipación, leí los primeros párrafos: “¿A dónde va papá con el hacha?” dijo Fern a su mamá cuando se sentaban a la mesa para desayunar.

“Va al corral de los cerdos,” contestó la Sra. Arable, “algu-nos cerdos nacieron anoche.”.

“No veo para qué necesita el hacha,” continuó Fern, que tan sólo tenía ocho años. “Bueno,” dijo su mamá, “uno de los cerdos salió demasiado pequeño y débil, y jamás servirá para nada. Así que tu papá ha decidido deshacer-se de él.”

“¿Deshacerse de él?” aulló Fern. “¿Quieres decir matarlo? ¿Sólo porque es más pequeño que los demás?”

Un cerdazo : el primer mensajede CarlotaComo le puede resultar evidente a algunos lectores, el li-bro al que me refiero es la novela infantil La telaraña de carlota de E. B. White. En inglés la palabra “web”, utilizada en el argot tecnológico, también es utilizada para referirse a las estructuras sedosas tejidas por las arañas.

Los párrafos superiores dan inicio a una maravillosa historia de salvación, amistad, dedicación y humanidad

Salutaciones!

(representada a través de animales). Un sumario láser de la historia sería: Wilbur es un cerdo que nació más pe-queño que los demás. Fue salvado de la exterminación y luego cuidado por las manos amorosas de una niña, Fern. Después, fue salvado de ser ejecutado por la creatividad de una araña llamada Carlota...una verdadera amiga.

Lo que es más importante para este artículo es que La telaraña de Carlota es poéticamente a propos como me

60y13.indd 1 26/02/2008 17:04:14

Page 16: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB14 CONOCIMIENTO TECNOLOGÍAS WEB 59

Cada diez minutos, SAPHIRE recibe casos de salas de urgencias, descripciones de pacientes y los síntomas que presentan, y de registros clínicos de ocho hospitales de la zona. Las tecnologías semánticas integran esta información en una sola visión de las condiciones de salud y sanitarias en el área de Houston. SAPHIRE fue usado efectivamente para detectar y contrarrestar epidemias gastrointestina-les, respiratorias y de conjuntivitis en los desplazados por el Huracán Catrina. La aplicación fue configurada para rea-lizar esta función en menos de ocho horas, a partir de que abrieron los refugios. Este caso demostró una de las bon-

dades de los sistemas de la era de la Web Semántica:

“una vez que se configuran para resolver un problema

general, pueden ser adaptados rápidamente para resol-

ver múltiples problemas en la misma área” [3].

EL FUTURO DE LA WEB SEMÁNTICA

Expertos de Project10x [4] vislumbran las tendencias tec-nológicas y de mercado para la Web Semántica para los próximos años. En cuanto a los avances tecnológicos de la Web Semántica se espera un mayor desarrollo en las siguientes áreas:

1. Interfaces de usuario inteligentes que incrementen la productividad y satisfacción del usuario; por ejemplo, a través de la identificación y modelación del usuario y

especificación del contexto.2. Sistemas colectivos de conocimiento donde los usua-

rios colaboren agregando contenido, semántica, modelos y comportamientos.

3. Aplicaciones semánticas que permitan pasar de da-tos contenidos en documentos a conocimiento, convertir procesos fijos en procesos autónomos, y finalmente dar el salto de buscar a conocer y tomar decisiones a partir de procesos de inferencia más robustos.

4. La solución de problemas de escalamiento, comple-jidad y seguridad en bases de conocimiento que provean una infraestructura robusta para el despliegue de aplica-ciones semánticas.

5. Herramientas para modelación semántica que re-duzca tiempo, riesgos y costos en el desarrollo de aplica-ciones.

A partir de un análisis realizado el año pasado [4], es-tos expertos estiman que los mercados para tecnologías

semánticas en el sector de Tecnologías de Información

y Comunicaciones superarán los 50 mil millones de

dólares en 2010.

Como puede observarse, la plataforma está casi lista, las instituciones y compañías están adoptando los nuevos estándares a gran velocidad y empiezan a verse en la prác-tica aplicaciones con un alto valor agregado. Sin embargo, lo que hasta ahora hemos presenciado es sólo la punta del iceberg. Lo mejor está por venir.

REFERENCIAS

[1] Tim Berners-Lee. Semantic Web - XML2000.

http: //www.w3.org/2000/Talks/1206-xml2k-tbl/

[2] Tim Berners-Lee, James Hendler and Ora Lassila.

The Semantics Web, Scientific American, Mayo 2001.

[3] Lee Feigenbaum, Ivan Herman, Tonya Hongser

meier, Eric Neumann, and Susie Stephens. The Se-

mantics Web in action. Scientific American, 297(6), pp.

90-97, Diciembre, 2007.

[4] Mills Davis. Semantic Wave 2008 Report: Industry

Roadmap to Web 3.0 & Multibillion Dollar Market Op

portunities. Project10X’s. Febrero 2008

Ligas de interés

http://www.w3.org/2001/sw/. W3C Semantic Web Ac

tivity

http://protege.stanford.edu/. The Protegé Ontology

Editor and Knowledge Acquisition System.

http://jena.sourceforge.net/. Jena Semantic Web

Framework

http://www.sts.tu-harburg.de/~r.f.moeller/racer/. Rac

er: Renamed ABox and

Concept Expression Reasoner.

http://dbpedia.org/About. DBPedia

M. C. Héctor G. Ceballos

Actual estudiante del Doctorado

en Tecnologías de Información y Comunicaciones con especialidad

en Sistemas Inteligentes.

Ha publicado artículos en

revistas y conferencias

internacionales sobre Ontologías,

Agentes Intelligentes,

Sistemas Multiagentes,

Administración de Conocimiento y

Modelos Causales Probabilísticos.

Además ha coordinado

varios proyectos Web entre los

que destaca la Memoria

Corporativa de Investigación

y Posgrado del Tecnológico de

Monterrey.

La figura muestra las áreas en las que las tecnologías semánticas están recibiendo fondos internacionales para investigación y desarrollo, y cuyo monto estimado para 2010 será de dos mil millones de dólares.

Para ver cuán frustrante puede ser un mal e-gobierno, consideremos el proyecto gubernamental más importante de Inglate-rra: Seleccione y reserve, programa Conexión para la Salud, el programa computarizado de un gobierno no militar más grande del mundo. El objetivo es osado e inspirador: permitir a los pacientes del Servicio Nacio-nal de Salud de Inglaterra, desde luego con la asesoría de sus doctores, seleccionar el tipo de tratamiento que quieren, y reservar una cita para cuando ellos quieran.

Tras tres años de este programa, la realidad se muestra bastante diferente de lo que se pretendía. La Asociación Médica Británica, el organismo que congrega a la mayor parte de los médicos ingleses, le ha llamado un “truco de relaciones públicas”. A la mayor parte de los doctores no les agrada.

En el Grupo de Práctica de Lavender Hill, en el suroeste de Londres, la doctora Helen Lucas está batallando con un bebé que padece una anomalía potencialmente

grave. Aquí, la mayor parte de los pacien-tes son atendidos de inmediato. A quienes requieren la atención de un especialista, se les transfiere, de modo que la práctica es, al mismo tiempo, proveedora de un servi-cio y administradora de escasos recursos. En otros países, el acceso a un especialista depende del costo y de las compañías ase-guradoras. En Inglaterra, el paciente elige… al menos en teoría.

El software de la práctica funciona bien, pero el trámite para seleccionar y reservar

es penosamente lento. El menú de enfer-medades, desde Alergia hasta Urología, no incluye nada que pueda ser de utilidad para este paciente, aun cuando el doctor supiera cuál es el especialista indicado. Anteriormente, le hubiera enviado a éste una carta para explicarle detalladamente el problema, y el paciente hubiera recibi-do atención. Este sistema no era perfecto, pero funcionaba.

Ahora, la pantalla del programa Selec-cione y Reserve muestra una larga lista de especialidades médicas, de modo que es posible seleccionar un médico o un hos-pital. Empero, se presenta tal lista de op-ciones, que más bien causa problemas en lugar de resolverlos. Por ejemplo, se ofre-cen servicios de psiquiatría, pero no se pue-den programar citas en línea.

En otros casos, aunque las citas se reserven como “urgentes” o como “de rutina”, el resultado es exactamente el mismo. A veces, la computadora dice que se desconoce el tiempo de espera, lo que significa que el paciente tendrá que llamar directamente al hospital.

Una fabulosa cantidad de dinero se ha invertido en todo el mundo a fin de poner en línea los servicios del gobierno; sin embargo, es difícil evaluar los resultados, los cuales algunas

veces son desalentadores.Empero, la gran ventaja de la nueva tecnología es que puede dar

un vuelco completo a la burocracia. Por ejemplo, los negocios bien administrados no ven como una molestia las quejas de sus clientes; por lo contrario, utilizan todos los datos recopilados en sitios web y de centros de llamadas para mejorar los productos y servicios que ofrecen.

Los gobiernos podrían hacer lo mismo. Así como las empresas no esperan que los clientes traten por separado con finanzas, logística y departamentos de ventas, así alguien que registra a un niño recién nacido no debería preocuparse por la forma en que podrían usar la información las autoridades hacendarias, la administración de la seguridad social, los servicios de salud, el sistema educativo, los departamentos censales y el gobierno local. Un buen esquema de

gobierno en línea empieza desde el punto de vista del ciudadano,

no del burócrata.

Vuelco a la burocracia

Tomado de The Economist | Traducción de Félix Ramos Gamiño

Servicio Nacional de Salud en Inglaterra

Experiencia médica con el programa Seleccione y Reserve, %

Muy positiva

Bastante positiva

Ni positiva ni negativa

Negativa

Muy negativa

Fuente: Asociación Médica Británica Muestra de 7,641

0 10 20 30 40

No gracias

14y59.indd 1 26/02/2008 17:04:33

CONOCIMIENTOTECNOLOGÍAS WEB58 CONOCIMIENTO TECNOLOGÍAS WEB 15

Es un camino repleto de luces y sombras. Las tec-nologías Web, suscritas en las autopistas de la in-formación global, son utilizadas por millones de

personas que, en medio de un entramado de cables, sa-télites, redes, computadoras, televisores, decodificadores e impulsos eléctricos, se integran a la infraestructura del ciber-espacio.

Desde ahí se mueven millones de dólares o euros en las bolsas de valores; expedientes clínicos de pacientes; los últimos avances de la llamada educación a distancia y hasta cartas de amor. Con las tecnologías World Wide

Web, los ciudadanos digitalmente ilustrados realizan com-pras; leen el periódico; escriben y reciben textos oficiales, y hasta se enamoran y casan; se educan e instruyen con lecciones enviadas a través del ordenador por sus mae-stros o con discusiones de grupo organizadas por cate-dráticos virtuales.

ECONOMÍA DIGITAL

Vivimos en medio de lo que ya se conoce como “econo-

La democratización de la Web, un reto mundial

Doctora Patricia Liliana Cerda Pérez Coordinadora del Centro de Investigaciones FCC / [email protected]

mía digital”, en la cual -aseguran los miembros del famoso Club de Roma, al que están adheridos políticos, científicos e intelectuales de 38 países del orbe-, sólo sobrevivirán aquéllos que estén preparados para manejar y asumir la velocidad y los cambios que tales tecnologías comportan cada año.

El mundo de la educación se ha revolucionado con es-

tas tecnologías; la medicina, la ciencia, las relaciones

interpersonales y las comunitarias han sido impacta-

das desde la época de los 90 con esta sociedad de “la

información”, llena de ambivalencias. En ella, la riqueza global del conocimiento se duplica cada cinco años y se torna un factor fundamental para la producción. Empero, las autopistas de la información bien pueden ser califica-das como de “peaje”, porque el acceso a estos bienes no es para nada gratuito. Existe educación virtual, ocio, entretenimiento y hasta sexo virtual en estas “infopistas”; a través de estas mismas redes, los estados difunden leyes y programas; uti

Patricia Liliana Cerda Pérez

Para gestionar la visa

La burocracia electrónica

Son las 6:15 de una fría mañana decembrina en el centro de Londres. Fuera de la Alta Comisión de la India, 109 somnolientas personas esperan que abra

la Sección de Visas. David Robb y su amigo, acurrucados en bolsas de dormir, son los primeros en la fila, y van a gestionar su visa para unas vacaciones proyectadas en Goa. Casi todos los que están en la fila han reservado sus vuelos de avión y casi todas sus vacaciones a través de Internet, mediante pago con tarjeta de crédito.

Estas señales electrónicas procesan información casi a la velocidad de la luz, billones de veces más rápido que los tiritantes humanos en la fila de visas. “¿En este día y época? Terrible”, es el conciso comentario de Robb sobre el sistema hindú de visas.

Y no es sólo porque el pasaporte y su dueño deban estar físicamente presentes. El pago de 30 libras esterlinas debe hacerse en efectivo, la forma de la visa debe llenarse a mano, autenticada con una foto y una firma. El proce-dimiento es prácticamente el mismo desde hace 60 años.

Comparemos esto con otra fila que se forma en Gros-venor Square. Los procedimientos en la Embajada Nortea-mericana son aún más estrictos, y se requiere la presencia de todos los solicitantes, sin opción de usar el correo. Em-

pero, aquí se tiene el uso inteligente de la electrónica.

Las solicitudes deben hacerse en línea, mediante un

pago electrónico no reembolsable. A su vez, el solicitante recibe

una confirmación por correo electrónico, que incluye un código de

barras con información de la forma completa.

Quienes confían en el potencial de la tecnología en la adminis-

tración pública, hablan con frecuencia del e-gobierno o de transfor-mación. Los detalles prácticos a veces resultan vagos, pero el gran cuadro es claro: el gobierno no sólo pone sus servicios en línea,

sino que, al hacerlo, cambia la forma en que funcionan.

En estos tiempos, los gobiernos de los países avanzados ponen en línea prácticamente todos los documentos destinados al público. Esto brinda al ciudadano-consumidor todo lo que puede desear, así como muchas otras cosas que tal vez no desee.

Esto no quiere decir, de ninguna manera, que el solo hecho de proporcionar información sea garantía de buen gobierno (el poder descargar una forma no significa que la embajada vaya a ser eficiente; esto es, que el solicitante vaya a obtener necesariamente su visa. Pese a todo, esto marca un gran cambio. Así como la escasez favorece la corrupción, el conocimiento acarrea poder.

Los países avanzados

58y15.indd 1 26/02/2008 17:04:53

Page 17: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB14 CONOCIMIENTO TECNOLOGÍAS WEB 59

Cada diez minutos, SAPHIRE recibe casos de salas de urgencias, descripciones de pacientes y los síntomas que presentan, y de registros clínicos de ocho hospitales de la zona. Las tecnologías semánticas integran esta información en una sola visión de las condiciones de salud y sanitarias en el área de Houston. SAPHIRE fue usado efectivamente para detectar y contrarrestar epidemias gastrointestina-les, respiratorias y de conjuntivitis en los desplazados por el Huracán Catrina. La aplicación fue configurada para rea-lizar esta función en menos de ocho horas, a partir de que abrieron los refugios. Este caso demostró una de las bon-

dades de los sistemas de la era de la Web Semántica:

“una vez que se configuran para resolver un problema

general, pueden ser adaptados rápidamente para resol-

ver múltiples problemas en la misma área” [3].

EL FUTURO DE LA WEB SEMÁNTICA

Expertos de Project10x [4] vislumbran las tendencias tec-nológicas y de mercado para la Web Semántica para los próximos años. En cuanto a los avances tecnológicos de la Web Semántica se espera un mayor desarrollo en las siguientes áreas:

1. Interfaces de usuario inteligentes que incrementen la productividad y satisfacción del usuario; por ejemplo, a través de la identificación y modelación del usuario y

especificación del contexto.2. Sistemas colectivos de conocimiento donde los usua-

rios colaboren agregando contenido, semántica, modelos y comportamientos.

3. Aplicaciones semánticas que permitan pasar de da-tos contenidos en documentos a conocimiento, convertir procesos fijos en procesos autónomos, y finalmente dar el salto de buscar a conocer y tomar decisiones a partir de procesos de inferencia más robustos.

4. La solución de problemas de escalamiento, comple-jidad y seguridad en bases de conocimiento que provean una infraestructura robusta para el despliegue de aplica-ciones semánticas.

5. Herramientas para modelación semántica que re-duzca tiempo, riesgos y costos en el desarrollo de aplica-ciones.

A partir de un análisis realizado el año pasado [4], es-tos expertos estiman que los mercados para tecnologías

semánticas en el sector de Tecnologías de Información

y Comunicaciones superarán los 50 mil millones de

dólares en 2010.

Como puede observarse, la plataforma está casi lista, las instituciones y compañías están adoptando los nuevos estándares a gran velocidad y empiezan a verse en la prác-tica aplicaciones con un alto valor agregado. Sin embargo, lo que hasta ahora hemos presenciado es sólo la punta del iceberg. Lo mejor está por venir.

REFERENCIAS

[1] Tim Berners-Lee. Semantic Web - XML2000.

http: //www.w3.org/2000/Talks/1206-xml2k-tbl/

[2] Tim Berners-Lee, James Hendler and Ora Lassila.

The Semantics Web, Scientific American, Mayo 2001.

[3] Lee Feigenbaum, Ivan Herman, Tonya Hongser

meier, Eric Neumann, and Susie Stephens. The Se-

mantics Web in action. Scientific American, 297(6), pp.

90-97, Diciembre, 2007.

[4] Mills Davis. Semantic Wave 2008 Report: Industry

Roadmap to Web 3.0 & Multibillion Dollar Market Op

portunities. Project10X’s. Febrero 2008

Ligas de interés

http://www.w3.org/2001/sw/. W3C Semantic Web Ac

tivity

http://protege.stanford.edu/. The Protegé Ontology

Editor and Knowledge Acquisition System.

http://jena.sourceforge.net/. Jena Semantic Web

Framework

http://www.sts.tu-harburg.de/~r.f.moeller/racer/. Rac

er: Renamed ABox and

Concept Expression Reasoner.

http://dbpedia.org/About. DBPedia

M. C. Héctor G. Ceballos

Actual estudiante del Doctorado

en Tecnologías de Información y Comunicaciones con especialidad

en Sistemas Inteligentes.

Ha publicado artículos en

revistas y conferencias

internacionales sobre Ontologías,

Agentes Intelligentes,

Sistemas Multiagentes,

Administración de Conocimiento y

Modelos Causales Probabilísticos.

Además ha coordinado

varios proyectos Web entre los

que destaca la Memoria

Corporativa de Investigación

y Posgrado del Tecnológico de

Monterrey.

La figura muestra las áreas en las que las tecnologías semánticas están recibiendo fondos internacionales para investigación y desarrollo, y cuyo monto estimado para 2010 será de dos mil millones de dólares.

Para ver cuán frustrante puede ser un mal e-gobierno, consideremos el proyecto gubernamental más importante de Inglate-rra: Seleccione y reserve, programa Conexión para la Salud, el programa computarizado de un gobierno no militar más grande del mundo. El objetivo es osado e inspirador: permitir a los pacientes del Servicio Nacio-nal de Salud de Inglaterra, desde luego con la asesoría de sus doctores, seleccionar el tipo de tratamiento que quieren, y reservar una cita para cuando ellos quieran.

Tras tres años de este programa, la realidad se muestra bastante diferente de lo que se pretendía. La Asociación Médica Británica, el organismo que congrega a la mayor parte de los médicos ingleses, le ha llamado un “truco de relaciones públicas”. A la mayor parte de los doctores no les agrada.

En el Grupo de Práctica de Lavender Hill, en el suroeste de Londres, la doctora Helen Lucas está batallando con un bebé que padece una anomalía potencialmente

grave. Aquí, la mayor parte de los pacien-tes son atendidos de inmediato. A quienes requieren la atención de un especialista, se les transfiere, de modo que la práctica es, al mismo tiempo, proveedora de un servi-cio y administradora de escasos recursos. En otros países, el acceso a un especialista depende del costo y de las compañías ase-guradoras. En Inglaterra, el paciente elige… al menos en teoría.

El software de la práctica funciona bien, pero el trámite para seleccionar y reservar

es penosamente lento. El menú de enfer-medades, desde Alergia hasta Urología, no incluye nada que pueda ser de utilidad para este paciente, aun cuando el doctor supiera cuál es el especialista indicado. Anteriormente, le hubiera enviado a éste una carta para explicarle detalladamente el problema, y el paciente hubiera recibi-do atención. Este sistema no era perfecto, pero funcionaba.

Ahora, la pantalla del programa Selec-cione y Reserve muestra una larga lista de especialidades médicas, de modo que es posible seleccionar un médico o un hos-pital. Empero, se presenta tal lista de op-ciones, que más bien causa problemas en lugar de resolverlos. Por ejemplo, se ofre-cen servicios de psiquiatría, pero no se pue-den programar citas en línea.

En otros casos, aunque las citas se reserven como “urgentes” o como “de rutina”, el resultado es exactamente el mismo. A veces, la computadora dice que se desconoce el tiempo de espera, lo que significa que el paciente tendrá que llamar directamente al hospital.

Una fabulosa cantidad de dinero se ha invertido en todo el mundo a fin de poner en línea los servicios del gobierno; sin embargo, es difícil evaluar los resultados, los cuales algunas

veces son desalentadores.Empero, la gran ventaja de la nueva tecnología es que puede dar

un vuelco completo a la burocracia. Por ejemplo, los negocios bien administrados no ven como una molestia las quejas de sus clientes; por lo contrario, utilizan todos los datos recopilados en sitios web y de centros de llamadas para mejorar los productos y servicios que ofrecen.

Los gobiernos podrían hacer lo mismo. Así como las empresas no esperan que los clientes traten por separado con finanzas, logística y departamentos de ventas, así alguien que registra a un niño recién nacido no debería preocuparse por la forma en que podrían usar la información las autoridades hacendarias, la administración de la seguridad social, los servicios de salud, el sistema educativo, los departamentos censales y el gobierno local. Un buen esquema de

gobierno en línea empieza desde el punto de vista del ciudadano,

no del burócrata.

Vuelco a la burocracia

Tomado de The Economist | Traducción de Félix Ramos Gamiño

Servicio Nacional de Salud en Inglaterra

Experiencia médica con el programa Seleccione y Reserve, %

Muy positiva

Bastante positiva

Ni positiva ni negativa

Negativa

Muy negativa

Fuente: Asociación Médica Británica Muestra de 7,641

0 10 20 30 40

No gracias

14y59.indd 1 26/02/2008 17:04:33

CONOCIMIENTOTECNOLOGÍAS WEB58 CONOCIMIENTO TECNOLOGÍAS WEB 15

Es un camino repleto de luces y sombras. Las tec-nologías Web, suscritas en las autopistas de la in-formación global, son utilizadas por millones de

personas que, en medio de un entramado de cables, sa-télites, redes, computadoras, televisores, decodificadores e impulsos eléctricos, se integran a la infraestructura del ciber-espacio.

Desde ahí se mueven millones de dólares o euros en las bolsas de valores; expedientes clínicos de pacientes; los últimos avances de la llamada educación a distancia y hasta cartas de amor. Con las tecnologías World Wide

Web, los ciudadanos digitalmente ilustrados realizan com-pras; leen el periódico; escriben y reciben textos oficiales, y hasta se enamoran y casan; se educan e instruyen con lecciones enviadas a través del ordenador por sus mae-stros o con discusiones de grupo organizadas por cate-dráticos virtuales.

ECONOMÍA DIGITAL

Vivimos en medio de lo que ya se conoce como “econo-

La democratización de la Web, un reto mundial

Doctora Patricia Liliana Cerda Pérez Coordinadora del Centro de Investigaciones FCC / [email protected]

mía digital”, en la cual -aseguran los miembros del famoso Club de Roma, al que están adheridos políticos, científicos e intelectuales de 38 países del orbe-, sólo sobrevivirán aquéllos que estén preparados para manejar y asumir la velocidad y los cambios que tales tecnologías comportan cada año.

El mundo de la educación se ha revolucionado con es-

tas tecnologías; la medicina, la ciencia, las relaciones

interpersonales y las comunitarias han sido impacta-

das desde la época de los 90 con esta sociedad de “la

información”, llena de ambivalencias. En ella, la riqueza global del conocimiento se duplica cada cinco años y se torna un factor fundamental para la producción. Empero, las autopistas de la información bien pueden ser califica-das como de “peaje”, porque el acceso a estos bienes no es para nada gratuito. Existe educación virtual, ocio, entretenimiento y hasta sexo virtual en estas “infopistas”; a través de estas mismas redes, los estados difunden leyes y programas; uti

Patricia Liliana Cerda Pérez

Para gestionar la visa

La burocracia electrónica

Son las 6:15 de una fría mañana decembrina en el centro de Londres. Fuera de la Alta Comisión de la India, 109 somnolientas personas esperan que abra

la Sección de Visas. David Robb y su amigo, acurrucados en bolsas de dormir, son los primeros en la fila, y van a gestionar su visa para unas vacaciones proyectadas en Goa. Casi todos los que están en la fila han reservado sus vuelos de avión y casi todas sus vacaciones a través de Internet, mediante pago con tarjeta de crédito.

Estas señales electrónicas procesan información casi a la velocidad de la luz, billones de veces más rápido que los tiritantes humanos en la fila de visas. “¿En este día y época? Terrible”, es el conciso comentario de Robb sobre el sistema hindú de visas.

Y no es sólo porque el pasaporte y su dueño deban estar físicamente presentes. El pago de 30 libras esterlinas debe hacerse en efectivo, la forma de la visa debe llenarse a mano, autenticada con una foto y una firma. El proce-dimiento es prácticamente el mismo desde hace 60 años.

Comparemos esto con otra fila que se forma en Gros-venor Square. Los procedimientos en la Embajada Nortea-mericana son aún más estrictos, y se requiere la presencia de todos los solicitantes, sin opción de usar el correo. Em-

pero, aquí se tiene el uso inteligente de la electrónica.

Las solicitudes deben hacerse en línea, mediante un

pago electrónico no reembolsable. A su vez, el solicitante recibe

una confirmación por correo electrónico, que incluye un código de

barras con información de la forma completa.

Quienes confían en el potencial de la tecnología en la adminis-

tración pública, hablan con frecuencia del e-gobierno o de transfor-mación. Los detalles prácticos a veces resultan vagos, pero el gran cuadro es claro: el gobierno no sólo pone sus servicios en línea,

sino que, al hacerlo, cambia la forma en que funcionan.

En estos tiempos, los gobiernos de los países avanzados ponen en línea prácticamente todos los documentos destinados al público. Esto brinda al ciudadano-consumidor todo lo que puede desear, así como muchas otras cosas que tal vez no desee.

Esto no quiere decir, de ninguna manera, que el solo hecho de proporcionar información sea garantía de buen gobierno (el poder descargar una forma no significa que la embajada vaya a ser eficiente; esto es, que el solicitante vaya a obtener necesariamente su visa. Pese a todo, esto marca un gran cambio. Así como la escasez favorece la corrupción, el conocimiento acarrea poder.

Los países avanzados

58y15.indd 1 26/02/2008 17:04:53

Page 18: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB16 CONOCIMIENTO TECNOLOGÍAS WEB 57

Jacques Le Goff

Jacques Le Goff (Toulon, 1924) es un historia-dor que ha vinculado su carrera docente a la

Escuela de Altos Estudios Sociales de París. Rep-resentante destacado de la Nouvelle Histoire, de la tercera generación de la Escuela de los Annales, en su obra ha abordado los temas fundamentales del medievo combinando historia, antropología, sociología y la historia de la cultura y de los sistemas económicos.

Entre sus obras destacan: Los intelectuales en la edad media” (1957), La civilización del Occidente medieval (1962), El nacimiento del Purga-torio (1981), La bolsa y la vida (1986), El hombre medieval (1989), Lo maravilloso y lo cotidiano en el Occidente medieval (1986), Mercaderes y banqueros de la Edad Media (1991), El orden de la memoria: el tiempo como imaginario (1991), Pensar la historia: modernidad, presente, pro-greso (2005), La Edad Media explicada a los jóvenes (2007).

lizan sofisticado software para la localización de redes criminales que hoy operan también digitalmente, uti-lizando el fraude cibernético o la pornografía infantil.

‘INFO-RICOS’ - ‘INFO-POBRES’

Ante esta realidad, la comunidad internacional se cuestio-na filosófica y no virtualmente -con una reflexión tardía-, cómo hacer para afrontar los excesos informativos de

la red y la desigualdad potencial que se vive ya entre

aquéllos que son “info-ricos” e “info-pobres”. Los efectos positivos de estas nuevas tecnologías en la salud, la educación, los negocios, sólo pueden ahondarse si esta sociedad, la informatizada, se sustenta en una au-téntica democracia, donde todos estemos conscientes de las consecuencias y la responsabilidad de esta era, porque hablar de economía, educación o información digital no es poca cosa. Todo ello impacta nuestras ideas, valores, hábi-tos y costumbres colectivas y nuestras formas y modos de interrelacionarnos. Frente a este panorama, es necesario entender que la mundialización del mercado reclama tam-bién nuevas leyes.

Urgen acuerdos internacionales en cuestiones básicas como la regularización del comercio electrónico, el control y responsabilidad sobre contenidos, derechos de autor y el freno a los monopolios que ya de hecho se tienen. El 85

por ciento del negocio de las telecomunicaciones se con-

centra en Estados Unidos, la Unión Europea y Japón.

La concentración de este poder a escala multinacional, en unas pocas manos que tienen dinero, tecnología, y con ello definen los contenidos en los medios de comunicación ma-siva en informaciones y entretenimiento en el mundo oc-cidental, trajo un nuevo orden internacional, y es fecha en que aún no dilucidamos cuáles serán sus consecuencias. Es claro que no será el mercado, sino el Estado el que acep-tará la carga de impulsar el desarrollo de redes, incluso con inversiones públicas, para garantizar la igualdad de acceso de todos los ciudadanos, y con ello evitar nuevas discriminaciones entre éstos; es decir, entre “info-ricos e info-pobres” que existen en cada nación y que se evidencia aún más cuando se comparan las brechas educativas, de

salud, información e ingreso entre los países desarrol-

lados y aquéllos que están en vías de serlo.

DESAFÍO DE HOY

La democratización de la red es el desafío mundial. El im-pulso a la calidad de información que circula por mi-llones para activar la tolerancia y el diálogo que, en pa-labras de Jacques Le Goff, director de la Escuela de Altos Estudios Sociales de París, equivaldría a “no reducir a unidad la diversidad, sino a lograr una diversidad convergente”. Ésa es, en pocas palabras, una responsabilidad de todos.

Actualmente el portal en Internet del Gobierno del Estado de Nuevo León cuenta ya con más del 90 por ciento de su contenido accesible para todos

los usuarios, incluso para aquéllos que presentan defi-ciencias visuales. Además, existen secciones de la página

que cuentan con la certificación de la Iniciativa de Ac-

cesibilidad Web (WAI por sus siglas en inglés) que otor-

ga el Consorcio World Wide Web (W3C) a los sitios que cumplen con un conjunto de lineamientos en cuestión de accesibilidad.

La propuesta de llevar a cabo esta acción fue hecha por el Observatorio Ciudadano, organismo que desde 2005 emite recomendaciones al gobernador para mejorar el desempeño y utilidad del portal. José Ignacio Suárez García, presidente del observatorio, explicó que no se trata de hacer una sección o una página nueva, sino de tener el contenido del portal par a todos los usuarios, incluyendo a personas con capacidades diferentes.

CERTIFICACIÓN DE ACCESIBILIDAD

“No consiste en crear o convertir el portal, o hacer uno para personas con discapacidad, sino simplemente hacer-lo accesible, como debe ser y como la ley lo dice en materia de edificios públicos, acceso a la información y otros as-pectos de la accesibilidad. Aquí lo que estamos hablando es del contenido que se genera en el portal del Gobierno del Estado, y hacerlo accesible, para lo cual se logró una certificación de accesibilidad, lo que implica que el portal es accesible a personas con discapacidad visual”, detalló.

Para ofrecer este tipo de accesibilidad, se tienen que

cumplir aspectos muy diversos, como la etiquetación de

gráficos, y asegurar la compatibilidad con programas de

lectores de pantalla que ayudan a las personas a acceder

a la información de otra manera.

“Una persona con discapacidad visual que acceda al portal mediante un lector de pantalla, que es una apli-cación de software, va a poder acceder a todos los con-tenidos del portal.

TECNOLOGÍA ADAPTADA

Una persona ciega entra al portal y en vez de leerlo con la vista, un software lee literalmente todo lo que está en la pantalla a través de voz, y para que ese software no tenga problemas en la interpretación de la información al usua-rio, se cuenta con esta certificación que le dice a la per-sona con discapacidad visual o a los usuarios en general que el portal es accesible y que puede ser leído con tec-nología adaptada”.Destaca que actualmente sólo la página principal y la sección de temas cuentan con la certificación

WAI. Casi todo el contenido de la página es accesible y se buscará que todo cuente con el certificado. Suárez Gar-cía mencionó que es muy difícil tener una perspectiva del impacto que este servicio ha tenido en la comunidad por la naturaleza diversa en los usuarios que acceden al sitio; sin embargo, dijo que en la práctica, personas allegadas al observatorio y a la Asociación Mexicana de la Retinitis Pigmentosa y Enfermedades de la Retina que también pre-side, han manifestado que la accesibilidad representa un gran beneficio en el uso del portal, principalmente en la realización de trámites y obtención de información en la parte de atención ciudadana.

Agregó que entre los trabajos ya realizados existen

otras acciones, como la de poner a disposición del usua-

rio las leyes y reglamentos del Estado en formatos de

audio para que puedan ser descargados en una versión

diferente al texto. “Este proyecto aún está en marcha. El objetivo es hacer que todas las leyes y reglamentos se puedan descargar en formatos de audio y ya están en la página. Actualmente hay nueve o diez leyes, incluida la Constitución del Estado de Nuevo León y algunas otras leyes que seleccionamos como prioritarias”.

Suárez García concluyó que entre los trabajos a futuro del Observatorio Ciudadano, se continuará trabajando en temas de accesibilidad en cuestión de transparencia, además de que se realizará una evaluación ciudadana para emitir recomendaciones en las áreas de atención ciudada-na y trámites y servicios.

Accesible para ciegos el Portal Internet del Gobierno del Estado

José Ignacio Suárez García.

16y57.indd 1 26/02/2008 17:05:13

CONOCIMIENTOTECNOLOGÍAS WEB56 CONOCIMIENTO TECNOLOGÍAS WEB 17

Sumergido en sus pensamientos emprendedores, Alex Tew trataba de hallar la forma de conseguir dinero para cubrir su educación en la Universidad de Not-

tingham; sin embargo, no lograba ningún momento “Eu-reka” que lo convenciera. Pero, entre las múltiples ideas, y viendo que no tenía nada que perder, se le ocurrió crear un sitio Web, con la idea de vender un millón de “pixeles” (acrónimo del inglés picture element; es decir, “elemento de la imagen”).

Esta idea de negocio parecía no tener sentido alguno; sin embargo, de acuerdo con datos de Wikipedia, el sitio (http://www.milliondollarhomepage.com) fue lanzado el 26 de agosto de 2005, y para el 11 de enero de 2006 se vendieron los últimos mil pixeles en una subasta. Por in-creíble que parezca, Tew logró la grandiosa suma de un millón 37 mil cien dólares americanos, y lo mejor fue que esto ocurrió en tan sólo poco más de cuatro meses.

Es impresionante observar cómo, en este caso, el po-

der de la economía descansa en personas y no en cor-

poraciones; en emprendedores que logran descifrar la

psicología de compra del ser humano.

Lo anterior no es un caso aislado; todos los días siguen

Hacia una democratización de la economía

Modelos de negocios Web

MaestroRodrigo SotoConsultor Economía de las [email protected]

Rodrigo Soto

prosperando los modelos de negocios basados en la Web, y podemos mencionar diversos ejemplos al respecto.

EL CASO DE FACEBOOK Y SU CREADOR

Vivimos en la economía de Mark Zuckerberg, creador de la red social de Facebook (www.facebook.com), a la cual

Microsoft, según datos del New York Times, recientemente compró la insignificante cantidad del 1.6 por ciento, por un monto de 240 millones de dólares. ¿Qué está comp-rando Microsoft en este caso? ¿Lealtad de consumidores? ¿Exposición de su marca?

Los datos de Wikipedia arrojan algunas estadísticas in teresantes sobre Facebook:Usuarios activos: Sobrepasa los 60 millones

Usuarios al día: 250 mil

Búsquedas: Sobrepasa 500 millones al mes

Fotos: 1.7 mil millones

Sin embargo, lo más interesante de este modelo Web es que los usuarios se pueden inscribir de forma gratuita en el sitio, con el objetivo de establecer su red social de amigos para el intercambio de ideas, sentimientos, fechas, actividades, relaciones y, por supuesto, fotos, entre mu-chas cosas más.

Aquí también es importante preguntarse por qué em-presas como Coca Cola, entre otras, se han preocupado de anunciarse en esta red social, así como por aumentar su número de afiliados a su página.

Simplemente, al afiliarse a estos sitios, las empresas

han encontrado laboratorios de análisis, exposición de

marca y lealtad de consumidores. Coca Cola sabe que

la exposición en este tipo de medios actúa como un

mecanismo de retroalimentación sobre los productos y

servicios que ofrece. Además, se pueden comunicar con grupos compactos de usuarios que comparten ideas y per-cepciones en común hacia la marca en particular, y con-tinuar siendo una imagen mística como marca.

Universidad de Brown (2005)

Universidad de Brown (2006 y 2007)

UNPAN Web Measure Index (2005)

Universidad de Wasaeda (2007)

1 Taiwán Corea del Sur Estados Unidos Estados Unidos

2 Singapur Singapur Reino Unido Singapur

3 Estados Unidos Taiwán Singapur Canadá

4 Hong Kong Estados Unidos Corea del Sur Japón

5 China Reino Unido Dinamarca Corea del Sur

6 Canadá Canadá Chile Australia

7 Alemania Portugal Australia Finlandia

8 Australia Australia Canadá Taiwán

9 Irlanda Turquía Suecia Reino Unido

10 Vaticano Alemania Alemania Suecia

11 Reino Unido Irlanda Finlandia Alemania

12 Bahamas Suiza México Francia

13 Chile Brasil Japón Hong Kong

14 Macedonia Dominica Nueva Zelanda Italia

15 Chad Bahrein Noruega Malasia

16 Estonia Liechtenstein Malta Nueva Zelanda

17 Finlandia Guinea Ecuatorial Brasil Tailandia

18 Guinea Ecuatorial Andorra Austria Holanda

19 Holanda Nueva Zelanda Filipinas Noruega

20 Suiza Italia Holanda Bélgica

21 Belice España Israel España

22 Israel Hong Kong Bélgica Chile

23 Irán Finlandia Irlanda Filipinas

24 Nueva Zelanda Vaticano Hungría México

25 Qatar Malasia Estonia Brasil

26 Emiratos Árabes Unidos Holanda China

27 Siria República Checa Brunei

28 Dinamarca Brunei Sudáfrica

29 México Chipre Perú

30 Benin Liberia Indonesia

31 Austria Vietnam

32 Azerbaiján Rusia

5. Facilitar y promover la participación ciudadana en

los temas gubernamentales, así como la colaboración entre gobiernos.6. Promover la convergencia de sistemas gubernamen-

tales en los niveles federal, estatal y municipal para una interacción sin barreras.7. Aprovechar el potencial de las tecnologías de infor-mación para mejorar la atención a los ciudadanos.8. Asegurar que el contenido sea entendido fácilmente

por todas las personas siguiendo las recomendaciones de Lenguaje Ciudadano.9. Promover los ideales y los conceptos expresados en este manifiesto.10. Mejorar constantemente las metodologías referidas en este documento.

¿QUIÉNES LO RESPALDAN?

El manifiesto está respaldado por 22 estados y el Distrito Federal. Fue enriquecido por un consejo consultivo for-mado con los conferencistas del Seminario: Louis Rosen-feld (Estados Unidos), Paulo Saavedra (Chile), Sarah Swi-erenga (Estados Unidos), Marcelo Barbosa (Brasil), Salomé Flores (México), Javier Velasco (Chile), Luis Carlos Aceves (México) y Sharron Rush (Estados Unidos). El documento fue atestiguado por organizaciones de diversa naturale-za como la Asociación Mexicana de Internet (AMIPCI), el Sistema Internet de la Presidencia (SIP) y la Universidad de Monterrey (UDEM).

El seguimiento y resguardo de los principios del mani-fiesto están a cargo de UA Web (Usabilidad y Accesibili-dad para la Web A.C.), asociación que cuenta con la par-ticipación del consejo consultivo del Manifiesto y de otros promotores regionales, nacionales e internacionales.

PRÓXIMOS PASOS

Este manifiesto será el documento que guiará los gobiernos de los estados mexicanos para que con-tar con portales centrados en los ciudadanos. Hasta el día de hoy, no existe un precedente similar donde el gobierno exprese públicamente su intención de mejorar continuamente su oferta a través de Internet.

Por otro lado, el manifiesto es el preámbulo ideal para promover la promulgación de una ley de usabilidad y acce-sibilidad en sitios web mexicanos en lo general.

Conforme se divulgue y aplique este manifiesto, crecerá la posibilidad de convertirlo en una iniciativa lati-noamericana e inclusive iberoamericana.

REFERENCIAS

Baeza-Yates R, Rivera C. & Velasco J. (2004) Arquitectura de la información y usabilidad en la web. El Profesional de la Información. pp 168-178. EspañaSandoval R. & Gil-García J. R. (2006) A examen, los portales .gob estatales. Política Digital. Ed. Nexos, pp 30-32. MéxicoUAWEB. (2007) Manifiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos. Disponible en: http://www.uaweb.org.mx/content/view/61/79/lang,es/United Nations [UN], (2005) UN Global E-government Readiness Report. Publicado en línea en: http://www.unpan.org/dpepa-egovernment%20readiness%20report.aspWorld Usability Day Charter. (2006) Word Usability Day. Usability Professionals’ Association. Disponible en: http://www.worldusabilityday.org/charter/?lang=eng

56y17.indd 1 26/02/2008 17:05:29

Page 19: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB16 CONOCIMIENTO TECNOLOGÍAS WEB 57

Jacques Le Goff

Jacques Le Goff (Toulon, 1924) es un historia-dor que ha vinculado su carrera docente a la

Escuela de Altos Estudios Sociales de París. Rep-resentante destacado de la Nouvelle Histoire, de la tercera generación de la Escuela de los Annales, en su obra ha abordado los temas fundamentales del medievo combinando historia, antropología, sociología y la historia de la cultura y de los sistemas económicos.

Entre sus obras destacan: Los intelectuales en la edad media” (1957), La civilización del Occidente medieval (1962), El nacimiento del Purga-torio (1981), La bolsa y la vida (1986), El hombre medieval (1989), Lo maravilloso y lo cotidiano en el Occidente medieval (1986), Mercaderes y banqueros de la Edad Media (1991), El orden de la memoria: el tiempo como imaginario (1991), Pensar la historia: modernidad, presente, pro-greso (2005), La Edad Media explicada a los jóvenes (2007).

lizan sofisticado software para la localización de redes criminales que hoy operan también digitalmente, uti-lizando el fraude cibernético o la pornografía infantil.

‘INFO-RICOS’ - ‘INFO-POBRES’

Ante esta realidad, la comunidad internacional se cuestio-na filosófica y no virtualmente -con una reflexión tardía-, cómo hacer para afrontar los excesos informativos de

la red y la desigualdad potencial que se vive ya entre

aquéllos que son “info-ricos” e “info-pobres”. Los efectos positivos de estas nuevas tecnologías en la salud, la educación, los negocios, sólo pueden ahondarse si esta sociedad, la informatizada, se sustenta en una au-téntica democracia, donde todos estemos conscientes de las consecuencias y la responsabilidad de esta era, porque hablar de economía, educación o información digital no es poca cosa. Todo ello impacta nuestras ideas, valores, hábi-tos y costumbres colectivas y nuestras formas y modos de interrelacionarnos. Frente a este panorama, es necesario entender que la mundialización del mercado reclama tam-bién nuevas leyes.

Urgen acuerdos internacionales en cuestiones básicas como la regularización del comercio electrónico, el control y responsabilidad sobre contenidos, derechos de autor y el freno a los monopolios que ya de hecho se tienen. El 85

por ciento del negocio de las telecomunicaciones se con-

centra en Estados Unidos, la Unión Europea y Japón.

La concentración de este poder a escala multinacional, en unas pocas manos que tienen dinero, tecnología, y con ello definen los contenidos en los medios de comunicación ma-siva en informaciones y entretenimiento en el mundo oc-cidental, trajo un nuevo orden internacional, y es fecha en que aún no dilucidamos cuáles serán sus consecuencias. Es claro que no será el mercado, sino el Estado el que acep-tará la carga de impulsar el desarrollo de redes, incluso con inversiones públicas, para garantizar la igualdad de acceso de todos los ciudadanos, y con ello evitar nuevas discriminaciones entre éstos; es decir, entre “info-ricos e info-pobres” que existen en cada nación y que se evidencia aún más cuando se comparan las brechas educativas, de

salud, información e ingreso entre los países desarrol-

lados y aquéllos que están en vías de serlo.

DESAFÍO DE HOY

La democratización de la red es el desafío mundial. El im-pulso a la calidad de información que circula por mi-llones para activar la tolerancia y el diálogo que, en pa-labras de Jacques Le Goff, director de la Escuela de Altos Estudios Sociales de París, equivaldría a “no reducir a unidad la diversidad, sino a lograr una diversidad convergente”. Ésa es, en pocas palabras, una responsabilidad de todos.

Actualmente el portal en Internet del Gobierno del Estado de Nuevo León cuenta ya con más del 90 por ciento de su contenido accesible para todos

los usuarios, incluso para aquéllos que presentan defi-ciencias visuales. Además, existen secciones de la página

que cuentan con la certificación de la Iniciativa de Ac-

cesibilidad Web (WAI por sus siglas en inglés) que otor-

ga el Consorcio World Wide Web (W3C) a los sitios que cumplen con un conjunto de lineamientos en cuestión de accesibilidad.

La propuesta de llevar a cabo esta acción fue hecha por el Observatorio Ciudadano, organismo que desde 2005 emite recomendaciones al gobernador para mejorar el desempeño y utilidad del portal. José Ignacio Suárez García, presidente del observatorio, explicó que no se trata de hacer una sección o una página nueva, sino de tener el contenido del portal par a todos los usuarios, incluyendo a personas con capacidades diferentes.

CERTIFICACIÓN DE ACCESIBILIDAD

“No consiste en crear o convertir el portal, o hacer uno para personas con discapacidad, sino simplemente hacer-lo accesible, como debe ser y como la ley lo dice en materia de edificios públicos, acceso a la información y otros as-pectos de la accesibilidad. Aquí lo que estamos hablando es del contenido que se genera en el portal del Gobierno del Estado, y hacerlo accesible, para lo cual se logró una certificación de accesibilidad, lo que implica que el portal es accesible a personas con discapacidad visual”, detalló.

Para ofrecer este tipo de accesibilidad, se tienen que

cumplir aspectos muy diversos, como la etiquetación de

gráficos, y asegurar la compatibilidad con programas de

lectores de pantalla que ayudan a las personas a acceder

a la información de otra manera.

“Una persona con discapacidad visual que acceda al portal mediante un lector de pantalla, que es una apli-cación de software, va a poder acceder a todos los con-tenidos del portal.

TECNOLOGÍA ADAPTADA

Una persona ciega entra al portal y en vez de leerlo con la vista, un software lee literalmente todo lo que está en la pantalla a través de voz, y para que ese software no tenga problemas en la interpretación de la información al usua-rio, se cuenta con esta certificación que le dice a la per-sona con discapacidad visual o a los usuarios en general que el portal es accesible y que puede ser leído con tec-nología adaptada”.Destaca que actualmente sólo la página principal y la sección de temas cuentan con la certificación

WAI. Casi todo el contenido de la página es accesible y se buscará que todo cuente con el certificado. Suárez Gar-cía mencionó que es muy difícil tener una perspectiva del impacto que este servicio ha tenido en la comunidad por la naturaleza diversa en los usuarios que acceden al sitio; sin embargo, dijo que en la práctica, personas allegadas al observatorio y a la Asociación Mexicana de la Retinitis Pigmentosa y Enfermedades de la Retina que también pre-side, han manifestado que la accesibilidad representa un gran beneficio en el uso del portal, principalmente en la realización de trámites y obtención de información en la parte de atención ciudadana.

Agregó que entre los trabajos ya realizados existen

otras acciones, como la de poner a disposición del usua-

rio las leyes y reglamentos del Estado en formatos de

audio para que puedan ser descargados en una versión

diferente al texto. “Este proyecto aún está en marcha. El objetivo es hacer que todas las leyes y reglamentos se puedan descargar en formatos de audio y ya están en la página. Actualmente hay nueve o diez leyes, incluida la Constitución del Estado de Nuevo León y algunas otras leyes que seleccionamos como prioritarias”.

Suárez García concluyó que entre los trabajos a futuro del Observatorio Ciudadano, se continuará trabajando en temas de accesibilidad en cuestión de transparencia, además de que se realizará una evaluación ciudadana para emitir recomendaciones en las áreas de atención ciudada-na y trámites y servicios.

Accesible para ciegos el Portal Internet del Gobierno del Estado

José Ignacio Suárez García.

16y57.indd 1 26/02/2008 17:05:13

CONOCIMIENTOTECNOLOGÍAS WEB56 CONOCIMIENTO TECNOLOGÍAS WEB 17

Sumergido en sus pensamientos emprendedores, Alex Tew trataba de hallar la forma de conseguir dinero para cubrir su educación en la Universidad de Not-

tingham; sin embargo, no lograba ningún momento “Eu-reka” que lo convenciera. Pero, entre las múltiples ideas, y viendo que no tenía nada que perder, se le ocurrió crear un sitio Web, con la idea de vender un millón de “pixeles” (acrónimo del inglés picture element; es decir, “elemento de la imagen”).

Esta idea de negocio parecía no tener sentido alguno; sin embargo, de acuerdo con datos de Wikipedia, el sitio (http://www.milliondollarhomepage.com) fue lanzado el 26 de agosto de 2005, y para el 11 de enero de 2006 se vendieron los últimos mil pixeles en una subasta. Por in-creíble que parezca, Tew logró la grandiosa suma de un millón 37 mil cien dólares americanos, y lo mejor fue que esto ocurrió en tan sólo poco más de cuatro meses.

Es impresionante observar cómo, en este caso, el po-

der de la economía descansa en personas y no en cor-

poraciones; en emprendedores que logran descifrar la

psicología de compra del ser humano.

Lo anterior no es un caso aislado; todos los días siguen

Hacia una democratización de la economía

Modelos de negocios Web

MaestroRodrigo SotoConsultor Economía de las [email protected]

Rodrigo Soto

prosperando los modelos de negocios basados en la Web, y podemos mencionar diversos ejemplos al respecto.

EL CASO DE FACEBOOK Y SU CREADOR

Vivimos en la economía de Mark Zuckerberg, creador de la red social de Facebook (www.facebook.com), a la cual

Microsoft, según datos del New York Times, recientemente compró la insignificante cantidad del 1.6 por ciento, por un monto de 240 millones de dólares. ¿Qué está comp-rando Microsoft en este caso? ¿Lealtad de consumidores? ¿Exposición de su marca?

Los datos de Wikipedia arrojan algunas estadísticas in teresantes sobre Facebook:Usuarios activos: Sobrepasa los 60 millones

Usuarios al día: 250 mil

Búsquedas: Sobrepasa 500 millones al mes

Fotos: 1.7 mil millones

Sin embargo, lo más interesante de este modelo Web es que los usuarios se pueden inscribir de forma gratuita en el sitio, con el objetivo de establecer su red social de amigos para el intercambio de ideas, sentimientos, fechas, actividades, relaciones y, por supuesto, fotos, entre mu-chas cosas más.

Aquí también es importante preguntarse por qué em-presas como Coca Cola, entre otras, se han preocupado de anunciarse en esta red social, así como por aumentar su número de afiliados a su página.

Simplemente, al afiliarse a estos sitios, las empresas

han encontrado laboratorios de análisis, exposición de

marca y lealtad de consumidores. Coca Cola sabe que

la exposición en este tipo de medios actúa como un

mecanismo de retroalimentación sobre los productos y

servicios que ofrece. Además, se pueden comunicar con grupos compactos de usuarios que comparten ideas y per-cepciones en común hacia la marca en particular, y con-tinuar siendo una imagen mística como marca.

Universidad de Brown (2005)

Universidad de Brown (2006 y 2007)

UNPAN Web Measure Index (2005)

Universidad de Wasaeda (2007)

1 Taiwán Corea del Sur Estados Unidos Estados Unidos

2 Singapur Singapur Reino Unido Singapur

3 Estados Unidos Taiwán Singapur Canadá

4 Hong Kong Estados Unidos Corea del Sur Japón

5 China Reino Unido Dinamarca Corea del Sur

6 Canadá Canadá Chile Australia

7 Alemania Portugal Australia Finlandia

8 Australia Australia Canadá Taiwán

9 Irlanda Turquía Suecia Reino Unido

10 Vaticano Alemania Alemania Suecia

11 Reino Unido Irlanda Finlandia Alemania

12 Bahamas Suiza México Francia

13 Chile Brasil Japón Hong Kong

14 Macedonia Dominica Nueva Zelanda Italia

15 Chad Bahrein Noruega Malasia

16 Estonia Liechtenstein Malta Nueva Zelanda

17 Finlandia Guinea Ecuatorial Brasil Tailandia

18 Guinea Ecuatorial Andorra Austria Holanda

19 Holanda Nueva Zelanda Filipinas Noruega

20 Suiza Italia Holanda Bélgica

21 Belice España Israel España

22 Israel Hong Kong Bélgica Chile

23 Irán Finlandia Irlanda Filipinas

24 Nueva Zelanda Vaticano Hungría México

25 Qatar Malasia Estonia Brasil

26 Emiratos Árabes Unidos Holanda China

27 Siria República Checa Brunei

28 Dinamarca Brunei Sudáfrica

29 México Chipre Perú

30 Benin Liberia Indonesia

31 Austria Vietnam

32 Azerbaiján Rusia

5. Facilitar y promover la participación ciudadana en

los temas gubernamentales, así como la colaboración entre gobiernos.6. Promover la convergencia de sistemas gubernamen-

tales en los niveles federal, estatal y municipal para una interacción sin barreras.7. Aprovechar el potencial de las tecnologías de infor-mación para mejorar la atención a los ciudadanos.8. Asegurar que el contenido sea entendido fácilmente

por todas las personas siguiendo las recomendaciones de Lenguaje Ciudadano.9. Promover los ideales y los conceptos expresados en este manifiesto.10. Mejorar constantemente las metodologías referidas en este documento.

¿QUIÉNES LO RESPALDAN?

El manifiesto está respaldado por 22 estados y el Distrito Federal. Fue enriquecido por un consejo consultivo for-mado con los conferencistas del Seminario: Louis Rosen-feld (Estados Unidos), Paulo Saavedra (Chile), Sarah Swi-erenga (Estados Unidos), Marcelo Barbosa (Brasil), Salomé Flores (México), Javier Velasco (Chile), Luis Carlos Aceves (México) y Sharron Rush (Estados Unidos). El documento fue atestiguado por organizaciones de diversa naturale-za como la Asociación Mexicana de Internet (AMIPCI), el Sistema Internet de la Presidencia (SIP) y la Universidad de Monterrey (UDEM).

El seguimiento y resguardo de los principios del mani-fiesto están a cargo de UA Web (Usabilidad y Accesibili-dad para la Web A.C.), asociación que cuenta con la par-ticipación del consejo consultivo del Manifiesto y de otros promotores regionales, nacionales e internacionales.

PRÓXIMOS PASOS

Este manifiesto será el documento que guiará los gobiernos de los estados mexicanos para que con-tar con portales centrados en los ciudadanos. Hasta el día de hoy, no existe un precedente similar donde el gobierno exprese públicamente su intención de mejorar continuamente su oferta a través de Internet.

Por otro lado, el manifiesto es el preámbulo ideal para promover la promulgación de una ley de usabilidad y acce-sibilidad en sitios web mexicanos en lo general.

Conforme se divulgue y aplique este manifiesto, crecerá la posibilidad de convertirlo en una iniciativa lati-noamericana e inclusive iberoamericana.

REFERENCIAS

Baeza-Yates R, Rivera C. & Velasco J. (2004) Arquitectura de la información y usabilidad en la web. El Profesional de la Información. pp 168-178. EspañaSandoval R. & Gil-García J. R. (2006) A examen, los portales .gob estatales. Política Digital. Ed. Nexos, pp 30-32. MéxicoUAWEB. (2007) Manifiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos. Disponible en: http://www.uaweb.org.mx/content/view/61/79/lang,es/United Nations [UN], (2005) UN Global E-government Readiness Report. Publicado en línea en: http://www.unpan.org/dpepa-egovernment%20readiness%20report.aspWorld Usability Day Charter. (2006) Word Usability Day. Usability Professionals’ Association. Disponible en: http://www.worldusabilityday.org/charter/?lang=eng

56y17.indd 1 26/02/2008 17:05:29

Page 20: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB18 CONOCIMIENTO TECNOLOGÍAS WEB 55

SECOND LIFE

Vivimos también dentro de espacios vir-tua-les, como es el caso de Second Life, mejor conocido como “SL”, que es un mundo virtual que permite a los usuarios recrearse o tener una segunda vida en este lugar. Se basa en que cada uno de los usu-arios o “residentes” crean su avatar (repre-sentación del usuario, de su otro yo, en un

modelo computacional tridimensional) para comenzar a vivir en este mundo virtual.

Es interesante observar que SL tiene su propia

economía y moneda que son los dólares Linden, conoci-

dos como $L y todos los residentes pueden hacer nego-

cio entre sí. De acuerdo con Spencer Reiss, Virtual Econo-mics calculó que tan sólo en el mes de septiembre de 2005, la economía de Second Life generó en transacciones alre-dedor de tres millones 596 mil 674 dólares. Esto, toman-do un tipo de cambio de 252 Linden dólar, equivalente a un dólar americano.

Pero todavía nos falta tratar un tema muy interesante en el modelo de negocios Web, y esto es lo que Chris An-dersen trata en su artículo “Why $0.00 is the Future of Busi-ness” en Wired, donde se analiza la ciencia de lo gratis. Veamos la taxonomía de lo gratis, de acuerdo con Ander-sen:

a) Freemium. Lo gratis aquí es el software y servicios, así como algo de contenido. La idea básica en Web es lo que llaman la regla del uno por ciento sobre el 99 por cien-to. Esto indica que el uno por ciento de los usuarios que paga por un servicio o software puede mantener al 99 por ciento que tiene la versión gratis.

b) Advertising. Aquí son gratis el contenido, el soft-ware, los servicios y más. Se basa en el principio de que los ofrecimientos gratis crean audiencias con distintos intere-ses, y de que, expresando sus necesidades, los mercadólo-gos pagarán por conocerlos y llegar a ellos.

c) Cross-subsidies. Se pone un producto gratis que pue-de enganchar a los usuarios para que compren otro.

d) Labor Exchange. Lo gratis son los sitios de Internet y los servicios. Al usar el servicio Web, se crea un valor, ya sea para mejorar el servicio o acumulando información que puede ser útil en otro lugar.

e) Zero Marginal Cost. Productos que se distribuyen sin algún costo apreciable para los consumidores. Un ejemplo claro es cuando los artistas ponen su música en línea gratis y de esa forma pueden poner en el mercado otros productos.

f) Gift Economy. Todo lo denominado open source o el contenido generado por los usuarios. El ejemplo más claro es la tradicional Wikipedia.

NEGOCIOS DEL FUTURO

Otra de las vertientes en los negocios del futuro son aqué-llos como CBS, que planea ofrecer publicidad basada en la localización de la persona por medio de su teléfono móvil; es decir, analizando los gustos y preferencias de los con-sumidores, la publicidad será personalizada, indicándoles a los usuarios dónde pueden encontrar un producto o ser-vicio de su preferencia.

Google va más allá, y ya trabaja en un buscador de voz para los celulares. Me imagino que uno, como usua-rio, puede realizar una búsqueda, pero de voz, para que no sólo se nos diga el lugar donde se encuentra el satisfactor que buscamos, sino que también por medio de “Google maps” se nos lleve de la mano, con GPS, sumado con las coordenadas de nuestro teléfono, al lugar donde podemos adquirir ese producto o servicio.

Según el artículo de Chris Andersen en Wired y los da-tos de Jingle Networks, Linguistic Data Consortium, Opus Research, el ingreso esperado para Google aunado a este servicio de búsqueda en los celulares será de 2.5 mil mil-lones de dólares en el año 2012.

Pero el verdadero beneficio de los modelos de nego-cios basados en Web es su búsqueda por democratizar la economía, por darles poder a los consumidores y eliminar el que ostentan las corporaciones, así como buscan comul-gar con lo que ha dicho el padre escocés de la economía, Adam Smith: “No puede haber una sociedad floreciente y

co. Dicha evaluación analiza los Sitios Web del gobierno en función de cinco elementos: información, interacción, transacción, integración y participación. Esta evaluación se actualizó recientemente, y fue publicada por la revista Política Digital (Sandoval & Gil-García, 2006)

Estas evaluaciones han logrado que las autoridades pongan especial atención al desarrollo de sus portales, pero sin incluir explícitamente aspectos de usabilidad y de accesibilidad de la Web.

Por otro lado, el Centro de Investigación de la Web,

de la Universidad de Chile, indica que la usabilidad se

encuentra en una etapa de introducción en Iberoaméri-

ca. De acuerdo con lo anterior, se puede concluir que uno de los principales problemas en el rezago del área de la usabilidad ha sido su propia difusión (Baeza-Yates, Rivera & Velasco, 2004).

Ahora bien, ¿qué propone el Manifiesto de Usabi-

lidad y Accesibilidad para Portales Gubernamentales

Mexicanos?

El manifiesto

expresa los siguientes

puntos (UAWEB, 2007): 1. Asegurar el acceso

democrático, inclusive a

personas con discapacidad,

a los portales gubernamen-

tales, cumpliendo con los estándares del W3C.2. Facilitar la creación, el archivo y la administración del contenido utilizando sistemas accesibles. 3. Asegurar que el conteni-

do y los servicios sean fáciles de encontrar, descubrir

y usar según las mejores prácticas de diseño y desarrollo web.4. Garantizar la transparencia de la información, específi-camente en el uso de recursos públicos.

Actualmente, muchos gobiernos en el mundo están fortaleciendo sus estrategias en la web, donde el objetivo principal va más allá de ofrecer información

en línea. Ahora, el objetivo es ofrecer un portal ciudadano con herramientas y servicios personalizados, donde cada miembro de la sociedad tenga un papel más activo dentro de su gobierno y su propia comunidad.

En julio de 2007 se llevó a cabo en Monterrey, México el Seminario Internacional de Usabilidad y Accesibilidad para la Web. Este evento reunió a cerca de 250 asistentes, entre los que se encontraban administradores de portales gubernamentales de 23 de los 32 estados de la República Mexicana. A la conclusión del encuentro, se firmó el Mani-fiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos.

¿POR QUÉ UN MANIFIESTO?

Un manifiesto es un documento con una exposición o declaración pública de principios o motivos de un sec-tor gubernamental o social a través del cual reflejan sus creencias.

Este manifiesto expresa el compromiso que los tres diferentes niveles de gobierno (federal, estatal, local) seguirán en México para garantizar que la sociedad pueda aprovechar los beneficios de un portal gubernamental.

El manifiesto espera lograr dos objetivos: por un lado, expresa la intención de realizar esfuerzos concertados para mejorar la comunicación e interacción gobierno-so-ciedad; por otro lado, apoya el tercer artículo de la decla-ratoria realizada en el marco del Día Mundial de la Usabi-lidad (World Usability Day Charter, 2006), relacionado con el gobierno.

GOBIERNO ELECTRÓNICO EN MÉXICO

Existen diferentes rankings que evalúan los avances y logros de los países en cuanto al desarrollo de Gobierno Electrónico. En prácticamente todos ellos, México está

fuera de los primeros diez lugares.

En México se han empezado a medir los portales gu-

bernamentales estatales. A principios de 2006 se publicó

la Primera Evaluación de Portales Web Estatales en Méxi-

El Manifiestode Usabilidad y Accesibilidad para Portales Gubernamentales Mexicanos Luis Carlos Aceves Gutiérrez

Ingeniero Luis Carlos Aceves Gutiérrez Profesor del Departamento de Ciencias Computacionales Universidad de [email protected].

18y55.indd 1 26/02/2008 17:05:43

CONOCIMIENTOTECNOLOGÍAS WEB54 CONOCIMIENTO TECNOLOGÍAS WEB 19

feliz cuando la mayor parte de sus miembros son pobres y desdichados”.

En realidad, no queremos que existan Leviatanes monopólicos y que solamente exista una verdad universal, sino que el libre juego de la oferta y la demanda hagan su

papel conjuntamente con cada uno de nosotros como usua-

rios, que no solamente somos pasivos, sino activos en la

transformación de los negocios sustentados en Web.

Los datos del Banco Mundial nos dicen que cada tec-nología es sinónimo de desarrollo económico, y a lo largo de la historia la adopción rápida o lenta de determinada tecnología, por cada país, se traduce en su crecimiento como nación.

Aunado a esto, y como lo comenta el Economist en su artículo de Of the internet cafés and power cuts, donde se remarca el estudio del Banco Mundial en el reporte “Global de Prospectos 2008”, se analiza la adopción de una tecnología al 80 por ciento en un determinado país, y podemos observar que de 1750 a 1900, al teléfono le tomó 150 años; al radio, de 1900 en adelante le tomó 60 años; a las computadoras personales, 20 años entre 1950 y 1975 y, por último, a los teléfonos celulares, entre 1975 y 2000, solamente 16 años.

Siguiendo lo antes dicho, podemos concluir diciendo que la convergencia en el modelo de negocios Web, vi-

endo en prospectiva, será el potenciar las característi-

cas de los smartphones, para que se conviertan en las

nuevas computadoras portátiles y se establezcan plata-formas perso-nalizadas de productos y servicios para las necesidades de cada individuo.

Además, se premiará a los emprendedores, a los crea-tivos y a los que estén dispuestos a crear mercados dis-ruptivos sin seguir modelos tradicionales de negocio, sino que se arriesguen a unir la innovación con la imaginación y desafiar a los gigantes, como David a Goliath. Todo lo que se necesita es una computadora y un buen acceso a Internet.

El límite será la tasa de procesamiento neuronal, pues la tasa computacional no tiene límites (aparentemente).

REFERENCIAS

Anderson, Chris; Why $0.00 is the Future Business, Wired Magazine, March 2008.

Briefing Technology in emerging economies, Of in-ternet cafés and power cuts, The Economist, Febru-ary 9th 2008.

www.wikipedia.org

apertura como las actividades entre iguales tienen mucha relación con el hecho de compartir, pero conviene ponerlo como un pilar separado por su efecto de convertir la com-

petencia en colaboración.

Así como en el ejemplo de Goldcorp, que decidió abrir

el tesoro de sus datos geológicos, muchas compañías están decidiendo compartir el tesoro de su propiedad intelec-tual, o sea de sus patentes y secretos industriales. Hoy en día, prevalece una nueva economía de la propiedad intelec-tual. Cada vez más compañías, hasta un grado paradójico, en las áreas electrónica, biotecnológica y otros campos, se dan cuenta de que mantener y defender un sistema propio de propiedad intelectual, a menudo debilita su habilidad para generar valor.

Por ejemplo, a partir de 1999, más de una docena de empresas farmacéuticas decidieron compartir sus proyec-tos de investigación basados en sus propias patentes y secretos para apoyar consorcios de colaboración abierta, tales como el Consorcio SNP y la Alianza para Señalamien-to Celular.

GLOBALIDAD

Thomas Friedman, en su libro El Mundo es Plano (The World is Flat) hizo entendible para el gran público el sig-nificado de la nueva globalización. Sin embargo, la veloci-dad con la que está avanzado en relación a la innovación

y la creación de riqueza todavía no nos permite entender todos sus alcances y consecuencias.

En los últimos 20 años de globalización, hemos visto la liberalización económica de China y la India, y el colapso, y los intentos de resurgimiento, de la Nueva Unión Sovié-tica, así como la primera etapa de la revolución mundial de las tecnologías de la información. Los próximos 20 años de globalización seguramente ayudarán al sostenimiento de la economía mundial, al aumento de los estándares de vida, y aumentará sustancialmente la interdependencia global.

Ralph Szygenda, director de Informática (CIO, por sus siglas en inglés) de General Motors, dice: La mayoría de las grandes corporaciones son multinacionales, pero no son globales, y en forma creciente eso representa un gran problema.

Por definición, una compañía verdaderamente global

no tiene fronteras físicas o regionales. Construye eco-

sistemas planetarios para diseñar, para proveerse de in-

sumos, para ensamblar y distribuir sus productos sobre

una base global.

El mundo está repleto de posibilidades para la edu-cación, el trabajo, y la empresarialidad –lo único que se requiere son habilidades, motivación, la capacidad para aprender durante toda la vida, y un nivel básico de ingreso para conectarse.

ALGUNOS CASOS DE ÉXITO DE LA WIKINÓMICA

Seguramente algunos nombres de los que se mencionan a continuación le resulten familiares. Se trata de empresas de éxito en los años recientes, gracias

a la Wikinómica:

Wikipedia

A estos casos se pueden sumar muchos otros, menos conocidos, más los que se acumulen en las próximas semanas. Si no sabe usted de qué se trata en

cada uno de ellos, ya es hora de que los busque en Internet. Después de todo, ya es hora de que los Mexicanos le entremos de frente a la Wikinómica.

MySpace Flickr

Second Life YouTube InnoCentive Human Genome Project

54y19.indd 1 26/02/2008 17:05:57

Page 21: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB18 CONOCIMIENTO TECNOLOGÍAS WEB 55

SECOND LIFE

Vivimos también dentro de espacios vir-tua-les, como es el caso de Second Life, mejor conocido como “SL”, que es un mundo virtual que permite a los usuarios recrearse o tener una segunda vida en este lugar. Se basa en que cada uno de los usu-arios o “residentes” crean su avatar (repre-sentación del usuario, de su otro yo, en un

modelo computacional tridimensional) para comenzar a vivir en este mundo virtual.

Es interesante observar que SL tiene su propia

economía y moneda que son los dólares Linden, conoci-

dos como $L y todos los residentes pueden hacer nego-

cio entre sí. De acuerdo con Spencer Reiss, Virtual Econo-mics calculó que tan sólo en el mes de septiembre de 2005, la economía de Second Life generó en transacciones alre-dedor de tres millones 596 mil 674 dólares. Esto, toman-do un tipo de cambio de 252 Linden dólar, equivalente a un dólar americano.

Pero todavía nos falta tratar un tema muy interesante en el modelo de negocios Web, y esto es lo que Chris An-dersen trata en su artículo “Why $0.00 is the Future of Busi-ness” en Wired, donde se analiza la ciencia de lo gratis. Veamos la taxonomía de lo gratis, de acuerdo con Ander-sen:

a) Freemium. Lo gratis aquí es el software y servicios, así como algo de contenido. La idea básica en Web es lo que llaman la regla del uno por ciento sobre el 99 por cien-to. Esto indica que el uno por ciento de los usuarios que paga por un servicio o software puede mantener al 99 por ciento que tiene la versión gratis.

b) Advertising. Aquí son gratis el contenido, el soft-ware, los servicios y más. Se basa en el principio de que los ofrecimientos gratis crean audiencias con distintos intere-ses, y de que, expresando sus necesidades, los mercadólo-gos pagarán por conocerlos y llegar a ellos.

c) Cross-subsidies. Se pone un producto gratis que pue-de enganchar a los usuarios para que compren otro.

d) Labor Exchange. Lo gratis son los sitios de Internet y los servicios. Al usar el servicio Web, se crea un valor, ya sea para mejorar el servicio o acumulando información que puede ser útil en otro lugar.

e) Zero Marginal Cost. Productos que se distribuyen sin algún costo apreciable para los consumidores. Un ejemplo claro es cuando los artistas ponen su música en línea gratis y de esa forma pueden poner en el mercado otros productos.

f) Gift Economy. Todo lo denominado open source o el contenido generado por los usuarios. El ejemplo más claro es la tradicional Wikipedia.

NEGOCIOS DEL FUTURO

Otra de las vertientes en los negocios del futuro son aqué-llos como CBS, que planea ofrecer publicidad basada en la localización de la persona por medio de su teléfono móvil; es decir, analizando los gustos y preferencias de los con-sumidores, la publicidad será personalizada, indicándoles a los usuarios dónde pueden encontrar un producto o ser-vicio de su preferencia.

Google va más allá, y ya trabaja en un buscador de voz para los celulares. Me imagino que uno, como usua-rio, puede realizar una búsqueda, pero de voz, para que no sólo se nos diga el lugar donde se encuentra el satisfactor que buscamos, sino que también por medio de “Google maps” se nos lleve de la mano, con GPS, sumado con las coordenadas de nuestro teléfono, al lugar donde podemos adquirir ese producto o servicio.

Según el artículo de Chris Andersen en Wired y los da-tos de Jingle Networks, Linguistic Data Consortium, Opus Research, el ingreso esperado para Google aunado a este servicio de búsqueda en los celulares será de 2.5 mil mil-lones de dólares en el año 2012.

Pero el verdadero beneficio de los modelos de nego-cios basados en Web es su búsqueda por democratizar la economía, por darles poder a los consumidores y eliminar el que ostentan las corporaciones, así como buscan comul-gar con lo que ha dicho el padre escocés de la economía, Adam Smith: “No puede haber una sociedad floreciente y

co. Dicha evaluación analiza los Sitios Web del gobierno en función de cinco elementos: información, interacción, transacción, integración y participación. Esta evaluación se actualizó recientemente, y fue publicada por la revista Política Digital (Sandoval & Gil-García, 2006)

Estas evaluaciones han logrado que las autoridades pongan especial atención al desarrollo de sus portales, pero sin incluir explícitamente aspectos de usabilidad y de accesibilidad de la Web.

Por otro lado, el Centro de Investigación de la Web,

de la Universidad de Chile, indica que la usabilidad se

encuentra en una etapa de introducción en Iberoaméri-

ca. De acuerdo con lo anterior, se puede concluir que uno de los principales problemas en el rezago del área de la usabilidad ha sido su propia difusión (Baeza-Yates, Rivera & Velasco, 2004).

Ahora bien, ¿qué propone el Manifiesto de Usabi-

lidad y Accesibilidad para Portales Gubernamentales

Mexicanos?

El manifiesto

expresa los siguientes

puntos (UAWEB, 2007): 1. Asegurar el acceso

democrático, inclusive a

personas con discapacidad,

a los portales gubernamen-

tales, cumpliendo con los estándares del W3C.2. Facilitar la creación, el archivo y la administración del contenido utilizando sistemas accesibles. 3. Asegurar que el conteni-

do y los servicios sean fáciles de encontrar, descubrir

y usar según las mejores prácticas de diseño y desarrollo web.4. Garantizar la transparencia de la información, específi-camente en el uso de recursos públicos.

Actualmente, muchos gobiernos en el mundo están fortaleciendo sus estrategias en la web, donde el objetivo principal va más allá de ofrecer información

en línea. Ahora, el objetivo es ofrecer un portal ciudadano con herramientas y servicios personalizados, donde cada miembro de la sociedad tenga un papel más activo dentro de su gobierno y su propia comunidad.

En julio de 2007 se llevó a cabo en Monterrey, México el Seminario Internacional de Usabilidad y Accesibilidad para la Web. Este evento reunió a cerca de 250 asistentes, entre los que se encontraban administradores de portales gubernamentales de 23 de los 32 estados de la República Mexicana. A la conclusión del encuentro, se firmó el Mani-fiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos.

¿POR QUÉ UN MANIFIESTO?

Un manifiesto es un documento con una exposición o declaración pública de principios o motivos de un sec-tor gubernamental o social a través del cual reflejan sus creencias.

Este manifiesto expresa el compromiso que los tres diferentes niveles de gobierno (federal, estatal, local) seguirán en México para garantizar que la sociedad pueda aprovechar los beneficios de un portal gubernamental.

El manifiesto espera lograr dos objetivos: por un lado, expresa la intención de realizar esfuerzos concertados para mejorar la comunicación e interacción gobierno-so-ciedad; por otro lado, apoya el tercer artículo de la decla-ratoria realizada en el marco del Día Mundial de la Usabi-lidad (World Usability Day Charter, 2006), relacionado con el gobierno.

GOBIERNO ELECTRÓNICO EN MÉXICO

Existen diferentes rankings que evalúan los avances y logros de los países en cuanto al desarrollo de Gobierno Electrónico. En prácticamente todos ellos, México está

fuera de los primeros diez lugares.

En México se han empezado a medir los portales gu-

bernamentales estatales. A principios de 2006 se publicó

la Primera Evaluación de Portales Web Estatales en Méxi-

El Manifiestode Usabilidad y Accesibilidad para Portales Gubernamentales Mexicanos Luis Carlos Aceves Gutiérrez

Ingeniero Luis Carlos Aceves Gutiérrez Profesor del Departamento de Ciencias Computacionales Universidad de [email protected].

18y55.indd 1 26/02/2008 17:05:43

CONOCIMIENTOTECNOLOGÍAS WEB54 CONOCIMIENTO TECNOLOGÍAS WEB 19

feliz cuando la mayor parte de sus miembros son pobres y desdichados”.

En realidad, no queremos que existan Leviatanes monopólicos y que solamente exista una verdad universal, sino que el libre juego de la oferta y la demanda hagan su

papel conjuntamente con cada uno de nosotros como usua-

rios, que no solamente somos pasivos, sino activos en la

transformación de los negocios sustentados en Web.

Los datos del Banco Mundial nos dicen que cada tec-nología es sinónimo de desarrollo económico, y a lo largo de la historia la adopción rápida o lenta de determinada tecnología, por cada país, se traduce en su crecimiento como nación.

Aunado a esto, y como lo comenta el Economist en su artículo de Of the internet cafés and power cuts, donde se remarca el estudio del Banco Mundial en el reporte “Global de Prospectos 2008”, se analiza la adopción de una tecnología al 80 por ciento en un determinado país, y podemos observar que de 1750 a 1900, al teléfono le tomó 150 años; al radio, de 1900 en adelante le tomó 60 años; a las computadoras personales, 20 años entre 1950 y 1975 y, por último, a los teléfonos celulares, entre 1975 y 2000, solamente 16 años.

Siguiendo lo antes dicho, podemos concluir diciendo que la convergencia en el modelo de negocios Web, vi-

endo en prospectiva, será el potenciar las característi-

cas de los smartphones, para que se conviertan en las

nuevas computadoras portátiles y se establezcan plata-formas perso-nalizadas de productos y servicios para las necesidades de cada individuo.

Además, se premiará a los emprendedores, a los crea-tivos y a los que estén dispuestos a crear mercados dis-ruptivos sin seguir modelos tradicionales de negocio, sino que se arriesguen a unir la innovación con la imaginación y desafiar a los gigantes, como David a Goliath. Todo lo que se necesita es una computadora y un buen acceso a Internet.

El límite será la tasa de procesamiento neuronal, pues la tasa computacional no tiene límites (aparentemente).

REFERENCIAS

Anderson, Chris; Why $0.00 is the Future Business, Wired Magazine, March 2008.

Briefing Technology in emerging economies, Of in-ternet cafés and power cuts, The Economist, Febru-ary 9th 2008.

www.wikipedia.org

apertura como las actividades entre iguales tienen mucha relación con el hecho de compartir, pero conviene ponerlo como un pilar separado por su efecto de convertir la com-

petencia en colaboración.

Así como en el ejemplo de Goldcorp, que decidió abrir

el tesoro de sus datos geológicos, muchas compañías están decidiendo compartir el tesoro de su propiedad intelec-tual, o sea de sus patentes y secretos industriales. Hoy en día, prevalece una nueva economía de la propiedad intelec-tual. Cada vez más compañías, hasta un grado paradójico, en las áreas electrónica, biotecnológica y otros campos, se dan cuenta de que mantener y defender un sistema propio de propiedad intelectual, a menudo debilita su habilidad para generar valor.

Por ejemplo, a partir de 1999, más de una docena de empresas farmacéuticas decidieron compartir sus proyec-tos de investigación basados en sus propias patentes y secretos para apoyar consorcios de colaboración abierta, tales como el Consorcio SNP y la Alianza para Señalamien-to Celular.

GLOBALIDAD

Thomas Friedman, en su libro El Mundo es Plano (The World is Flat) hizo entendible para el gran público el sig-nificado de la nueva globalización. Sin embargo, la veloci-dad con la que está avanzado en relación a la innovación

y la creación de riqueza todavía no nos permite entender todos sus alcances y consecuencias.

En los últimos 20 años de globalización, hemos visto la liberalización económica de China y la India, y el colapso, y los intentos de resurgimiento, de la Nueva Unión Sovié-tica, así como la primera etapa de la revolución mundial de las tecnologías de la información. Los próximos 20 años de globalización seguramente ayudarán al sostenimiento de la economía mundial, al aumento de los estándares de vida, y aumentará sustancialmente la interdependencia global.

Ralph Szygenda, director de Informática (CIO, por sus siglas en inglés) de General Motors, dice: La mayoría de las grandes corporaciones son multinacionales, pero no son globales, y en forma creciente eso representa un gran problema.

Por definición, una compañía verdaderamente global

no tiene fronteras físicas o regionales. Construye eco-

sistemas planetarios para diseñar, para proveerse de in-

sumos, para ensamblar y distribuir sus productos sobre

una base global.

El mundo está repleto de posibilidades para la edu-cación, el trabajo, y la empresarialidad –lo único que se requiere son habilidades, motivación, la capacidad para aprender durante toda la vida, y un nivel básico de ingreso para conectarse.

ALGUNOS CASOS DE ÉXITO DE LA WIKINÓMICA

Seguramente algunos nombres de los que se mencionan a continuación le resulten familiares. Se trata de empresas de éxito en los años recientes, gracias

a la Wikinómica:

Wikipedia

A estos casos se pueden sumar muchos otros, menos conocidos, más los que se acumulen en las próximas semanas. Si no sabe usted de qué se trata en

cada uno de ellos, ya es hora de que los busque en Internet. Después de todo, ya es hora de que los Mexicanos le entremos de frente a la Wikinómica.

MySpace Flickr

Second Life YouTube InnoCentive Human Genome Project

54y19.indd 1 26/02/2008 17:05:57

Page 22: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB20 CONOCIMIENTO TECNOLOGÍAS WEB 53

Es imposible imaginar la vida moderna sin la Web. Esta tecnología ha venido a ser simple y elegante, y se ha posicionado en nuestra actividad diaria, al

punto de ser la fábrica central de información hoy en día (ver figura 1). Es difícil reconocer que en las dos últimas

décadas una herramienta de laboratorio, se haya posi-

cionado estratégicamente en la actividad diaria de los

humanos, al grado se llegar a ser tan indispensable para todos en casi todos los ámbitos de actividad productiva de las personas y las organizaciones.

te-servidor, lo cual produjo que el modelo cliente-servidor fuera desplazado por un nuevo modelo de tres niveles de arquitectura.

Los Web services con XML permiten en la actualidad la transferencia de datos e incrementan la capacidad de flujo de datos en las organizaciones. El acceso Web a través de

dispositivos móviles viene a ser posible y las iniciativas

de “Mobile Web” han sido promovidas y reforzadas por

las actividades realizadas por el W3C (World Wide Web

Consortium), que proporciona foros para consulta entre sus miembros, y promueve recomendaciones y estándares que hagan más efectiva la Web.

Algunas de las iniciativas mundiales que continuarán revolucionando la Web en el futuro cercano son:

WEB BASADA EN LA CONFIANZA

Con conocimientos en PICS (Platform for Internet Content Selection), un grupo de investigadores ha desarrollado sistemas para confianza y seguridad en el ambiente Web. La definición del formato de documento estándar (usando XML) ha permitido el intercambio de información acerca de compañías, productos y servicios. Asimismo, el proveer de SLAs (service level agreement) ha permitido basar e incre-mentar el nivel de confianza en la Web. El encriptamiento del contenido de las páginas codificación/decodificación ha sido uno de los mayores esfuerzos en la seguridad. El tema de privacidad se ha direccionado a través técnicas de autentificación (también la restricción) de usuarios a métodos para autorizar accesos, (ver figura 2).

Hacia un futuro evolutivo de la Web

Durante los primeros días de la Web, la comunidad Web trabajó aspectos como: integración de bases de datos Web (desatando la explosión de e-business), especialmente el modelo del B2C (Business to Customer), así como las hojas de estilo para asistir las presentaciones consistentes.

Conforme el tiempo ha avanzado, la Web ha venido progresando en sus problemas de accesibilidad. Se han desarrollado recomendaciones en las temáticas de gráfi-cas, tales como PNG y SVG. La sincronización multimedia también fue desarrollada (SMIL). Los equipos de investiga-dores alrededor del mundo estuvieron trabajando sobre los temas de: confianza, seguridad y los metadatos, para describir páginas WEB, enfatizando en una Web de con-fianza y la Web semántica.

NIVELES DE ARQUITECTURA

El desarrollo de Java permitió la producción de applets y servlets, enfocados principalmente a los ambientes clien-

Figura 1. La Web, el gran repositorio mundial.

Figura 2. Arquitectura de la información en la Web basada en la confianza

SEMANTIC WEB

El Desarrollo de Resource Description Framework (RFD), esencialmente como una representación binaria, ha per-mitido mayor expresividad a ser codificada en aplicacio-nes Web. Los lenguajes para ontologías tales como: DAML

José Aldo Díaz Prado

Doctor José AldoDíaz Prado

Dirección de Competitividad

TecnológicaDirección de

Investigación y Posgrado

ITESM Campus Monterrey

bajo de un grupo de 12 magníficos geólogos. De todos nuestros yacimientos en operación y de muchos otros en exploración teníamos toneladas de datos químicos y físico-químicos geo-referenciados; o sea, conocíamos, o creíamos conocer cada porción de nuestros yacimientos hasta profundidades de más de cien metros, mucho antes

de explotarlos. Esos datos eran considerados nuestro te-

soro más preciado, aunque solamente se trataba de arena silica, feldespatos y otros minerales industriales. No de

oro.

Imaginen ustedes la reacción de los geólogos de la Goldcorp en el momento en que su director les dijo que había que abrir sus bases de datos a todo el mundo, en una especie de concurso global, para encontrar el oro

oculto en sus propios yacimientos.

¿Qué sucedió después? Que el concurso se llevó a cabo, que los concursantes, por supuesto geólogos y matemáti-cos localizados en cualquier parte del mundo, identifi-caron 110 lugares en la mina Red Lake, 50 por ciento de los cuales no habían sido previamente identificados por la compañía. Del 80 por ciento de ellos se obtuvieron canti-dades considerables de oro que hicieron que la compañía, en lugar de perder cien millones de dólares, ganara nueve mil millones. ¡Qué belleza! Creo que con esto entendemos bien el significado de la palabra apertura. Lo que crees

que es tu máximo tesoro y por ello lo escondes… ábrelo

a todo el mundo.

ACTIVIDAD ENTRE IGUALES

A través de toda la historia de la humanidad, las jerar-quías, de una forma u otra, han sido los motores primarios para la generación de riqueza y han sido el modelo para instituciones tales como la iglesia, la milicia y el gobierno. Tan impregnados estamos del modelo jerárquico, que la mayoría de las personas suponen que no existen alterna-tivas viables… Aunque es improbable que las jerarquías desaparezcan dentro de un futuro previsible, una nueva forma horizontal de organización está emergiendo… esta nueva forma de organización se denomina actividad entre

iguales (peering).

El ejemplo por excelencia de la actividad entre iguales es el desarrollo del lenguaje de computación llamado Linux.

Hace más de 15 años conduje un seminario titulado: “Colaborar y Pensar: En ese orden”. Aún recuerdo cuando un participante se acercó y me dijo: “a mí me gusta que otros colaboren conmigo, pero reconozco que no me gusta mucho colaborar con otros”. Las actividades entre iguales son la base de la auto-organización, de la cual nadie sabe

cuáles son sus alcances, pero todos están buscando al-

canzarlos.

COMPARTIR

Ya en los ejemplos exitosos anteriores vimos que tanto la

La historia de Linux, según Tapscott

y Williams, en pocas palabras, es

la siguiente: En 1991, antes de que

fuera inventada la Internet (World Wide

Web, en inglés), un joven programador

de Helsinki, llamado Linus Torvalds, creó

una versión simple del sistema operativo

Unix. Lo llamó Linus y lo compartió con

otros programadores a través de un

tablero de mensajes en línea. De los diez

programadores con los que se comunicó,

cinco le hicieron cambios sustanciales.

Torvalds decidió después licenciar el sistema

operativo a través de una licencia general

pública, de forma que cualquiera lo pudiera usar en forma gratuita, con la

condición de hacer públicos los cambios realizados… Dado que es muy confiable

y gratuito, el Linux ha llegado a ser un útil sistema operativo para computadoras

que hospedan servidores de Internet y bases de datos, y en la actualidad muchas

compañías consideran a Linux como una pieza clave de su software.

Linux es la denominación de un sistema operativo tipo Unix (también conocido

como GNU/Linux) y el nombre de un núcleo. Es uno de los ejemplos más

prominentes del software libre y del desarrollo del código abierto, cuyo

código fuente está disponible públicamente, para que cualquier persona

pueda libremente usarlo, estudiarlo, redistribuirlo, comercializarlo y, con los

conocimientos informáticos adecuados, modificarlo.

Las variantes de los sistemas Linux de denominan “distribuciones” (distro) y su

objetivo es ofrecer una edición que cumpla con las necesidades de determinado

grupo de usuarios, de esta forma existen distribuciones para hogares, empresas

y servidores. Algunas son gratuitas y otras de pago, algunas insertan software

no libre y otras contienen solo software libre.

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades

de sistema y bibliotecas del proyecto GNU con el núcleo Linux, creado por

Linus Torvalds, con la colaboración de cientos de co-desarrolladores y que se

distribuye bajo la Licencia Pública General de GNU. Desde finales del 2000 se

ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como

IBM, Sun Microsystems, Hewlett-Packard, y Novell. Algunos de ellos (como Dell,

Hewlett-Packard, Lenovo y Acer) lo incluyen pre-instalado en algunos modelos

de computadoras portátiles y de escritorio para el usuario final. El respaldo

de las compañías de software también está presente, ya que -entre otras

aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe

Flash, RealPlayer, Silverlight y Yahoo! Messenger están disponibles para Linux.

Linux puede instalarse en computadores de escritorio (PCs x86 y x86-64 así

como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares,

portátiles, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3,

PlayStation Portable, Dreamcast, GP2X...) y otros, sin embargo su mayor

desarrollo se ha llevado a cabo en los servidores y supercomputadores.

La marca registrada Linux (Número de serie: 1916230) pertenece a Linus

Torvalds y se define como “un sistema operativo para computadoras que

facilita su uso y operación”. Existen grupos de usuarios del sistema Linux en

casi todas las áreas del planeta.

Linux

20y53.indd 1 26/02/2008 17:06:13

CONOCIMIENTOTECNOLOGÍAS WEB52 CONOCIMIENTO TECNOLOGÍAS WEB 21

y OIL llevaron a la recomendación de OWL para la cons-trucción de ontologías que puedan ser usadas en asistir las interoperaciones (o para validar una entrada, mejorar un query y responder una explicación). Hay todavía mucho camino por recorrer, pero los problemas semánticos son

gradualmente administrables en el ambiente Web, (ver figura 3).

La Semantic Web es una iniciativa reciente inspirada por Tim Bernes-Lee, para hacer de la Web un sistema dis-tribuido que facilite la representación de conocimiento. El objetivo de la Semantic Web es no solamente soportar el acceso a la información en la Web a través de ligas o mo-tores de búsqueda, sino que también soporten su uso y utilidad, facilitando la búsqueda de documentos que em-paten con las palabras clave; esto se puede lograr a través de combinar información para contestar preguntas tales como: Dame un plan para viajar a Hawai.

de súper alta calidad y audio de salida. Esto ha empujado a la tecnología a proveer de dispositivos inteligentes con respecto a los objetivos y demandas de los usuarios.

WEB 2.0

El potencial de la Web como una plataforma para la in-teracción y cooperación está emergiendo con las ideas del llamado Web 2.0. Esto incluye no solamente el uso de servicios, sino también la participación de los usuarios individualmente y colectivamente (inteligencia colectiva). Esto puede ocurrir, por ejemplo, a través de los blogs y Wikis con etiquetas, carga rápida de páginas e interaccio-nes, usando tecnología AJAX, acceso a múltiples fuentes de información y su integración a través de “mashups”, conectividad peer-to-peer y el agresivo incremento de tec-

MOBILE WEB

El incremento en la capacidad de los dispositivos “hand-held” y las redes ha dado lugar a la demanda de acceso a la Web en los dispositivos móviles. Las posibilidades incluyen entrada de datos de dispositivos adjuntos (video), videos

Figura 3. Arquitectura tecnológica para WEB Semantic

Figura 4. Aprovechamiento de la inteligencia colectiva a través de dispositivos móviles.

nologías inteligentes (ver figura 5). El Web 2.0 es básica-

mente un nuevo camino para explotar las tecnologías

de Internet, tales como XML y Javascript, facilitando la

participación, interacción y colaboración entre: usuari-

os, proveedores de contenido y negocios, en compara-ción con el concepto tradicional de páginas Web estáticas.Hoy en día las aplicaciones del Web 2.0 son abiertamente accesibles y generadas dinámicamente. Esto las hace más interesantes, pero con mayor riesgo en la seguridad. Los hackers pueden agregar contenido malicioso o explotar la vulnerabilidad en los sitios Web 2.0.

AJAX

Ajax (asyncronous Javascrip and XML) es una técnica de programación, para la creación de aplicaciones de Internet ricas e interactivas, que actúan como aplicaciones de escri-torio. Ajax utiliza Javascript asíncrono, una tecnología

de plataforma cruzada en donde una página HTML pu-

ede acceder a un documento XML a través de llamadas

asíncronas al servidor del cual fue cargado. Esta capaci-dad permite que una aplicación haga una llamada al servi-dor, traiga nuevos datos y de manera simultánea actualice la página Web sin necesidad de recargar el contenido, todo mientras el usuario continúa interactuando con la apli-cación (ver figura 6).

Figura 5. Mapa mental de la WEB 2.0

El nuevo arte y ciencia de la WIKINÓMICA, -acu-ñando esta palabra en el español moderno o pos-moderno (WIKINOMICS, en inglés)-, está basado

en cuatro nuevas y poderosas ideas: apertura (openess en inglés), trabajo entre iguales (peering), compartir (shar-

ing) y globalidad (acting globally), nos dicen Don Tap-scott y Anthony D. Williams en su muy interesante libro titulado: WIKINOMICS: How Mass Collaboration Changes Everything, Portafolio, USA, 2006.

En este breve artículo no intentaré hacer una reseña completa del libro, porque requeriría mucho más espacio,

WIKINÓMICA:

Juan Lauro Aguirre Villafaña

aunque me gustaría hacerlo. Sin embargo, trataré de es-clarecer la importancia de esta nueva área de reflexión, pero sobre todo de acción; de un nuevo tipo de acción, realizada colectivamente por miles, quizá millones y hasta miles de millones de personas, a través del Internet.

COMUNIDADES VIRTUALES

A principios de este siglo, lo cual ocurrió hace solamente poco más de ocho años, se pensaba que las comunidades virtuales nunca podrían tener la capacidad para la crea-ción de valor que tienen las comunidades reales.

Pero, sólo en los últimos pocos años, la colaboración tradicional –en una sala de juntas, dentro de una confe-rencia, aun dentro de un centro de convenciones– ha sido superada por una colaboración en escala astronómica, nos dicen esos autores en la solapa del libro.

La revolución participativa que está ocurriendo ac-tualmente abre nuevas posibilidades para que billones de personas jueguen roles activos en sus lugares de trabajo, comunidades, democracias nacionales, y en la economía global en gran escala. Esto tiene profundos beneficios socia-les, incluyendo la oportunidad de hacer que los gobiernos sean más transparentes y responsables (accountable) y pue-dan sacar de la pobreza a millones de personas, aseguran los autores.

Volvamos a los cuatro pilares de la WIKONÓMICA, para tratar de entender este fenómeno, que muy posiblemente, dentro de 20 años, haga que estos primeros años del Siglo XXI sean considerados como un punto de inflexión en la historia económica y social de la humanidad.

APERTURA

En 1999, Rob McEwen, director general (CEO, por sus si-glas en inglés) de la compañía minera Canadiense Gold-corp, Inc, en una reunión con todos sus geólogos, quienes estaban en espera de las peores noticias, porque las evi-dencias indicaban que las reservas de oro en sus minas estaban a punto de agotarse, les dijo:

Quiero que saquemos toda nuestra geología, todos los datos que hemos acumulado desde 1948, que los pongamos en un archivo y que los compartamos con todo el mundo, y luego agregó: le preguntaremos a todo el mundo en dónde vamos a encontrar los próximos seis millones de onzas de oro.

Cuando trabajé para el Grupo Vitro como gerente de la Unidad de Desarrollo de Materias Primas, en años de la década de 1980, fui responsable de coordinar el tra-

Doctor Juan Lauro Aguirre Villafaña

Director de Prospectiva Científica

y Tecnológica / CECyTENL

[email protected]

52y21.indd 1 26/02/2008 17:06:34

Page 23: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB20 CONOCIMIENTO TECNOLOGÍAS WEB 53

Es imposible imaginar la vida moderna sin la Web. Esta tecnología ha venido a ser simple y elegante, y se ha posicionado en nuestra actividad diaria, al

punto de ser la fábrica central de información hoy en día (ver figura 1). Es difícil reconocer que en las dos últimas

décadas una herramienta de laboratorio, se haya posi-

cionado estratégicamente en la actividad diaria de los

humanos, al grado se llegar a ser tan indispensable para todos en casi todos los ámbitos de actividad productiva de las personas y las organizaciones.

te-servidor, lo cual produjo que el modelo cliente-servidor fuera desplazado por un nuevo modelo de tres niveles de arquitectura.

Los Web services con XML permiten en la actualidad la transferencia de datos e incrementan la capacidad de flujo de datos en las organizaciones. El acceso Web a través de

dispositivos móviles viene a ser posible y las iniciativas

de “Mobile Web” han sido promovidas y reforzadas por

las actividades realizadas por el W3C (World Wide Web

Consortium), que proporciona foros para consulta entre sus miembros, y promueve recomendaciones y estándares que hagan más efectiva la Web.

Algunas de las iniciativas mundiales que continuarán revolucionando la Web en el futuro cercano son:

WEB BASADA EN LA CONFIANZA

Con conocimientos en PICS (Platform for Internet Content Selection), un grupo de investigadores ha desarrollado sistemas para confianza y seguridad en el ambiente Web. La definición del formato de documento estándar (usando XML) ha permitido el intercambio de información acerca de compañías, productos y servicios. Asimismo, el proveer de SLAs (service level agreement) ha permitido basar e incre-mentar el nivel de confianza en la Web. El encriptamiento del contenido de las páginas codificación/decodificación ha sido uno de los mayores esfuerzos en la seguridad. El tema de privacidad se ha direccionado a través técnicas de autentificación (también la restricción) de usuarios a métodos para autorizar accesos, (ver figura 2).

Hacia un futuro evolutivo de la Web

Durante los primeros días de la Web, la comunidad Web trabajó aspectos como: integración de bases de datos Web (desatando la explosión de e-business), especialmente el modelo del B2C (Business to Customer), así como las hojas de estilo para asistir las presentaciones consistentes.

Conforme el tiempo ha avanzado, la Web ha venido progresando en sus problemas de accesibilidad. Se han desarrollado recomendaciones en las temáticas de gráfi-cas, tales como PNG y SVG. La sincronización multimedia también fue desarrollada (SMIL). Los equipos de investiga-dores alrededor del mundo estuvieron trabajando sobre los temas de: confianza, seguridad y los metadatos, para describir páginas WEB, enfatizando en una Web de con-fianza y la Web semántica.

NIVELES DE ARQUITECTURA

El desarrollo de Java permitió la producción de applets y servlets, enfocados principalmente a los ambientes clien-

Figura 1. La Web, el gran repositorio mundial.

Figura 2. Arquitectura de la información en la Web basada en la confianza

SEMANTIC WEB

El Desarrollo de Resource Description Framework (RFD), esencialmente como una representación binaria, ha per-mitido mayor expresividad a ser codificada en aplicacio-nes Web. Los lenguajes para ontologías tales como: DAML

José Aldo Díaz Prado

Doctor José AldoDíaz Prado

Dirección de Competitividad

TecnológicaDirección de

Investigación y Posgrado

ITESM Campus Monterrey

bajo de un grupo de 12 magníficos geólogos. De todos nuestros yacimientos en operación y de muchos otros en exploración teníamos toneladas de datos químicos y físico-químicos geo-referenciados; o sea, conocíamos, o creíamos conocer cada porción de nuestros yacimientos hasta profundidades de más de cien metros, mucho antes

de explotarlos. Esos datos eran considerados nuestro te-

soro más preciado, aunque solamente se trataba de arena silica, feldespatos y otros minerales industriales. No de

oro.

Imaginen ustedes la reacción de los geólogos de la Goldcorp en el momento en que su director les dijo que había que abrir sus bases de datos a todo el mundo, en una especie de concurso global, para encontrar el oro

oculto en sus propios yacimientos.

¿Qué sucedió después? Que el concurso se llevó a cabo, que los concursantes, por supuesto geólogos y matemáti-cos localizados en cualquier parte del mundo, identifi-caron 110 lugares en la mina Red Lake, 50 por ciento de los cuales no habían sido previamente identificados por la compañía. Del 80 por ciento de ellos se obtuvieron canti-dades considerables de oro que hicieron que la compañía, en lugar de perder cien millones de dólares, ganara nueve mil millones. ¡Qué belleza! Creo que con esto entendemos bien el significado de la palabra apertura. Lo que crees

que es tu máximo tesoro y por ello lo escondes… ábrelo

a todo el mundo.

ACTIVIDAD ENTRE IGUALES

A través de toda la historia de la humanidad, las jerar-quías, de una forma u otra, han sido los motores primarios para la generación de riqueza y han sido el modelo para instituciones tales como la iglesia, la milicia y el gobierno. Tan impregnados estamos del modelo jerárquico, que la mayoría de las personas suponen que no existen alterna-tivas viables… Aunque es improbable que las jerarquías desaparezcan dentro de un futuro previsible, una nueva forma horizontal de organización está emergiendo… esta nueva forma de organización se denomina actividad entre

iguales (peering).

El ejemplo por excelencia de la actividad entre iguales es el desarrollo del lenguaje de computación llamado Linux.

Hace más de 15 años conduje un seminario titulado: “Colaborar y Pensar: En ese orden”. Aún recuerdo cuando un participante se acercó y me dijo: “a mí me gusta que otros colaboren conmigo, pero reconozco que no me gusta mucho colaborar con otros”. Las actividades entre iguales son la base de la auto-organización, de la cual nadie sabe

cuáles son sus alcances, pero todos están buscando al-

canzarlos.

COMPARTIR

Ya en los ejemplos exitosos anteriores vimos que tanto la

La historia de Linux, según Tapscott

y Williams, en pocas palabras, es

la siguiente: En 1991, antes de que

fuera inventada la Internet (World Wide

Web, en inglés), un joven programador

de Helsinki, llamado Linus Torvalds, creó

una versión simple del sistema operativo

Unix. Lo llamó Linus y lo compartió con

otros programadores a través de un

tablero de mensajes en línea. De los diez

programadores con los que se comunicó,

cinco le hicieron cambios sustanciales.

Torvalds decidió después licenciar el sistema

operativo a través de una licencia general

pública, de forma que cualquiera lo pudiera usar en forma gratuita, con la

condición de hacer públicos los cambios realizados… Dado que es muy confiable

y gratuito, el Linux ha llegado a ser un útil sistema operativo para computadoras

que hospedan servidores de Internet y bases de datos, y en la actualidad muchas

compañías consideran a Linux como una pieza clave de su software.

Linux es la denominación de un sistema operativo tipo Unix (también conocido

como GNU/Linux) y el nombre de un núcleo. Es uno de los ejemplos más

prominentes del software libre y del desarrollo del código abierto, cuyo

código fuente está disponible públicamente, para que cualquier persona

pueda libremente usarlo, estudiarlo, redistribuirlo, comercializarlo y, con los

conocimientos informáticos adecuados, modificarlo.

Las variantes de los sistemas Linux de denominan “distribuciones” (distro) y su

objetivo es ofrecer una edición que cumpla con las necesidades de determinado

grupo de usuarios, de esta forma existen distribuciones para hogares, empresas

y servidores. Algunas son gratuitas y otras de pago, algunas insertan software

no libre y otras contienen solo software libre.

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades

de sistema y bibliotecas del proyecto GNU con el núcleo Linux, creado por

Linus Torvalds, con la colaboración de cientos de co-desarrolladores y que se

distribuye bajo la Licencia Pública General de GNU. Desde finales del 2000 se

ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como

IBM, Sun Microsystems, Hewlett-Packard, y Novell. Algunos de ellos (como Dell,

Hewlett-Packard, Lenovo y Acer) lo incluyen pre-instalado en algunos modelos

de computadoras portátiles y de escritorio para el usuario final. El respaldo

de las compañías de software también está presente, ya que -entre otras

aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe

Flash, RealPlayer, Silverlight y Yahoo! Messenger están disponibles para Linux.

Linux puede instalarse en computadores de escritorio (PCs x86 y x86-64 así

como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares,

portátiles, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3,

PlayStation Portable, Dreamcast, GP2X...) y otros, sin embargo su mayor

desarrollo se ha llevado a cabo en los servidores y supercomputadores.

La marca registrada Linux (Número de serie: 1916230) pertenece a Linus

Torvalds y se define como “un sistema operativo para computadoras que

facilita su uso y operación”. Existen grupos de usuarios del sistema Linux en

casi todas las áreas del planeta.

Linux

20y53.indd 1 26/02/2008 17:06:13

CONOCIMIENTOTECNOLOGÍAS WEB52 CONOCIMIENTO TECNOLOGÍAS WEB 21

y OIL llevaron a la recomendación de OWL para la cons-trucción de ontologías que puedan ser usadas en asistir las interoperaciones (o para validar una entrada, mejorar un query y responder una explicación). Hay todavía mucho camino por recorrer, pero los problemas semánticos son

gradualmente administrables en el ambiente Web, (ver figura 3).

La Semantic Web es una iniciativa reciente inspirada por Tim Bernes-Lee, para hacer de la Web un sistema dis-tribuido que facilite la representación de conocimiento. El objetivo de la Semantic Web es no solamente soportar el acceso a la información en la Web a través de ligas o mo-tores de búsqueda, sino que también soporten su uso y utilidad, facilitando la búsqueda de documentos que em-paten con las palabras clave; esto se puede lograr a través de combinar información para contestar preguntas tales como: Dame un plan para viajar a Hawai.

de súper alta calidad y audio de salida. Esto ha empujado a la tecnología a proveer de dispositivos inteligentes con respecto a los objetivos y demandas de los usuarios.

WEB 2.0

El potencial de la Web como una plataforma para la in-teracción y cooperación está emergiendo con las ideas del llamado Web 2.0. Esto incluye no solamente el uso de servicios, sino también la participación de los usuarios individualmente y colectivamente (inteligencia colectiva). Esto puede ocurrir, por ejemplo, a través de los blogs y Wikis con etiquetas, carga rápida de páginas e interaccio-nes, usando tecnología AJAX, acceso a múltiples fuentes de información y su integración a través de “mashups”, conectividad peer-to-peer y el agresivo incremento de tec-

MOBILE WEB

El incremento en la capacidad de los dispositivos “hand-held” y las redes ha dado lugar a la demanda de acceso a la Web en los dispositivos móviles. Las posibilidades incluyen entrada de datos de dispositivos adjuntos (video), videos

Figura 3. Arquitectura tecnológica para WEB Semantic

Figura 4. Aprovechamiento de la inteligencia colectiva a través de dispositivos móviles.

nologías inteligentes (ver figura 5). El Web 2.0 es básica-

mente un nuevo camino para explotar las tecnologías

de Internet, tales como XML y Javascript, facilitando la

participación, interacción y colaboración entre: usuari-

os, proveedores de contenido y negocios, en compara-ción con el concepto tradicional de páginas Web estáticas.Hoy en día las aplicaciones del Web 2.0 son abiertamente accesibles y generadas dinámicamente. Esto las hace más interesantes, pero con mayor riesgo en la seguridad. Los hackers pueden agregar contenido malicioso o explotar la vulnerabilidad en los sitios Web 2.0.

AJAX

Ajax (asyncronous Javascrip and XML) es una técnica de programación, para la creación de aplicaciones de Internet ricas e interactivas, que actúan como aplicaciones de escri-torio. Ajax utiliza Javascript asíncrono, una tecnología

de plataforma cruzada en donde una página HTML pu-

ede acceder a un documento XML a través de llamadas

asíncronas al servidor del cual fue cargado. Esta capaci-dad permite que una aplicación haga una llamada al servi-dor, traiga nuevos datos y de manera simultánea actualice la página Web sin necesidad de recargar el contenido, todo mientras el usuario continúa interactuando con la apli-cación (ver figura 6).

Figura 5. Mapa mental de la WEB 2.0

El nuevo arte y ciencia de la WIKINÓMICA, -acu-ñando esta palabra en el español moderno o pos-moderno (WIKINOMICS, en inglés)-, está basado

en cuatro nuevas y poderosas ideas: apertura (openess en inglés), trabajo entre iguales (peering), compartir (shar-

ing) y globalidad (acting globally), nos dicen Don Tap-scott y Anthony D. Williams en su muy interesante libro titulado: WIKINOMICS: How Mass Collaboration Changes Everything, Portafolio, USA, 2006.

En este breve artículo no intentaré hacer una reseña completa del libro, porque requeriría mucho más espacio,

WIKINÓMICA:

Juan Lauro Aguirre Villafaña

aunque me gustaría hacerlo. Sin embargo, trataré de es-clarecer la importancia de esta nueva área de reflexión, pero sobre todo de acción; de un nuevo tipo de acción, realizada colectivamente por miles, quizá millones y hasta miles de millones de personas, a través del Internet.

COMUNIDADES VIRTUALES

A principios de este siglo, lo cual ocurrió hace solamente poco más de ocho años, se pensaba que las comunidades virtuales nunca podrían tener la capacidad para la crea-ción de valor que tienen las comunidades reales.

Pero, sólo en los últimos pocos años, la colaboración tradicional –en una sala de juntas, dentro de una confe-rencia, aun dentro de un centro de convenciones– ha sido superada por una colaboración en escala astronómica, nos dicen esos autores en la solapa del libro.

La revolución participativa que está ocurriendo ac-tualmente abre nuevas posibilidades para que billones de personas jueguen roles activos en sus lugares de trabajo, comunidades, democracias nacionales, y en la economía global en gran escala. Esto tiene profundos beneficios socia-les, incluyendo la oportunidad de hacer que los gobiernos sean más transparentes y responsables (accountable) y pue-dan sacar de la pobreza a millones de personas, aseguran los autores.

Volvamos a los cuatro pilares de la WIKONÓMICA, para tratar de entender este fenómeno, que muy posiblemente, dentro de 20 años, haga que estos primeros años del Siglo XXI sean considerados como un punto de inflexión en la historia económica y social de la humanidad.

APERTURA

En 1999, Rob McEwen, director general (CEO, por sus si-glas en inglés) de la compañía minera Canadiense Gold-corp, Inc, en una reunión con todos sus geólogos, quienes estaban en espera de las peores noticias, porque las evi-dencias indicaban que las reservas de oro en sus minas estaban a punto de agotarse, les dijo:

Quiero que saquemos toda nuestra geología, todos los datos que hemos acumulado desde 1948, que los pongamos en un archivo y que los compartamos con todo el mundo, y luego agregó: le preguntaremos a todo el mundo en dónde vamos a encontrar los próximos seis millones de onzas de oro.

Cuando trabajé para el Grupo Vitro como gerente de la Unidad de Desarrollo de Materias Primas, en años de la década de 1980, fui responsable de coordinar el tra-

Doctor Juan Lauro Aguirre Villafaña

Director de Prospectiva Científica

y Tecnológica / CECyTENL

[email protected]

52y21.indd 1 26/02/2008 17:06:34

Page 24: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB22 CONOCIMIENTO TECNOLOGÍAS WEB 51

Por ejemplo, los Google Maps escritos en Ajax permiten al usuario desplazarse en el mapa alrededor de la pantalla, sin necesidad de tener que esperar que la página se recar-gue en cada instante.

WEB SERVICES

GRID

Inició como un metacomputing (supercomputadoras liga-das) en Norteamérica a mediados de los 90. Los europeos propusieron que los servicios GRID se basaran en, AS “Web services”, así que la GRID podría convertirse en un servicio oblicuo. En esta avenida, existe mucho trabajo

desarrollado por la Next Generation Grid Expert Group

de la Comunidad Europea, la cual ha liderado mucha ac-tividad científica en servicios y sus especificaciones con metadatos.

MASHUPS

Los mashups combinan datos o servicios de múltiples si-tios Web en una sola experiencia con el usuario. Por ejem-plo, un mashup puede combinar los mapas de google con aplicaciones que generan datos en línea, en tiempo real o sitios de monitoreo de tráfico en carreteras.

Los mashups, típicamente operan vía un conjunto de

APIs publicados por proveedores del sitio Web. Los APIs le permiten al mashup tomar información de varios sitios y mezclar características de múltiples fuentes.

CONVERGENCIA

Finalmente, podemos concluir que el futuro de la WEB se basa primeramente en la convergencia de la Semantic Web, Web de confianza y la Web 2.0, seguido todo ello por la sintonización con GRIDs. Esto combina lo que lla-mamos e-infrastructure, la cual permite más o menos ac-ceso ilimitado a la información, procesamiento de nego-cio, entretenimiento, educación, investigación entre otras tecnologías.

El desarrollo de Web Services proporciona interfases de programación de aplicaciones (API), que permiten la pro-gramación de la Web, más que simple autoría o generación de contenido. Con la codificación XML de información, así como el trabajo colaborativo, incluyendo flujos de traba-jo, esto es posible. También es posible considerar la in-cursión de SOAP (Service-Oriented Architecture), la cual lleva a tiempos de desarrollo de aplicaciones más corto y mantenimientos más sencillos. Sin embargo, éste también permite la descripción de metadatos y el descubrimiento y uso de servicios y procesos de negocio. Existe una gran explosión en la oferta de metadatos en este dominio y la estandarización es necesaria, ver figura 7.

Figura 6. Modelo clásico de aplicaciónvs. modelo Ajax de aplicaciones Web.

Figura 7. Nuevo Paradigma de desarrollo para aplicaciones y Web Services que usan OWL-S

Referencias:

1.Bettina Berent , A Roadmap for Web Mining: From Web to Semantic Web.2.BBC News, The really simple future of the Web.3. ZDNet.co.uk. Web evolution by number4.Michalski, R. Bratko, I (eds), M.K: Machine Learning and Data Mining: methods and applications. Jhon Wiley and Sons, Chicherster (1998). 5 Kleinberg, J.M.: Authorative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632.

Figura 8. Web 2.0, hacia una

convergencia unificada

de la Web.

Cada día que transcurra, la sociedad y las empresas se moverán hacia una Web más inteligente e interactiva, basada en Web 2.0.

videoconferencias por internet y en reuniones sociales en mundos virtuales; y en el otro sentido, aplicaciones de internet apoyan la vida social real, como el sitio llamado Meetup [3] que se utiliza para planear por internet reunio-nes presenciales. Se comienza a hablar de Mixed Reality,

un término que incluye todas las aplicaciones que com-

binan elementos virtuales y reales.

CONOCIMIENTO Y DEMOCRATIZACIÓN

¿Cuál es el impacto de toda esta socialización virtual en la generación de conocimiento? Pues ésta se hace democráti-ca en varios sentidos: primero, al facilitar que cualquier persona con acceso a internet genere conocimiento; se-gundo, al facilitar que el conocimiento más valioso para la comunidad se haga más conocido por medio de los siste-mas de recomendaciones y de votaciones sobre produc-tos, servicios y las mismas recomendaciones; y tercero, al facilitar que grupos de personas generen conocimiento en forma colaborativa, como sucede en la famosa enciclope-dia gratuita, la Wikipedia.

A veces, las votaciones por los conocimientos más valio-sos son calculadas en forma transparente por la propia tecnología. Por ejemplo, considerando que cada liga a una página o cada cita a un artículo científico es una especie de voto a favor de la página o artículo correspondiente, los motores de búsqueda cuentan estos votos para deter-minar cuáles sitios o artículos son los más relevantes para la comunidad.

IMPACTO SOCIOECONÓMICO

Hablemos ahora del impacto social y económico de las aplicaciones sociales, por ejemplo entre los jóvenes. No cabe duda que la juventud de hoy se mueve con gran

facilidad entre el mundo virtual y el mundo real. danah boyd, quien se ha dedicado a entrevistar a jóvenes de todo Estados Unidos para investigar su uso de la tecnología so-cial, relata cómo una típica joven norteamericana adquiere su ropa hoy en día [4]:

Utilizando Google y una variedad de sitios para com-pras en línea, Mary investiga qué estilos le gustan y qué está de moda. Enseguida va con sus amigas al Mall con su cámara digital. Se prueban los vestidos y se sacan fotos. Re-gresando a casa, Mary sube sus fotos a Facebook y les pre-gunta a sus amigos y amigas virtuales cuál les gusta más. Entonces toma una decisión y en lugar de regresar al Mall, busca y compra el mismo vestido en línea, más barato, uti-lizando el nombre del fabricante y el número de producto que anotó cuando estaba en la tienda.

El impacto social de la tecnología es modulado por los programadores que desarrollan aplicaciones sociales y por las compañías de software que los contratan. La

misma danah boyd reporta [5] sobre lo que parecía un pequeño cambio que se hizo a la aplicación de MySpace, similar a Facebook. En este tipo de aplicaciones, la gente puede declarar públicamente quiénes son sus amigos. A los programadores de MySpace se les ocurrió proporcio-nar a los usuarios una facilidad adicional que les permitía identificar a sus ocho Top Friends –sus mejores amigos-, y además poner en orden esa lista de top friends. Pueden ustedes imaginarse las ofensas, discusiones, “cortes” y reconciliaciones que esto originó en la comunidad en me-nos de una semana –por los que no quedaban incluidos en la exclusiva lista o por el orden en que habían quedado: ¿Quée?!! ¿Yo soy tu tercera mejor amiga? ¡Yo te puse en primer lugar en mi lista!

Este detalle nos indica: primero, que las convencio-

nes sociales del mundo real cambian al trasladarse al

mundo virtual; y segundo, habla sobre el poder de los

programadores para influir en la cultura social de un

sitio.

Lawrence Lessig, en su libro Code [6], proporciona va-rios ejemplos sobre cómo las decisiones que se toman sobre la arquitectura de software del internet y la pro-gramación de las aplicaciones afectan de manera decisiva aspectos sociales tan importantes como la privacidad, la identidad y las amistades, entre otros. Los programadores futuros tendrán que estar preparados en psicología y so-ciología; no sólo en la programación de computadoras.

1.-Dato tomado de varias fuentes por los autores del artículo en Wikipedia sobre Usenet, http://en.wikipedia.org/wiki/Usenet2.- En un social network site tal como Facebook, MySpace y otros, los miembros de la comunidad del sitio pueden desarrollar páginas personales o “perfiles” que representan su identidad virtual e incluyen datos como nombre o pseudónimo, fotografía, intereses etcétera. En su perfil, pueden también incluir una lista pública de sus amigos, y contactar a los amigos de sus amigos, formando extensas redes sociales. Los amigos pueden enterarse de cualquier modificación al perfil, y enviarse mensajes que se reciben en la misma página del perfil.3.- En Meetup (http://www.meetup.com) se pueden anunciar y buscar reuniones presenciales que ocurren en cualquier ciudad del mundo y que se organizan alrededor de tópicos de interés. 4.- danah boyd está terminando su doctorado en redes sociales virtuales en la Universidad de Berkeley. Ese comentario aparece en su blog, http://www.zephoria.org/thoughts/archives/2008/01/10/technology_and.html5.- danah boyd. Friends, friendsters, and top 8: Writing community into being on social network sites. First Monday, volume 11, number 12 (December 2006) http://firstmonday.org/issues/issue11_12/boyd/index.html6.- Lessig, Lawrence. Code. Basic Books 1999. La palabra code es una referencia a “código fuente”, que es como los programadores nombran al conjunto de instrucciones de un programa de computadora

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP

22y51.indd 1 26/02/2008 17:06:49

CONOCIMIENTOTECNOLOGÍAS WEB50 CONOCIMIENTO TECNOLOGÍAS WEB 23

Internet permite brindar atención a los clientes durante 24 horas al día cada vez que éstos necesitan un bien o servicio. Los horarios y las fronteras pasan a un se-

gundo plano. Si una empresa desea tener éxito, debe ser mejor que las de su competencia, y sus aplicaciones en Internet deberán ofrecer buena imagen, facilidad de uso, seguridad, funcionalidad y tiempos de respuesta rápidos, aun en alta concurrencia; es decir, deberán ofrecer ex-celente calidad.

Se ha definido a las mejores prácticas como las tareas

que aseguran un excelente trabajo, integro y actualizado

en algún tema específico. Si seguimos los estándares de mejores prácticas en el desarrollo de aplicaciones Web, es-taremos ofreciendo a nuestros clientes los beneficios que la ingeniería de software nos marca respecto de las me-todologías y tecnologías más actuales. (Fig. 1)

MEJORES PRÁCTICAS PARA EL DESARROLLO

DE APLICACIONES WEB

Las mejores prácticas son tareas que seguir en proyectos reales y no hay que suponer que son trabajos meramente

Las mejores prácticas de ingenieríade software en los desarrollos Web

académicos que sólo se ven en aulas de clases. El equipo de trabajo debe comprender que la Ingenie-

ría de Software implica disciplina, y hay que aplicarla.Para seleccionar la metodología de desarrollo adecua-

da, si la aplicación por desarrollar se desea implementar en corto tiempo, se deberá utilizar un proceso ágil; si es una aplicación que, de acuerdo con sus características, se va a desarrollar en un período mayor, entonces se deberá utilizar un proceso incremental.

Se debe contar con todos los estándares de documen-

tación, diseño, programación, base de datos, etcétera, y asegurar que el equipo de trabajo los conoce y los sigue.

Se deberá desarrollar una buena planeación del tra-

bajo en detalle, en donde cada tarea, además del respon-sable y del tiempo asignado, debe tener un entregable definido. Es bien sabido que el seguimiento y control del proyecto se facilitarán si contamos con un buen plan.

Debe contarse con el documento de Administración

y Control de Riesgos. Se ha de trabajar para comprender y documentar

los requerimientos del usuario y no empezar si los re-

Fig. 1 Estructura de Proyectos de Desarrollo bajo ingeniería de Software

Rogelio J. Sepúlveda Guerrero

Maestro Rogelio J. Sepúlveda GuerreroCatedráticoSubdirector de Operaciones del Centro de Servicios en InformáticaFacultad de Ciencias Físico Matemáticas / UANL

Mucha gente piensa en el internet como un enorme repositorio de páginas para obtener información de diversos tipos. Sin embargo, desde sus inicios

el internet ha sido también un medio social, y lo es cada

vez más, hasta tal punto que ha surgido ya un área de investigación denominada social computing (computación social) que estudia la intersección del comportamiento so-cial y los sistemas computacionales.

El internet surge en 1969 a partir de una iniciativa del Departamento de la Defensa de los Estados Unidos, para facilitar el flujo de información entre investigadores por medio del intercambio de archivos y poco después por medio del correo electrónico, la primera aplicación con un fuerte impacto social. En 1980 se incorporan al internet los foros de discusión sobre diversos tópicos, otra apli-cación que permite socializar a distancia. Aunque estos fo-ros ya existían para redes locales de computadoras, cuan-do se incorporan al internet logran una expansión mun-dial, y alcanzan un incremento exponencial en la cantidad de información que se intercambia, desde 4.5 GB en 1995 hasta 3.7 Terabytes en abril de 2007 [1]. Y todo esto ocu-rrió antes de que se inventara la World Wide Web en 1990.

MUNDOS VIRTUALES

Aunque las primeras aplicaciones de la WWW se referían a buscar y consultar páginas de información, nuestra in-saciable tendencia a la socialización pronto se apoderó también de “la web”. Hoy en día existen ya decenas de

aplicaciones con un enfoque social; entre otras la men-

sajería instantánea, los wikis (sitios donde varias per-

sonas colaboran en la elaboración de documentos en

línea), los sitios para subir perfiles personales y formar

redes de amigos (social network sites como Facebook [2]), los blogs (diarios públicos en línea –hay ya unos 112 mi-llones de blogs); y los lugares para intercambiar comen-tarios sobre fotografías, libros, productos, videos, noticias etcétera. Y, por supuesto, hay muchos sitios para hacer ci-tas amorosas con otros internautas. Toda esta interacción social comienza a ocurrir en ambientes tri-dimensionales como los videojuegos y otros mundos virtuales en donde pueden interactuar simultáneamente varias personas de todo el mundo.

Aplicaciones y ambientes sociales del “espacio real” como la telefonía, las fiestas y las conferencias se trasladan a los espacios virtuales, y se transforman en telefonía y

Doctor José I. IcazaDirector del Centro

de Investigación en Tecnología

Educativa / ITESM

http://copernico.mty.itesm,mx

Computación socialJosé I. Icaza

Fiesta en el Salón Tropicana, de La Habana, tal como está modelado en el mundo virtual de Second Life (http://www.secondlife.com). Las figuras humanas son avatares, cada uno controlado por alguna persona real en algún lugar del mundo. Los avatares pueden comunicarse unos con otros en forma oral o escrita. Second Life cuenta con varios millones de miembros.

50y23.indd 1 26/02/2008 17:07:06

Page 25: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB50 CONOCIMIENTO TECNOLOGÍAS WEB 23

Internet permite brindar atención a los clientes durante 24 horas al día cada vez que éstos necesitan un bien o servicio. Los horarios y las fronteras pasan a un se-

gundo plano. Si una empresa desea tener éxito, debe ser mejor que las de su competencia, y sus aplicaciones en Internet deberán ofrecer buena imagen, facilidad de uso, seguridad, funcionalidad y tiempos de respuesta rápidos, aun en alta concurrencia; es decir, deberán ofrecer ex-celente calidad.

Se ha definido a las mejores prácticas como las tareas

que aseguran un excelente trabajo, integro y actualizado

en algún tema específico. Si seguimos los estándares de mejores prácticas en el desarrollo de aplicaciones Web, es-taremos ofreciendo a nuestros clientes los beneficios que la ingeniería de software nos marca respecto de las me-todologías y tecnologías más actuales. (Fig. 1)

MEJORES PRÁCTICAS PARA EL DESARROLLO

DE APLICACIONES WEB

Las mejores prácticas son tareas que seguir en proyectos reales y no hay que suponer que son trabajos meramente

Las mejores prácticas de ingenieríade software en los desarrollos Web

académicos que sólo se ven en aulas de clases. El equipo de trabajo debe comprender que la Ingenie-

ría de Software implica disciplina, y hay que aplicarla.Para seleccionar la metodología de desarrollo adecua-

da, si la aplicación por desarrollar se desea implementar en corto tiempo, se deberá utilizar un proceso ágil; si es una aplicación que, de acuerdo con sus características, se va a desarrollar en un período mayor, entonces se deberá utilizar un proceso incremental.

Se debe contar con todos los estándares de documen-

tación, diseño, programación, base de datos, etcétera, y asegurar que el equipo de trabajo los conoce y los sigue.

Se deberá desarrollar una buena planeación del tra-

bajo en detalle, en donde cada tarea, además del respon-sable y del tiempo asignado, debe tener un entregable definido. Es bien sabido que el seguimiento y control del proyecto se facilitarán si contamos con un buen plan.

Debe contarse con el documento de Administración

y Control de Riesgos. Se ha de trabajar para comprender y documentar

los requerimientos del usuario y no empezar si los re-

Fig. 1 Estructura de Proyectos de Desarrollo bajo ingeniería de Software

Rogelio J. Sepúlveda Guerrero

Maestro Rogelio J. Sepúlveda GuerreroCatedráticoSubdirector de Operaciones del Centro de Servicios en InformáticaFacultad de Ciencias Físico Matemáticas / UANL

Mucha gente piensa en el internet como un enorme repositorio de páginas para obtener información de diversos tipos. Sin embargo, desde sus inicios

el internet ha sido también un medio social, y lo es cada

vez más, hasta tal punto que ha surgido ya un área de investigación denominada social computing (computación social) que estudia la intersección del comportamiento so-cial y los sistemas computacionales.

El internet surge en 1969 a partir de una iniciativa del Departamento de la Defensa de los Estados Unidos, para facilitar el flujo de información entre investigadores por medio del intercambio de archivos y poco después por medio del correo electrónico, la primera aplicación con un fuerte impacto social. En 1980 se incorporan al internet los foros de discusión sobre diversos tópicos, otra apli-cación que permite socializar a distancia. Aunque estos fo-ros ya existían para redes locales de computadoras, cuan-do se incorporan al internet logran una expansión mun-dial, y alcanzan un incremento exponencial en la cantidad de información que se intercambia, desde 4.5 GB en 1995 hasta 3.7 Terabytes en abril de 2007 [1]. Y todo esto ocu-rrió antes de que se inventara la World Wide Web en 1990.

MUNDOS VIRTUALES

Aunque las primeras aplicaciones de la WWW se referían a buscar y consultar páginas de información, nuestra in-saciable tendencia a la socialización pronto se apoderó también de “la web”. Hoy en día existen ya decenas de

aplicaciones con un enfoque social; entre otras la men-

sajería instantánea, los wikis (sitios donde varias per-

sonas colaboran en la elaboración de documentos en

línea), los sitios para subir perfiles personales y formar

redes de amigos (social network sites como Facebook [2]), los blogs (diarios públicos en línea –hay ya unos 112 mi-llones de blogs); y los lugares para intercambiar comen-tarios sobre fotografías, libros, productos, videos, noticias etcétera. Y, por supuesto, hay muchos sitios para hacer ci-tas amorosas con otros internautas. Toda esta interacción social comienza a ocurrir en ambientes tri-dimensionales como los videojuegos y otros mundos virtuales en donde pueden interactuar simultáneamente varias personas de todo el mundo.

Aplicaciones y ambientes sociales del “espacio real” como la telefonía, las fiestas y las conferencias se trasladan a los espacios virtuales, y se transforman en telefonía y

Doctor José I. IcazaDirector del Centro

de Investigación en Tecnología

Educativa / ITESM

http://copernico.mty.itesm,mx

Computación socialJosé I. Icaza

Fiesta en el Salón Tropicana, de La Habana, tal como está modelado en el mundo virtual de Second Life (http://www.secondlife.com). Las figuras humanas son avatares, cada uno controlado por alguna persona real en algún lugar del mundo. Los avatares pueden comunicarse unos con otros en forma oral o escrita. Second Life cuenta con varios millones de miembros.

50y23.indd 1 26/02/2008 17:07:06

Page 26: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB24 CONOCIMIENTO TECNOLOGÍAS WEB 49

Fig 2. Diagrama de pruebas en aplicaciones Web.

Se deben elaborar prototipos de la aplicación Web, para que el usuario visualice cómo se desarrollará.

Debe definirse la arquitectura donde se implemen-

tará la aplicación Web antes de empezar la programación, con el fin de asegurar su correcta instalación.

Es necesaria la aplicación de la administración y con-

trol de cambios.

Se ha de documentar el análisis (casos de uso) y el modelado (diagramas).

El diseño es esencial en este tipo de aplicaciones. Se ha comprobado que muchas personas evalúan una apli-cación Web sólo viendo el diseño estético inicial. Se deberá contar con diseñadores especializados que trabajen en el diseño arquitectónico, de contenido, de navegación y el estético.

Se debe generar la documentación de casos de prue-

ba necesaria, junto con el usuario, para asegurar su fun-cionalidad. Tenemos que pensar en pruebas de contenido, de navegación, de seguridad y de desempeño en alta con-currencia de usuarios; contar con la matriz de pruebas y asegurar que el usuario firma de aceptado cuando todas las pruebas son positivas. (Fig. 2)

El impacto que han tenido las Aplicaciones Web en los negocios ha hecho necesario un enfoque disciplinado como las Mejores Prácticas en el desarrollo de estas apli-caciones, para asegurar su calidad al usuario final y su permanencia de uso.

Es seguro que en el futuro la ingeniería del software se adaptará, sin importar la dimensión de los cambios en la tecnología; ésta nos llevará a nuevos procedimientos y metodologías; es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi-dad.

querimientos son vagos, inciertos, confusos o ambiguos. Es necesaria la participación y colaboración del usua-

rio en el análisis, diseño y pruebas de la aplicación

Web.

fecto para los proxenetas y terroristas que surcan con

osadía el ciberespacio. En la red, basta con teclear una dirección o escribir la palabra “sexo” y cientos de páginas sobre este rubro se despliegan a la velocidad de la luz.

La Internet es una revolucionaria herramienta de esta era tecnológica y de la globalización, y uno de sus mayo-res atractivos es que es abierta, por lo cual no tiene res-tricciones. Esto permite la libertad de darle un uso ya sea positivo o negativo. Existen investigaciones que han arro-jado los siguientes resultados: se ha encontrado que los

sitios que más visitas reciben en la Internet son los de

sexo y de pornografía. Una reciente encuesta realizada

en cibercafés en San Pedro Sula, Honduras, señaló que,

de cada diez accesos, siete son a sitios donde se ofrece

sexo y pornografía.

ALERTA A PATERFAMILIAS

¡Estén alertas! Sobre todo los padres de familia, ya que es natural pensar que la internet es una herramienta que facilita las tareas de sus hijos, lo cual es cierto. Pero hay “hackers”, esos cibernautas traviesos que se infiltran en-sus cuentas de correo para llenarlas de páginas porno. Según el New York Times, más de mil hackers alrededor

del mundo invaden la seguridad de las computadoras

para estos fines. Los hackers no eligen cualquier com-

putadora, sino aquéllas con conexión de alta velocidad

a Internet, para luego irlas cargando con software que les permita mandar websites con pornografía explícita.

La única manera de prevenir esto es una completa y abierta comunicación con los hijos, porque lo triste del asunto es que los adolescentes ya no tienen que ir a la tiendita de la esquina a comprar la revista o a la casa del amiguito precoz, que siempre los hay; sino que la pornografía está ahí, a la mano, en la pantalla de su computadora, con sólo presionar un botón y darle “clic” a la página que aparece ante la pila de correos recibidos.

Otra solución, tecnológica ésta, es la de proteger sus computadoras usando el famoso firewall; que evita la entrada de los hackers. El NYT cita a un experto en hackers, Stewart, que lleva ya años trabajando en com-pañías y que está desarrollando un programa llamado “migmaf” o “mafia migrante”, en el que colabora de manera conjunta con compañías para desarrollar de-fensas antivirus en contra de hackers, específicamente aquéllos que depositan direcciones pornográficas.

Y nosotros, ¿qué hemos hecho al respecto? ¿O qué podemos hacer? ¿Qué ha hecho nuestro país con res-pecto a dichas acciones que impactan en los campos sociológico, económico, político? Estamos hablando de una invasión a la privacidad y, sinceramente, el nue-vo orden social y económico en el que vivimos, este mundo globalizado que nos alberga, hace que la tarea resulte aún más difícil.

Se encarga de la Identificación y desarticulación de organizaciones dedicadas

al robo, lenocinio, tráfico y corrupción de menores, así como a la elaboración,

distribución y promoción de pornografía infantil, por cualquier medio.

Analiza y desarrolla investigaciones de campo sobre actividades de

organizaciones locales e internacionales de pedofília, así como de redes de

prostitución infantil.

Localiza y pone a disposición ante autoridades ministeriales a personas

dedicadas a cometer delitos utilizando computadoras.

Realiza operaciones de patrullaje anti-hacker, utilizando Internet como un

instrumento para detectar a delincuentes que cometen fraudes, intrusiones y

organizan sus actividades delictivas en la red.

Con el objeto de dar a conocer medidas preventivas para navegar por Internet

con mayor seguridad, la Dirección de la Policía Cibernética y Delitos Contra

Menores, ofrecen pláticas y conferencias a instituciones públicas y privadas que

así lo soliciten.

Para mayor información accesa a la siguiente página de Internet:

http://www.ssp.gob.mx/portalWebApp/appmanager/pcibernetica/desk?_

nfpb=true&_pageLabel=pcibernetica_page_2&nodo=99421&pbname=,pc_DC_Me

xico&displayPage=pcibernetica_page_

Policía Cibernética

24y49.indd 1 26/02/2008 17:07:21

CONOCIMIENTOTECNOLOGÍAS WEB48 CONOCIMIENTO TECNOLOGÍAS WEB 25

Hoy en día, cualquier niño sabe que la World

Wide Web (o simplemente “Web”) es un siste-ma de documentos de hipertexto y/o hiperme-

dios enlazados y accesibles a través de Internet.

Miles de muchachos que no saben bailar el trompo, ni hacer un capirucho con el balero, son expertos navega-dores de la Web y surcan sus páginas surfeando diestra-mente entre textos, imágenes video y multimedia, utili-zando los hiperenlaces.

La Web y los Fractales

Profesor Ismael Vidales DelgadoDirector Académico Del [email protected]

Ismael Vidales Delgado

Yo no lo sabía, pero mi nieto que cursa el tercer año de secundaria, me enseñó que la Web fue creada alre-

dedor de 1990 por el inglés Tim Berners-Lee y el belga

Robert Cailliau; el inglés lograría más tarde unir hiper-

texto e Internet. La Web, tal y como la conocemos hoy día, propicia el flujo de comunicación global a una escala inimaginable.

COMUNICACIÓN INSTANTÁNEA

La Web permite que personas separadas en el tiempo y el

Estoy asustada. Por mi computadora deambula a sus anchas un “hacker”. ¿Qué son los “hackers”? Por lo general son una legión de jóvenes que no han de te-

ner otra meta en la vida que la de dedicar su valioso tiem-po a surfear por la Internet y entrar en cuanta base de da-tos encuentran en su camino, y cuyo gran desafío es poder accesar a cuanta computadora esté protegida, ya sea la de su vecino, la del Pentágono... y sigo preguntándome: “¿Por qué a la mía?”.

Hace poco, unos piratas informáticos entraron a la pá-gina Web del gobierno sueco, donde borraron información oficial e insertaron una serie de fotos pornográficas, según informó el periódico Aftonbladet, de Estocolmo. También otros piratas de la Red lograron entrar a un sitio de In-ternet del grupo militante musulmán Hamas y lograron redireccionar a los internautas que trataron de visitarlo, a una Web pornográfica.

Invasores en la Red

Ingeniera Claudia OrdazCatedrática del Departamento

de Comunicación / ITESM

[email protected]

Claudia Ordaz

ANARQUISTAS CIBERNÉTICOS

Imagínese: muchachos y muchachas de todo el mundo que dedican horas y trabajo mental a descubrir códigos secretos, claves de acceso y sistemas de encriptamiento de información para acceder a los datos y curiosear. ¿Qué? ¡Quién sabe! Son, como los llamo: unos anarquistas ciber-

néticos, usurpadores, voyeuristas a quienes les causa

placer asomarse a vidas ajenas o, si se les pega la gana,

depositarnos un virus. Travesuras de alto costo.

Claro que es de asustarse. Invaden tu intimidad, y te pueden borrar de un tirón información en la que has tra-bajado por años. Pero lo más angustiante es cuando abres el correo electrónico y lo encuentras infestado de sitios pornográficos. Y son tantos y tantos los correos del traba-jo o de las amistades devueltos a sus remitentes, porque la cuenta se encuentra saturada.

LUGAR NADA HONROSO

México ocupa el octavo lugar como país utilizado por los hackers para atacar sitios de Internet, según Hervert Hurtado, director general de Tráfico y Contrabando de la Policía Federal Preventiva. Nuestro país es un blanco per-

48y25.indd 1 26/02/2008 17:07:36

Page 27: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB24 CONOCIMIENTO TECNOLOGÍAS WEB 49

Fig 2. Diagrama de pruebas en aplicaciones Web.

Se deben elaborar prototipos de la aplicación Web, para que el usuario visualice cómo se desarrollará.

Debe definirse la arquitectura donde se implemen-

tará la aplicación Web antes de empezar la programación, con el fin de asegurar su correcta instalación.

Es necesaria la aplicación de la administración y con-

trol de cambios.

Se ha de documentar el análisis (casos de uso) y el modelado (diagramas).

El diseño es esencial en este tipo de aplicaciones. Se ha comprobado que muchas personas evalúan una apli-cación Web sólo viendo el diseño estético inicial. Se deberá contar con diseñadores especializados que trabajen en el diseño arquitectónico, de contenido, de navegación y el estético.

Se debe generar la documentación de casos de prue-

ba necesaria, junto con el usuario, para asegurar su fun-cionalidad. Tenemos que pensar en pruebas de contenido, de navegación, de seguridad y de desempeño en alta con-currencia de usuarios; contar con la matriz de pruebas y asegurar que el usuario firma de aceptado cuando todas las pruebas son positivas. (Fig. 2)

El impacto que han tenido las Aplicaciones Web en los negocios ha hecho necesario un enfoque disciplinado como las Mejores Prácticas en el desarrollo de estas apli-caciones, para asegurar su calidad al usuario final y su permanencia de uso.

Es seguro que en el futuro la ingeniería del software se adaptará, sin importar la dimensión de los cambios en la tecnología; ésta nos llevará a nuevos procedimientos y metodologías; es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi-dad.

querimientos son vagos, inciertos, confusos o ambiguos. Es necesaria la participación y colaboración del usua-

rio en el análisis, diseño y pruebas de la aplicación

Web.

fecto para los proxenetas y terroristas que surcan con

osadía el ciberespacio. En la red, basta con teclear una dirección o escribir la palabra “sexo” y cientos de páginas sobre este rubro se despliegan a la velocidad de la luz.

La Internet es una revolucionaria herramienta de esta era tecnológica y de la globalización, y uno de sus mayo-res atractivos es que es abierta, por lo cual no tiene res-tricciones. Esto permite la libertad de darle un uso ya sea positivo o negativo. Existen investigaciones que han arro-jado los siguientes resultados: se ha encontrado que los

sitios que más visitas reciben en la Internet son los de

sexo y de pornografía. Una reciente encuesta realizada

en cibercafés en San Pedro Sula, Honduras, señaló que,

de cada diez accesos, siete son a sitios donde se ofrece

sexo y pornografía.

ALERTA A PATERFAMILIAS

¡Estén alertas! Sobre todo los padres de familia, ya que es natural pensar que la internet es una herramienta que facilita las tareas de sus hijos, lo cual es cierto. Pero hay “hackers”, esos cibernautas traviesos que se infiltran en-sus cuentas de correo para llenarlas de páginas porno. Según el New York Times, más de mil hackers alrededor

del mundo invaden la seguridad de las computadoras

para estos fines. Los hackers no eligen cualquier com-

putadora, sino aquéllas con conexión de alta velocidad

a Internet, para luego irlas cargando con software que les permita mandar websites con pornografía explícita.

La única manera de prevenir esto es una completa y abierta comunicación con los hijos, porque lo triste del asunto es que los adolescentes ya no tienen que ir a la tiendita de la esquina a comprar la revista o a la casa del amiguito precoz, que siempre los hay; sino que la pornografía está ahí, a la mano, en la pantalla de su computadora, con sólo presionar un botón y darle “clic” a la página que aparece ante la pila de correos recibidos.

Otra solución, tecnológica ésta, es la de proteger sus computadoras usando el famoso firewall; que evita la entrada de los hackers. El NYT cita a un experto en hackers, Stewart, que lleva ya años trabajando en com-pañías y que está desarrollando un programa llamado “migmaf” o “mafia migrante”, en el que colabora de manera conjunta con compañías para desarrollar de-fensas antivirus en contra de hackers, específicamente aquéllos que depositan direcciones pornográficas.

Y nosotros, ¿qué hemos hecho al respecto? ¿O qué podemos hacer? ¿Qué ha hecho nuestro país con res-pecto a dichas acciones que impactan en los campos sociológico, económico, político? Estamos hablando de una invasión a la privacidad y, sinceramente, el nue-vo orden social y económico en el que vivimos, este mundo globalizado que nos alberga, hace que la tarea resulte aún más difícil.

Se encarga de la Identificación y desarticulación de organizaciones dedicadas

al robo, lenocinio, tráfico y corrupción de menores, así como a la elaboración,

distribución y promoción de pornografía infantil, por cualquier medio.

Analiza y desarrolla investigaciones de campo sobre actividades de

organizaciones locales e internacionales de pedofília, así como de redes de

prostitución infantil.

Localiza y pone a disposición ante autoridades ministeriales a personas

dedicadas a cometer delitos utilizando computadoras.

Realiza operaciones de patrullaje anti-hacker, utilizando Internet como un

instrumento para detectar a delincuentes que cometen fraudes, intrusiones y

organizan sus actividades delictivas en la red.

Con el objeto de dar a conocer medidas preventivas para navegar por Internet

con mayor seguridad, la Dirección de la Policía Cibernética y Delitos Contra

Menores, ofrecen pláticas y conferencias a instituciones públicas y privadas que

así lo soliciten.

Para mayor información accesa a la siguiente página de Internet:

http://www.ssp.gob.mx/portalWebApp/appmanager/pcibernetica/desk?_

nfpb=true&_pageLabel=pcibernetica_page_2&nodo=99421&pbname=,pc_DC_Me

xico&displayPage=pcibernetica_page_

Policía Cibernética

24y49.indd 1 26/02/2008 17:07:21

CONOCIMIENTOTECNOLOGÍAS WEB48 CONOCIMIENTO TECNOLOGÍAS WEB 25

Hoy en día, cualquier niño sabe que la World

Wide Web (o simplemente “Web”) es un siste-ma de documentos de hipertexto y/o hiperme-

dios enlazados y accesibles a través de Internet.

Miles de muchachos que no saben bailar el trompo, ni hacer un capirucho con el balero, son expertos navega-dores de la Web y surcan sus páginas surfeando diestra-mente entre textos, imágenes video y multimedia, utili-zando los hiperenlaces.

La Web y los Fractales

Profesor Ismael Vidales DelgadoDirector Académico Del [email protected]

Ismael Vidales Delgado

Yo no lo sabía, pero mi nieto que cursa el tercer año de secundaria, me enseñó que la Web fue creada alre-

dedor de 1990 por el inglés Tim Berners-Lee y el belga

Robert Cailliau; el inglés lograría más tarde unir hiper-

texto e Internet. La Web, tal y como la conocemos hoy día, propicia el flujo de comunicación global a una escala inimaginable.

COMUNICACIÓN INSTANTÁNEA

La Web permite que personas separadas en el tiempo y el

Estoy asustada. Por mi computadora deambula a sus anchas un “hacker”. ¿Qué son los “hackers”? Por lo general son una legión de jóvenes que no han de te-

ner otra meta en la vida que la de dedicar su valioso tiem-po a surfear por la Internet y entrar en cuanta base de da-tos encuentran en su camino, y cuyo gran desafío es poder accesar a cuanta computadora esté protegida, ya sea la de su vecino, la del Pentágono... y sigo preguntándome: “¿Por qué a la mía?”.

Hace poco, unos piratas informáticos entraron a la pá-gina Web del gobierno sueco, donde borraron información oficial e insertaron una serie de fotos pornográficas, según informó el periódico Aftonbladet, de Estocolmo. También otros piratas de la Red lograron entrar a un sitio de In-ternet del grupo militante musulmán Hamas y lograron redireccionar a los internautas que trataron de visitarlo, a una Web pornográfica.

Invasores en la Red

Ingeniera Claudia OrdazCatedrática del Departamento

de Comunicación / ITESM

[email protected]

Claudia Ordaz

ANARQUISTAS CIBERNÉTICOS

Imagínese: muchachos y muchachas de todo el mundo que dedican horas y trabajo mental a descubrir códigos secretos, claves de acceso y sistemas de encriptamiento de información para acceder a los datos y curiosear. ¿Qué? ¡Quién sabe! Son, como los llamo: unos anarquistas ciber-

néticos, usurpadores, voyeuristas a quienes les causa

placer asomarse a vidas ajenas o, si se les pega la gana,

depositarnos un virus. Travesuras de alto costo.

Claro que es de asustarse. Invaden tu intimidad, y te pueden borrar de un tirón información en la que has tra-bajado por años. Pero lo más angustiante es cuando abres el correo electrónico y lo encuentras infestado de sitios pornográficos. Y son tantos y tantos los correos del traba-jo o de las amistades devueltos a sus remitentes, porque la cuenta se encuentra saturada.

LUGAR NADA HONROSO

México ocupa el octavo lugar como país utilizado por los hackers para atacar sitios de Internet, según Hervert Hurtado, director general de Tráfico y Contrabando de la Policía Federal Preventiva. Nuestro país es un blanco per-

48y25.indd 1 26/02/2008 17:07:36

Page 28: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB26 CONOCIMIENTO TECNOLOGÍAS WEB 47

espacio puedan intercambiar- o incluso desarrollar mutua-mente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emociona-les, ideas políticas, cultura, idiomas, música, negocio, arte, fotografías, literatura... todo puede ser compartido y di-seminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta.

Como la Web tiene un ámbito de influencia global, es incuestionable su contribución al entendimiento mutuo de las personas, por encima de fronteras físicas y/o ideológi-cas. Así fue como me interesé en el tema de los fractales. El término fractal lo acuñó Benoit Mandelbrot. Al hojear

un diccionario de latín de su hijo fusionó las palabras

fractus (roto) y fracture (fractura); y fue en el la IBM

donde se fraguó la teoría de la Geometría Fractal, cuya belleza usted puede admirar con sólo escribir la palabra “fractal” en su buscador habitual.

Nacida en la geometría y en la teoría del caos, la visión fractal está en todo: arte, ciencia, literatura, pintura, músi-ca, etcétera, y sólo la Web le permitirá disfrutar de la visión que, con todos sus recursos, no puede hacer la imprenta. Si usted quiere vivir una experiencia inolvidable, incluso iniciarse en la creación de fractales, tendrá que acudir a la Web.

Si usted no ha navegado por los fractales, sincera-

mente, se está perdiendo de utilizar la Web para vivir

una emoción especial, como es la de estar frente a un

fractal; es decir una forma geométrica que permanece

sin cambio, cualquiera sea el lente de aumento con el que se la observe.

LA TEORÍA DEL CAOS

Si cuando usted era estudiante de secundaria o de pre-paratoria no logró entender la Teoría del Caos, hoy sabrá con sencillez asombrosa que no podemos crear un orden perfecto; pero, si nos olvidamos de las limitaciones del pensamiento mecanicista, comprenderá la armonía del caos que nos rodea, y aprenderá a vivir en él, gracias a los fractales.

En la educación, especialmente en la asignatura de Geometría, son cada vez más los docentes que piensan que la Geometría Fractal, o al menos algunos elementos de ella, debieran integrarse entre los contenidos de Secunda-ria, en Matemáticas y/o en Informática.

Indagando con un aficionado de los fractales, me indica que los estudiantes pueden generar con suma facilidad

sus propios fractales, utilizando el programa fractint. Con este programa, asegura mi amigo, cualquier persona puede crear fractales, partiendo de una ecuación, que es la base para generar fractales; luego entra el gusto del autor, manipulando el fractal y moldeándolo como él desea. A quien le interese entrar en ese maravilloso mundo fractal, le recomiendo El mundo de los fractales, de Tim Wegner, Bert Tyler, editorial Anaya, que incluye el programa frac-

tint y un CD con los mejores fractales de gente de todo el mundo.

La teoría de fractales y la teoría del caos son parte de un mismo y novedoso paradigma emergente en la ciencia, lo mismo que la Teoría de Sistemas de Ludwig von Berta-lanffy y la Teoría de las catástrofes, de René Thom.

Como podrá darse cuenta, estimado lector, la Web y los Fractales forman una especie de binomio indisociable que usted puede desentrañar con sólo teclear la palabra fractal en su buscador.

Uso del programa Fractint.

Robert Cailliau

Ingeniero Industrial por la Universidad belga de Gante y Máster

en Ciencias de la Computación por la Universidad de Michigan

(EE.UU.), es uno de los creadores del World Wide Web junto

con Tim Berners-Lee. Se dice que Berners-Lee concibió la idea de

un proyecto de hipertexto global, en el cual podía adaptar un

programa que había creado para su uso particular, el ENQUIRE, a

las necesidades del CERN de disponer de un sistema para acceder a la enorme

y diversa cantidad de información que había en sus sistemas informáticos. Se

trataba de un sistema de hipertexto para compartir información basado en

Internet. Dicho sistema permitía incoporar multimedia e hipertextos en Internet,

almacenando piezas de información y enlazándolas entre ellas. ENQUIRE se

ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los

mismos datos. En 1989 Berners-Lee entregó su propuesta a varios científicos del

CERN pero no obtuvo respuesta. Fue Robert Cailliau quien acudió en su ayuda.

Una de las personas que creyó en el proyecto desde el principio fue el científico

belga. Reescribió la propuesta de Berners-Lee en términos que a él le pareció que

tendrían más efecto y buscó ayudantes estudiantes y becarios, dinero, máquinas

y espacio en oficinas para poder trabajar. En septiembre de 1990 recibieron el

visto bueno y los dos comenzaron a escribir el nuevo sistema de hipertexto,

dando origen a la Web como hoy la conocemos.

de los siguientes temas: Palmeras, Música, Dispositivos de cómputo móvil, Playas. ¿Cuál de ellos le interesa?” Desde luego, esto ahorraría al usuario muchos dolores de cabeza. Pero, ¿es esto posible? La res-puesta es afirmativa, y una solución viable radica en el uso de los métodos de semán-tica cuantitativa.3

Hay dos problemas que han recibido soluciones más o menos satisfactorias por los métodos de semántica cuan-titativa:

1.- Detectar los temas existentes en un corpus de

documentos.

2.- Medir la relevancia de un conjunto de temas pre-

existentes con respecto a un documento o interrogación

en particular.

De hecho el segundo problema es más simple y ha sido atacado por muchos métodos. Por ejemplo, uno de los más sencillos (Clasitex [8]) tiene una base hecha previa-mente por humanos, que asocia a cada palabra del idioma qué tanto tiene que ver con cada uno de los temas que se consideran importantes. Claro que esto es muchísimo trabajo, pero sólo se hace una vez, y ya terminada esta base, es muy fácil medir la pertenencia de un documento a cada tema: simplemente, para cada una de las palabras que lo componen, se calcula numéricamente su contribu-ción a la relevancia de cada tema, y así hasta terminar las palabras del documento. Al final se comparan los totales de cada tema, y se puede saber cuáles fueron los temas más relevantes.

TEMAS Y TÉRMINOS

Otro enfoque parecido, el de la “atribución latente de Dirichlet” [10], considera que cada documento es una “mezcla” de unos pocos temas, y cada uno de ellos con-tribuye con su composición de palabras a la composición del documento considerado. Por ejemplo, si un documento pertenece principalmente a los temas de música y cocina, van a abundar los términos de cada uno de estos dos tópi-cos, tales como melodía, ritmo, cocción, aceite, etcétera, pero claro que los términos de música no serán tan abun-dantes como si la página fuera únicamente de música. Para un documento en particular, se trata de encontrar la mezcla de documentos que lo componen, por lo que vemos que en intención es similar a Clasitex.El problema de encontrar en primer lugar los tópicos exis-tentes es más complejo, y existen básicamente dos en-foques: uno basado en el conocimiento, y el otro basado en algoritmos automáticos. En el primero encontramos a Clasitex y otros enfoques similares, que reposan en el trabajo humano, mientras que en el segundo están traba-jos como los Contextos Semánticos [11], proyecto en el que trabaja el autor de este artículo. Los enfoques basados en el trabajo humano tienen, aparte de la desventaja de requerir muchísimo trabajo, el problema de no adaptarse fácilmente a distintas colecciones de documentos.

Imagine el lector, por ejemplo, que necesitamos obte-ner los temas de los documentos en un repositorio de una empresa en particular; aquí, los temas generales calcula-dos para cualquier documento no serán necesariamente los más relevantes. En consecuencia, es mucho más pro-

1 Un sitio web es un conjunto de páginas interrelacionadas que en general son atendidas por una misma computadora que funge como “servidor”, a la que se conectan los “clientes”; por ejemplo, mi sitio web tiene la dirección http://homepages.mty.itesm.mx/rbrena, pero hay varias páginas en ese sitio, además de la página inicial.2 El término “semántica cuantitativa” no es estándar en la literatura, pero nos parece bastante adecuado.3 En el presente artículo no veremos el detalle de los métodos para hacer esto; remitimos al lector a referencias como [9].4 A estos catálogos de documentos, ordenados por palabra clave, se les llama “índices”.

Referencias1 Netcraft, February Netcraft web server survey, 2007.

2 XHTML2 Working Group Home Page, http://www.w3.org/MarkUp/3 F. Horibe, Managing Knowledge Workers: New Skills and Attitudes to Unlock the Intellectual Capital in Your Organization, John Wiley and Sons, 1999.4 Tim Berners-Lee, J. Hendler and O. Lassila, The Semantic Web, Scientific American Magazine, Mayo 2001.5 T. Bray y otros, Extensible Markup Language (XML) 1.0, W3C Recommendation, 2000.6 O. Lassila y otros, Resource Description Framework (RDF) Model and Syntax Specification, World Wide Web Consortium W3C, 1999.7 B. Smith y otros, The OBO Foundry: Coordinated evolution of ontologies to support biomedical data integration, NATURE BIOTECHNOLOGY, v25, n.11, 2007.8 J. Trinidad y otros, A Tool for Knowledge Discovery from Texts, Lecture Notes in Artificial Intelligence (1510). In Proc. of the PKDD-98, 1998.9 R. Brena, E. Ramirez, Semantic-Context Guided Internet Search, International Conference on WEB TECHNOLOGIES, APPLICATIONS, AND SERVICES (WTAS 2006), Alberta, Canada, 2006.10 D. Blei y otros, Latent Dirichlet allocation, Journal of Machine Learning Research v.3 n.5, 2003.11 E. Ramirez, R. Brena, Semantically Mapping the Web, Research on Computer Science, Vol 27, Número especial “Advances in Computer Science and Engineering, Proceedings from the 8th Conference on Computing (CORE 07)”, 2007.12 M. Blaschka y otros, BabelFish Project Report, Internal Report, FORWISS, Munich, Alemania, Enero 2000.13 A. Linden, J. Fenn, Understanding Gartner’s Hype Cycles, Gartner Group, 2003.

metedor el enfoque automático, aunque también requiere vencer varios retos técnicos para ser verdaderamente útil.

En primer lugar, está el problema de la eficiencia com-putacional. Dados los enormes números de documentos en Internet, pensar en hacer un catálogo de cada uno de ellos4 que además tenga la información semántica, es una tarea verdaderamente retadora; tan sólo hacer los catálo-

gos como los que hace Google es toda una proeza tec-

nológica: a pesar del explosivo crecimiento del Internet,

los tiempos de búsqueda de Google no se han incremen-

tado por años y años. Hacer esto mismo, pero ahora con la semántica cuantitativa, requerirá otra proeza al menos de similares proporciones.

CONCLUSIONES

El Web con capacidades semánticas es, sin lugar a du-

das, el futuro del Internet. Sin embargo, esta visión, en todo su potencial, no está a la vuelta de la esquina. Mu-chas veces los proponentes de una nueva tecnología exa-geran las promesas para llamar la atención, pero frecuen-temente el entusiasmo inicial es seguido de una etapa de desilusión, según han establecido los “ciclos” de la em-presa consultora Gartner [13]. Algunas tecnologías, tras un fuerte descenso en las expectativas, llegan a una etapa de estabilidad, en la que entregan al menos algunas de sus promesas. Pensamos que en unos años, pero no dos o tres, será el caso del web semántico, con el apoyo de la semántica cuantitativa.

26y47.indd 1 26/02/2008 17:07:51

CONOCIMIENTOTECNOLOGÍAS WEB46 CONOCIMIENTO TECNOLOGÍAS WEB 27

error altamente configurables, bases de datos de autenti-cación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configu-ración.

Normalmente en internet busca uno información y ayuda para hacer tareas; escribe en blogs, busca música y demás. Pero, ¿se ha preguntado

usted alguna vez cómo funcionan esas páginas? La ma-yoría de los servidores en los que están publicadas estas tecnologías, usan programas open source. ¿Qué es open source?

El open source, -o programas de código abierto- hace referencia al software libre, adscrito a la licencia GPL que permite copiar, ver, modificar y distribuir el código fuente y, lo más importante, modificar el programa de acuerdo a las necesidades del usuario. Una de las ventajas es que toda una comunidad, de todos los rincones del mundo, comparte sus conocimientos y aporta modificaciones al programa, mejorando las funciones del mismo, y no hay que pagar por ello.

¿En qué plataforma se ejecutan estos programas?El sistema operativo en el que mayormente se usan

estos programas es en linux. Hay comunidades que rea-

lizan modificaciones, agregan programas, entornos

gráficos, lo preparan cd’s, y se les llama distribución. Algunas de las distribuciones más famosas son Ubuntu, Fedora, Suse, Mandrake, Red hat, Free BSD, entre otras.

CÓDIGO APACHE

Por ejemplo, el pro-grama de código abier-to que más se usa para publicar páginas Web es el Apache, el cual es un servidor HTTP para plataformas Unix (BSD, GNU/Linux, etcétera.),

Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 [1] y la noción de sitio virtual.

Cuando comenzó su desarrollo en 1995, se basó ini-

cialmente en código del popular NCSA HTTPd 1.3, pero

más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf lo eligió porque quería que tuviese la connotación de algo firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y “civilizasen” el paisaje que habían creado los primeros in-genieros de internet. Además, Apache consistía solamente en un conjunto de parches que aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor “parchado”).

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Entre otras características, Apache presenta mensajes de

La importanciadel open source en la Web

Ingeniero Jorge CárdenasTécnico Antonio López MagañaCoordinación de TecnologíasCECYTENL

Jorge CárdenasAntonio López Magaña

ACEPTACIÓN EN LA RED

Apache tuvo amplia aceptación en la red: en 2007; fue el servidor HTTP más usado, empleado en el 48 por ciento de los sitios Web en el mundo. Sin embargo, ha sufrido un descenso en su cuota de mercado en los últimos años.

Como alternativas de programación al codigo Asp y Asp.Net de Microsoft, en las cuales no sólo se crea una página Web en codigo html puro, fue desarrollado el len-guaje de programación PHP.

PHP es un acrónimo recursivo que significa “PHP Hy-pertext Pre-processor” (inicialmente PHP Tools, o, Personal Home Page Tools). Actualmente, también se puede utilizar para la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica, usando las bibliotecas Qt o GTK+.

El gran parecido que posee PHP con los lenguajes

más comunes de programación estructurada, como C y

Perl, permite a la mayoría de los programadores crear

aplicaciones complejas con una curva de aprendizaje

muy corta. También les permite involucrarse con apli-caciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones. PHP es un lenguaje de programación usado normalmente para la creación de páginas Web dinámicas. Existen programas ya listos para usarse bajo este código PHP, de los cuales podemos nom-brar a Mambo, Joomla y Drupal por citar algunos. Éstos son administradores de contenido dinámico, ya que toda la información se vacía en una base de datos por medio de una interfaz administrativa, y luego un solo archivo ordena todos los artículos, y cuando alguien quiere ver el contenido, o hace click en una liga, el resultado que se muestra es el que se encuentra en la base de datos ex-traído por el índice de la página Web.

vez la más importante aplicación actual de RDF es como base de otras tecnologías del web semántico, tales como OWL.

El Web Ontology Language, abreviado curiosamente

como “OWL”, es un lenguaje creado encima de RDF para

hacer conjuntos de declaraciones sobre clases, propie-

dades e instancias conocidas como “ontologías”. OWL es visto como una de las piezas clave en la realización del web semántico; permite la expresión de propiedades a un nivel conceptual más elevado que RDF, y se considera ade-cuado como lenguaje de representación de conocimiento. Como está basado en RDF, los documentos de OWL son de hecho código en RDF. También se ha definido un estándar de interrogación para el web semántico, llamado SPARQL, con el que en principio se puede utilizar el Internet como una enorme base de datos y conocimientos que se puede interrogar.

Existen algunas ontologías en OWL disponibles públi-camente, como por ejemplo en biomedicina [7]. Hay in-cluso un buscador de Internet (Swoogle) especializado en buscar documentos en RDF y OWL.

POTENCIAL DEL WEB SEMÁNTICO

El conjunto de tecnologías del web semántico es sin duda un desarrollo impresionante, pero cabe preguntarse cuál es en realidad su potencial en un futuro inmediato, en par-ticular para las búsquedas de Internet. Desde luego, para poder realizar búsquedas enriquecidas con información semántica, haría falta que las páginas buscadas contuvie-ran anotaciones en RDF o equivalente. Sin embargo, actual-mente menos del uno por ciento de las páginas de Internet tienen contenido en RDF, y esto no cambiará en un futuro próximo. Concluimos que, como opción para búsqueda enriquecida con capacidades semánticas, la propuesta del RDF es básicamente irrelevante.

Sin embargo, existen otras opciones, además del web semántico de Sir Tim Berners-Lee, para tomar en cuenta el significado de las páginas de Internet en las búsquedas, y dentro de ellas consideraremos en particular las propues-

tas de semántica cuantitativa.

LA SEMÁNTICA CUANTITATIVA

Aun cuando la información en Internet dista mucho de ser confiable, la

enorme cantidad de páginas existentes (ver datos al

inicio de este artí-culo) hacen

que, es-

tadísticamente hablando, la información de Internet sea confiable. Por ejemplo, si tratamos de saber si en inglés la forma usual de decir “vaso de agua” es “glass with water” o bien “glass of water”, lo que podemos hacer es realizar con cada una de estas dos opciones una consulta en un busca-dor. En particular, la primera opción entrega en Google unas 60,000 páginas, lo que es comparativamente poco, pues la segunda opción tiene ¡más de cuatro millones de páginas! Así, concluimos que la forma usual es “glass of water”. El punto aquí no es proponer una forma de corregir nuestro uso del inglés (aunque de hecho sí es buena idea hacerlo), sino poner de manifiesto el hecho de que unos cuantos erro-

res en Internet son fácilmente corregidos por un to-

rrente de datos correctos.

El aprovechamiento del enorme tamaño del Internet para medir estadísticamente el uso de las palabras en los distintos temas, áreas o tópicos puede ser llamado “semántica cuantitativa”, pues usa números para medir proximidad o lejanía de los temas existentes en Internet.2

Una idea, explorada hoy en día por muchos investi-gadores, es la de medir qué tan próxima es una página Web dada con respecto a un conjunto de referencias. Estas referencias pueden ser, por ejemplo, tópicos o temas ya establecidos con anterioridad. Por ejemplo, diríamos que cierta página web se relaciona en 0.7 con el tema de la música, y en 0.3 con el tema de la comida.

Tan sólo ubicar el tema de cada documento en web es extremadamente interesante y útil. Por ejemplo, consi-deremos el problema de hacer búsquedas en Internet con ayuda de buscadores. Aunque los buscadores son, desde luego, de extrema utilidad y forman parte de las vidas co-tidianas de millones de personas, también tienen grandes limitaciones (como comentamos en la introducción a este artículo), y nos obligan a “espulgar” manualmente los re-sultados que arrojan, muchas veces infructuosamente, para eventualmente encontrar lo que realmente quere-mos.

Por ejemplo, la interrogación palm pictures (sin comi-llas), arroja en Google resultados sobre muchos temas, tales como música, palmeras, fotos de dispositivos de cómputo portátiles, software para ver fotos en tales dis-positivos, playas en California, y muchos otros temas. El

usuario tiene que recorrer manualmente muchas pá-

ginas de resultados, o bien refinar su búsqueda, para

llegar a la información que quiere. Para refinar una búsqueda, hay dos enfoques posibles (que pueden ser combinados): aumentar palabras o suprimir palabras. Su-pongamos que el usuario quiere fotos del dispositivo de cómputo móvil, y que empieza eliminando las referencias a música o a palmeras, con la interrogación “palm pictures –music –plant” (sin comillas). Aun así se cuelan páginas que tratan sobre palmeras, pero que usan el término “tree” en vez de “plant”. En resumidas cuentas, el usuario tiene que torcer repetidamente su interrogación, o bien asumir el penoso proceso de espulgar manualmente los resulta-dos. Ambas alternativas requieren mucho esfuerzo, pero tal es el estado actual de los buscadores. Imaginemos aho-ra que un buscador le dice al usuario: “Encontré páginas

46y27.indd 1 26/02/2008 17:08:06

Page 29: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB26 CONOCIMIENTO TECNOLOGÍAS WEB 47

espacio puedan intercambiar- o incluso desarrollar mutua-mente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emociona-les, ideas políticas, cultura, idiomas, música, negocio, arte, fotografías, literatura... todo puede ser compartido y di-seminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta.

Como la Web tiene un ámbito de influencia global, es incuestionable su contribución al entendimiento mutuo de las personas, por encima de fronteras físicas y/o ideológi-cas. Así fue como me interesé en el tema de los fractales. El término fractal lo acuñó Benoit Mandelbrot. Al hojear

un diccionario de latín de su hijo fusionó las palabras

fractus (roto) y fracture (fractura); y fue en el la IBM

donde se fraguó la teoría de la Geometría Fractal, cuya belleza usted puede admirar con sólo escribir la palabra “fractal” en su buscador habitual.

Nacida en la geometría y en la teoría del caos, la visión fractal está en todo: arte, ciencia, literatura, pintura, músi-ca, etcétera, y sólo la Web le permitirá disfrutar de la visión que, con todos sus recursos, no puede hacer la imprenta. Si usted quiere vivir una experiencia inolvidable, incluso iniciarse en la creación de fractales, tendrá que acudir a la Web.

Si usted no ha navegado por los fractales, sincera-

mente, se está perdiendo de utilizar la Web para vivir

una emoción especial, como es la de estar frente a un

fractal; es decir una forma geométrica que permanece

sin cambio, cualquiera sea el lente de aumento con el que se la observe.

LA TEORÍA DEL CAOS

Si cuando usted era estudiante de secundaria o de pre-paratoria no logró entender la Teoría del Caos, hoy sabrá con sencillez asombrosa que no podemos crear un orden perfecto; pero, si nos olvidamos de las limitaciones del pensamiento mecanicista, comprenderá la armonía del caos que nos rodea, y aprenderá a vivir en él, gracias a los fractales.

En la educación, especialmente en la asignatura de Geometría, son cada vez más los docentes que piensan que la Geometría Fractal, o al menos algunos elementos de ella, debieran integrarse entre los contenidos de Secunda-ria, en Matemáticas y/o en Informática.

Indagando con un aficionado de los fractales, me indica que los estudiantes pueden generar con suma facilidad

sus propios fractales, utilizando el programa fractint. Con este programa, asegura mi amigo, cualquier persona puede crear fractales, partiendo de una ecuación, que es la base para generar fractales; luego entra el gusto del autor, manipulando el fractal y moldeándolo como él desea. A quien le interese entrar en ese maravilloso mundo fractal, le recomiendo El mundo de los fractales, de Tim Wegner, Bert Tyler, editorial Anaya, que incluye el programa frac-

tint y un CD con los mejores fractales de gente de todo el mundo.

La teoría de fractales y la teoría del caos son parte de un mismo y novedoso paradigma emergente en la ciencia, lo mismo que la Teoría de Sistemas de Ludwig von Berta-lanffy y la Teoría de las catástrofes, de René Thom.

Como podrá darse cuenta, estimado lector, la Web y los Fractales forman una especie de binomio indisociable que usted puede desentrañar con sólo teclear la palabra fractal en su buscador.

Uso del programa Fractint.

Robert Cailliau

Ingeniero Industrial por la Universidad belga de Gante y Máster

en Ciencias de la Computación por la Universidad de Michigan

(EE.UU.), es uno de los creadores del World Wide Web junto

con Tim Berners-Lee. Se dice que Berners-Lee concibió la idea de

un proyecto de hipertexto global, en el cual podía adaptar un

programa que había creado para su uso particular, el ENQUIRE, a

las necesidades del CERN de disponer de un sistema para acceder a la enorme

y diversa cantidad de información que había en sus sistemas informáticos. Se

trataba de un sistema de hipertexto para compartir información basado en

Internet. Dicho sistema permitía incoporar multimedia e hipertextos en Internet,

almacenando piezas de información y enlazándolas entre ellas. ENQUIRE se

ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los

mismos datos. En 1989 Berners-Lee entregó su propuesta a varios científicos del

CERN pero no obtuvo respuesta. Fue Robert Cailliau quien acudió en su ayuda.

Una de las personas que creyó en el proyecto desde el principio fue el científico

belga. Reescribió la propuesta de Berners-Lee en términos que a él le pareció que

tendrían más efecto y buscó ayudantes estudiantes y becarios, dinero, máquinas

y espacio en oficinas para poder trabajar. En septiembre de 1990 recibieron el

visto bueno y los dos comenzaron a escribir el nuevo sistema de hipertexto,

dando origen a la Web como hoy la conocemos.

de los siguientes temas: Palmeras, Música, Dispositivos de cómputo móvil, Playas. ¿Cuál de ellos le interesa?” Desde luego, esto ahorraría al usuario muchos dolores de cabeza. Pero, ¿es esto posible? La res-puesta es afirmativa, y una solución viable radica en el uso de los métodos de semán-tica cuantitativa.3

Hay dos problemas que han recibido soluciones más o menos satisfactorias por los métodos de semántica cuan-titativa:

1.- Detectar los temas existentes en un corpus de

documentos.

2.- Medir la relevancia de un conjunto de temas pre-

existentes con respecto a un documento o interrogación

en particular.

De hecho el segundo problema es más simple y ha sido atacado por muchos métodos. Por ejemplo, uno de los más sencillos (Clasitex [8]) tiene una base hecha previa-mente por humanos, que asocia a cada palabra del idioma qué tanto tiene que ver con cada uno de los temas que se consideran importantes. Claro que esto es muchísimo trabajo, pero sólo se hace una vez, y ya terminada esta base, es muy fácil medir la pertenencia de un documento a cada tema: simplemente, para cada una de las palabras que lo componen, se calcula numéricamente su contribu-ción a la relevancia de cada tema, y así hasta terminar las palabras del documento. Al final se comparan los totales de cada tema, y se puede saber cuáles fueron los temas más relevantes.

TEMAS Y TÉRMINOS

Otro enfoque parecido, el de la “atribución latente de Dirichlet” [10], considera que cada documento es una “mezcla” de unos pocos temas, y cada uno de ellos con-tribuye con su composición de palabras a la composición del documento considerado. Por ejemplo, si un documento pertenece principalmente a los temas de música y cocina, van a abundar los términos de cada uno de estos dos tópi-cos, tales como melodía, ritmo, cocción, aceite, etcétera, pero claro que los términos de música no serán tan abun-dantes como si la página fuera únicamente de música. Para un documento en particular, se trata de encontrar la mezcla de documentos que lo componen, por lo que vemos que en intención es similar a Clasitex.El problema de encontrar en primer lugar los tópicos exis-tentes es más complejo, y existen básicamente dos en-foques: uno basado en el conocimiento, y el otro basado en algoritmos automáticos. En el primero encontramos a Clasitex y otros enfoques similares, que reposan en el trabajo humano, mientras que en el segundo están traba-jos como los Contextos Semánticos [11], proyecto en el que trabaja el autor de este artículo. Los enfoques basados en el trabajo humano tienen, aparte de la desventaja de requerir muchísimo trabajo, el problema de no adaptarse fácilmente a distintas colecciones de documentos.

Imagine el lector, por ejemplo, que necesitamos obte-ner los temas de los documentos en un repositorio de una empresa en particular; aquí, los temas generales calcula-dos para cualquier documento no serán necesariamente los más relevantes. En consecuencia, es mucho más pro-

1 Un sitio web es un conjunto de páginas interrelacionadas que en general son atendidas por una misma computadora que funge como “servidor”, a la que se conectan los “clientes”; por ejemplo, mi sitio web tiene la dirección http://homepages.mty.itesm.mx/rbrena, pero hay varias páginas en ese sitio, además de la página inicial.2 El término “semántica cuantitativa” no es estándar en la literatura, pero nos parece bastante adecuado.3 En el presente artículo no veremos el detalle de los métodos para hacer esto; remitimos al lector a referencias como [9].4 A estos catálogos de documentos, ordenados por palabra clave, se les llama “índices”.

Referencias1 Netcraft, February Netcraft web server survey, 2007.

2 XHTML2 Working Group Home Page, http://www.w3.org/MarkUp/3 F. Horibe, Managing Knowledge Workers: New Skills and Attitudes to Unlock the Intellectual Capital in Your Organization, John Wiley and Sons, 1999.4 Tim Berners-Lee, J. Hendler and O. Lassila, The Semantic Web, Scientific American Magazine, Mayo 2001.5 T. Bray y otros, Extensible Markup Language (XML) 1.0, W3C Recommendation, 2000.6 O. Lassila y otros, Resource Description Framework (RDF) Model and Syntax Specification, World Wide Web Consortium W3C, 1999.7 B. Smith y otros, The OBO Foundry: Coordinated evolution of ontologies to support biomedical data integration, NATURE BIOTECHNOLOGY, v25, n.11, 2007.8 J. Trinidad y otros, A Tool for Knowledge Discovery from Texts, Lecture Notes in Artificial Intelligence (1510). In Proc. of the PKDD-98, 1998.9 R. Brena, E. Ramirez, Semantic-Context Guided Internet Search, International Conference on WEB TECHNOLOGIES, APPLICATIONS, AND SERVICES (WTAS 2006), Alberta, Canada, 2006.10 D. Blei y otros, Latent Dirichlet allocation, Journal of Machine Learning Research v.3 n.5, 2003.11 E. Ramirez, R. Brena, Semantically Mapping the Web, Research on Computer Science, Vol 27, Número especial “Advances in Computer Science and Engineering, Proceedings from the 8th Conference on Computing (CORE 07)”, 2007.12 M. Blaschka y otros, BabelFish Project Report, Internal Report, FORWISS, Munich, Alemania, Enero 2000.13 A. Linden, J. Fenn, Understanding Gartner’s Hype Cycles, Gartner Group, 2003.

metedor el enfoque automático, aunque también requiere vencer varios retos técnicos para ser verdaderamente útil.

En primer lugar, está el problema de la eficiencia com-putacional. Dados los enormes números de documentos en Internet, pensar en hacer un catálogo de cada uno de ellos4 que además tenga la información semántica, es una tarea verdaderamente retadora; tan sólo hacer los catálo-

gos como los que hace Google es toda una proeza tec-

nológica: a pesar del explosivo crecimiento del Internet,

los tiempos de búsqueda de Google no se han incremen-

tado por años y años. Hacer esto mismo, pero ahora con la semántica cuantitativa, requerirá otra proeza al menos de similares proporciones.

CONCLUSIONES

El Web con capacidades semánticas es, sin lugar a du-

das, el futuro del Internet. Sin embargo, esta visión, en todo su potencial, no está a la vuelta de la esquina. Mu-chas veces los proponentes de una nueva tecnología exa-geran las promesas para llamar la atención, pero frecuen-temente el entusiasmo inicial es seguido de una etapa de desilusión, según han establecido los “ciclos” de la em-presa consultora Gartner [13]. Algunas tecnologías, tras un fuerte descenso en las expectativas, llegan a una etapa de estabilidad, en la que entregan al menos algunas de sus promesas. Pensamos que en unos años, pero no dos o tres, será el caso del web semántico, con el apoyo de la semántica cuantitativa.

26y47.indd 1 26/02/2008 17:07:51

CONOCIMIENTOTECNOLOGÍAS WEB46 CONOCIMIENTO TECNOLOGÍAS WEB 27

error altamente configurables, bases de datos de autenti-cación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configu-ración.

Normalmente en internet busca uno información y ayuda para hacer tareas; escribe en blogs, busca música y demás. Pero, ¿se ha preguntado

usted alguna vez cómo funcionan esas páginas? La ma-yoría de los servidores en los que están publicadas estas tecnologías, usan programas open source. ¿Qué es open source?

El open source, -o programas de código abierto- hace referencia al software libre, adscrito a la licencia GPL que permite copiar, ver, modificar y distribuir el código fuente y, lo más importante, modificar el programa de acuerdo a las necesidades del usuario. Una de las ventajas es que toda una comunidad, de todos los rincones del mundo, comparte sus conocimientos y aporta modificaciones al programa, mejorando las funciones del mismo, y no hay que pagar por ello.

¿En qué plataforma se ejecutan estos programas?El sistema operativo en el que mayormente se usan

estos programas es en linux. Hay comunidades que rea-

lizan modificaciones, agregan programas, entornos

gráficos, lo preparan cd’s, y se les llama distribución. Algunas de las distribuciones más famosas son Ubuntu, Fedora, Suse, Mandrake, Red hat, Free BSD, entre otras.

CÓDIGO APACHE

Por ejemplo, el pro-grama de código abier-to que más se usa para publicar páginas Web es el Apache, el cual es un servidor HTTP para plataformas Unix (BSD, GNU/Linux, etcétera.),

Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 [1] y la noción de sitio virtual.

Cuando comenzó su desarrollo en 1995, se basó ini-

cialmente en código del popular NCSA HTTPd 1.3, pero

más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf lo eligió porque quería que tuviese la connotación de algo firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y “civilizasen” el paisaje que habían creado los primeros in-genieros de internet. Además, Apache consistía solamente en un conjunto de parches que aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor “parchado”).

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Entre otras características, Apache presenta mensajes de

La importanciadel open source en la Web

Ingeniero Jorge CárdenasTécnico Antonio López MagañaCoordinación de TecnologíasCECYTENL

Jorge CárdenasAntonio López Magaña

ACEPTACIÓN EN LA RED

Apache tuvo amplia aceptación en la red: en 2007; fue el servidor HTTP más usado, empleado en el 48 por ciento de los sitios Web en el mundo. Sin embargo, ha sufrido un descenso en su cuota de mercado en los últimos años.

Como alternativas de programación al codigo Asp y Asp.Net de Microsoft, en las cuales no sólo se crea una página Web en codigo html puro, fue desarrollado el len-guaje de programación PHP.

PHP es un acrónimo recursivo que significa “PHP Hy-pertext Pre-processor” (inicialmente PHP Tools, o, Personal Home Page Tools). Actualmente, también se puede utilizar para la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica, usando las bibliotecas Qt o GTK+.

El gran parecido que posee PHP con los lenguajes

más comunes de programación estructurada, como C y

Perl, permite a la mayoría de los programadores crear

aplicaciones complejas con una curva de aprendizaje

muy corta. También les permite involucrarse con apli-caciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones. PHP es un lenguaje de programación usado normalmente para la creación de páginas Web dinámicas. Existen programas ya listos para usarse bajo este código PHP, de los cuales podemos nom-brar a Mambo, Joomla y Drupal por citar algunos. Éstos son administradores de contenido dinámico, ya que toda la información se vacía en una base de datos por medio de una interfaz administrativa, y luego un solo archivo ordena todos los artículos, y cuando alguien quiere ver el contenido, o hace click en una liga, el resultado que se muestra es el que se encuentra en la base de datos ex-traído por el índice de la página Web.

vez la más importante aplicación actual de RDF es como base de otras tecnologías del web semántico, tales como OWL.

El Web Ontology Language, abreviado curiosamente

como “OWL”, es un lenguaje creado encima de RDF para

hacer conjuntos de declaraciones sobre clases, propie-

dades e instancias conocidas como “ontologías”. OWL es visto como una de las piezas clave en la realización del web semántico; permite la expresión de propiedades a un nivel conceptual más elevado que RDF, y se considera ade-cuado como lenguaje de representación de conocimiento. Como está basado en RDF, los documentos de OWL son de hecho código en RDF. También se ha definido un estándar de interrogación para el web semántico, llamado SPARQL, con el que en principio se puede utilizar el Internet como una enorme base de datos y conocimientos que se puede interrogar.

Existen algunas ontologías en OWL disponibles públi-camente, como por ejemplo en biomedicina [7]. Hay in-cluso un buscador de Internet (Swoogle) especializado en buscar documentos en RDF y OWL.

POTENCIAL DEL WEB SEMÁNTICO

El conjunto de tecnologías del web semántico es sin duda un desarrollo impresionante, pero cabe preguntarse cuál es en realidad su potencial en un futuro inmediato, en par-ticular para las búsquedas de Internet. Desde luego, para poder realizar búsquedas enriquecidas con información semántica, haría falta que las páginas buscadas contuvie-ran anotaciones en RDF o equivalente. Sin embargo, actual-mente menos del uno por ciento de las páginas de Internet tienen contenido en RDF, y esto no cambiará en un futuro próximo. Concluimos que, como opción para búsqueda enriquecida con capacidades semánticas, la propuesta del RDF es básicamente irrelevante.

Sin embargo, existen otras opciones, además del web semántico de Sir Tim Berners-Lee, para tomar en cuenta el significado de las páginas de Internet en las búsquedas, y dentro de ellas consideraremos en particular las propues-

tas de semántica cuantitativa.

LA SEMÁNTICA CUANTITATIVA

Aun cuando la información en Internet dista mucho de ser confiable, la

enorme cantidad de páginas existentes (ver datos al

inicio de este artí-culo) hacen

que, es-

tadísticamente hablando, la información de Internet sea confiable. Por ejemplo, si tratamos de saber si en inglés la forma usual de decir “vaso de agua” es “glass with water” o bien “glass of water”, lo que podemos hacer es realizar con cada una de estas dos opciones una consulta en un busca-dor. En particular, la primera opción entrega en Google unas 60,000 páginas, lo que es comparativamente poco, pues la segunda opción tiene ¡más de cuatro millones de páginas! Así, concluimos que la forma usual es “glass of water”. El punto aquí no es proponer una forma de corregir nuestro uso del inglés (aunque de hecho sí es buena idea hacerlo), sino poner de manifiesto el hecho de que unos cuantos erro-

res en Internet son fácilmente corregidos por un to-

rrente de datos correctos.

El aprovechamiento del enorme tamaño del Internet para medir estadísticamente el uso de las palabras en los distintos temas, áreas o tópicos puede ser llamado “semántica cuantitativa”, pues usa números para medir proximidad o lejanía de los temas existentes en Internet.2

Una idea, explorada hoy en día por muchos investi-gadores, es la de medir qué tan próxima es una página Web dada con respecto a un conjunto de referencias. Estas referencias pueden ser, por ejemplo, tópicos o temas ya establecidos con anterioridad. Por ejemplo, diríamos que cierta página web se relaciona en 0.7 con el tema de la música, y en 0.3 con el tema de la comida.

Tan sólo ubicar el tema de cada documento en web es extremadamente interesante y útil. Por ejemplo, consi-deremos el problema de hacer búsquedas en Internet con ayuda de buscadores. Aunque los buscadores son, desde luego, de extrema utilidad y forman parte de las vidas co-tidianas de millones de personas, también tienen grandes limitaciones (como comentamos en la introducción a este artículo), y nos obligan a “espulgar” manualmente los re-sultados que arrojan, muchas veces infructuosamente, para eventualmente encontrar lo que realmente quere-mos.

Por ejemplo, la interrogación palm pictures (sin comi-llas), arroja en Google resultados sobre muchos temas, tales como música, palmeras, fotos de dispositivos de cómputo portátiles, software para ver fotos en tales dis-positivos, playas en California, y muchos otros temas. El

usuario tiene que recorrer manualmente muchas pá-

ginas de resultados, o bien refinar su búsqueda, para

llegar a la información que quiere. Para refinar una búsqueda, hay dos enfoques posibles (que pueden ser combinados): aumentar palabras o suprimir palabras. Su-pongamos que el usuario quiere fotos del dispositivo de cómputo móvil, y que empieza eliminando las referencias a música o a palmeras, con la interrogación “palm pictures –music –plant” (sin comillas). Aun así se cuelan páginas que tratan sobre palmeras, pero que usan el término “tree” en vez de “plant”. En resumidas cuentas, el usuario tiene que torcer repetidamente su interrogación, o bien asumir el penoso proceso de espulgar manualmente los resulta-dos. Ambas alternativas requieren mucho esfuerzo, pero tal es el estado actual de los buscadores. Imaginemos aho-ra que un buscador le dice al usuario: “Encontré páginas

46y27.indd 1 26/02/2008 17:08:06

Page 30: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB28 CONOCIMIENTO TECNOLOGÍAS WEB 45

MAMBO Y JOOMLA

Joomla surge como el resultado de una bifurcación o me-jora de Mambo, de la corporación Miro de Australia, que mantenía la marca del nombre Mambo en esa época y el grupo principal de desarrolladores. Joomla nace con esta división el 17 de agosto de 2005. La corporación Miro for-mó una organización sin ánimo de lucro, con el propósito inicial de fundar el proyecto y protegerlo de pleitos. El grupo de desarrollo reclamó que muchas de las cláusulas de la estructura de la fundación fueron acuerdos previos hechos por el comité directivo de Mambo, el que no tiene la consultoría necesaria de quienes mantienen el proyecto e incluye cláusulas que violan los valores principales del código abierto. El grupo de desarrollo creo un sitio Web

que se llamó OpenSourceMatters para distribuir infor-

mación a los usuarios, desarrolladores, diseñadores Web

y a la comunidad en general. En ese momento, el líder Andrew Eddie, conocido como “MasterChief”, escribió una carta abierta para la comunidad, que apareció en la se-cción de anuncios del foro público en mamboserver.com. Al siguiente día, miles de personas ingresaron al Sitio Web opensourcematters.org para expresar su apoyo y estímulo por las acciones ejecutadas por el grupo de desarrollo. El sitio Web recibió un aviso de temporalmente fuera de ser-vicio debido al excesivo tráfico. Este evento apareció en newsforge.com, eweek.com, y ZDnet.com.

PROYECTO FRAY SERVANDO

En el CECYTE,NL contamos con servidores que co-rren bajo Linux en su distribución Fedora y Ubuntu, en los cuales se monitorea y administra el proyecto educativo denominado Fray Servando, compuesto por una plataforma educativa, correo electrónico, bases de datos y enlaces dedicados hacia nuestros plan-

teles, los cuales permiten la realización de videoconferencias en tiempo real, con-ferencias magistrales y capacitación de docentes y alumnos.

Un ejemplo aplicado al código abierto es la página http://www.conocimientoen-linea.com, la cual está desarrollada con herramientas como Joomla y hospedada en servidores que utilizan Linux en su distribución Fedora.

En conclusión, creemos que los pro-

gramas open source desempeñan un im-

portantísimo papel en la Web. Gracias a

esto, muchas personas pueden publicar

sus páginas de una manera amigable

e interactiva y muy sencilla, ya que si hay algún problema para instalar un programa, ya sea Joomla o publicar un servidor con Apache, hay toda una comu-nidad presta para ayudar con cualquier problema que se pueda presentar, ya sea en blog o foros.

Precisamente, este artículo fue escrito en Open Office, corriendo sobre ubuntu 7.10.

Otra de las ventajas es que la comunidad de código libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera ordenada todos los artícu-los.

La WWW se ha vuelto parte integral de la vida de mil-

lones de personas, y no solamente en los países más

desarrollados, sino también en América Latina, donde la acción de hacer una búsqueda en Google es costumbre co-tidiana en el trabajo o en las ocupaciones personales. Tan acostumbrados estamos, que no nos damos cuenta de las limitaciones de dichas búsquedas.

Por ejemplo, si recurrimos a Web “bass” para buscar bajos eléctricos, en la página de resultados de Google vie-nen páginas sobre pesca, sobre zapatos, sobre cerveza, y sobre bajos. El problema aquí es que “bass” quiere decir muchas cosas, y Google no entiende a qué nos estamos refiriendo. Hasta se nos hace “natural” que Google no en-tienda, y nos contentamos con espulgar los resultados a-rrojados por Google hasta finalmente (a veces tras varias modificaciones a las consultas) llegar a un resultado que nos sirva.

Pero, ¿podría un buscador “entender” lo que le esta-mos preguntando?

MÁS ALLÁ DE LOS BUSCADORES ACTUALES

Las páginas Web son codificadas utilizando un lenguaje especial llamado “HTML” (HyperText Markup Language, [2]), que tiene comandos llamados “tags” para indicar la forma en que la información debe presentarse al usuario que la consulta.

El web semántico.- El problema de fondo con las pági-nas de Internet actuales es que su lenguaje, el HTML, está hecho para presentar información a un usuario humano, no para explicar a otro programa computacional de qué está hablando. Cuando el Internet fue inventado, la necesi-dad de que una máquina comprendiera la información de una página no era vista como algo importante, tal vez ni siquiera como algo posible.

Sin embargo, las cosas han cambiado en los últimos años. Por primera vez en la historia de la humanidad, la

información ha pasado de ser escasa a ser abundante, y

esta abundancia se ha convertido en un problema, pues

la información inunda a los usuarios en la forma de bu-

zones de correo electrónico, llenos de multitud de pági-

nas Web generalmente irrelevantes, etcétera.

Ahora bien, ¿cómo sería posible que un documento fuera comprensible para un programa computacional?

En primer lugar, existe la posibilidad de mejorar la forma en que los documentos describen su información. El mismo inventor del WWW (Sir Tim Berners-Lee) propuso hacer documentos web “autodescribibles”, que tuvieran su información codificada de forma tal que pudieran ser comprensibles para programas computacionales, y a esto se le llamó “Web semántico” [4]. En palabras del mismo Sir Tim Berners-Lee:

Tengo un sueño para el web, en el cual las computado-ras se vuelven capaces de analizar todos los datos en el web –el contenido, las ligas y las transacciones entre personas y computadoras. Un web semántico, que haría esto posible, aún está por surgir, pero cuando lo haga, los mecanismos para el intercambio día a día, la burocracia, y nuestras vidas diarias serán manejadas por máquinas hablando a máquinas.

Desde luego, a muchos lectores les erizará la piel la frase “nuestras vidas diarias serán manejadas por máqui-nas hablando a máquinas”, pero no vamos a discutir este aspecto aquí.

TECNOLOGÍAS ‘HABILITADORAS’

Para alcanzar estos sueños, se ha desarrollado una serie de tecnologías llamadas “habilitadoras”, tales, como XML, RDF, OWL y otras. XML [5] es un lenguaje parecido al HTML del web actual, pero extensible, para poder añadir “tags” especiales de acuerdo con la aplicación. Otras tecnologías de apoyo a XML son XML Schema, DTD, XML Namespaces, XSL/XSLT, CSS, XLink, XQuery, y muchas otras, en tal can-tidad que se hace difícil estar al corriente de todas ellas.

Han sido propuestos conjuntos de etiquetas específi-camente para representar información del Web semántico, y el conjunto más importante es el estándar RDF (Resource Description Framework [6]). Creado en 1999 por la asocia-ción global W3C, RDF permite definir propiedades de re-cursos en Web, afirmaciones sobre estas propiedades, así como clases de objetos, con subclases e incluso herencia de propiedades a las subclases.

Las declaraciones de RDF tienen la forma de tripletas

formadas por un recurso, una propiedad, y el valor de

dicha propiedad. Por ejemplo, para decir que el cielo es azul, hacemos una declaración en que el recurso es el cie-lo, la propiedad es el color, y el valor es el azul. Es fácil ver que esta estructura corresponde a la triada sujeto – verbo – complemento del idioma español (y del inglés y muchas otras lenguas); por esto la expresión de afirmaciones en RDF es muy natural. Actualmente ya existen una serie de aplicaciones de RDF en sistemas computacionales, tales como FOAF, SIOC, MusicBrainz y otros. Sin embargo, tal

Timothy John Berners-LeeTimothy “Tim” John Berners-Lee, OM,

KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Física en 1976 en el Queen’s College de la Universidad de Oxford. Es considerado como el padre de la Web. Básicamente, Tim, ante la necesidad de distribuir e intercam-biar información acerca de sus investigacio-nes de una manera más efectiva, desarrolló las ideas que forman parte de la Web. Tim y su grupo desarrollaron lo que por sus siglas en inglés se denominan: Lenguaje

HTML (HyperText Markup Language) o lenguaje de etíquetas de hipertex-to; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de local-ización de objetos en la web URL (Universal Resource Locator). Muchas de las ideas plasmadas por Berners-Lee podemos encontrarlas en el proyecto Xanadu que propuso Ted Nelson y el memex de Vannevar Bush.

28y45.indd 1 26/02/2008 17:08:23

CONOCIMIENTOTECNOLOGÍAS WEB44 CONOCIMIENTO TECNOLOGÍAS WEB 29

Google sabe todo. Si necesita un restaurante de comida italiana, el nombre de un libro que quie-re comprar, la hora de la función de cine, el hombre

moderno le pregunta a Google, el motor de búsqueda más popular del mundo. Prácticamente cada navegador de pá-

ginas web incorpora una barra de búsquedas para con-

sultar con Google sobre cualquier tema. Lo que interesa a cualquier proveedor o comerciante es cómo lograr que la página Web de su negocio salga primero en la lista de resultados que muestra el buscador.

Para asegurar un buen lugar en esta lista de resulta-dos, uno necesita saber cómo funcionan Google y sus com-petidores: cómo coleccionan los datos de los cuales eligen los resultados, en cada consulta, los millones de usuarios; cómo seleccionan las páginas para ofrecer al usuario y cómo ordenan esas páginas seleccionadas. En este artículo nos enfocamos más en Google, pero varios de estos aspec-tos se aplican también a otros buscadores de la Web.

NAVEGADO

RES AUTOMÁTICOS

La recolección de datos se basa en “navegadores au-

tomáticos” que recorren las páginas web. Esos navega-

dores automáticos se llaman crawler en inglés, un sus-tantivo que proviene del verbo crawl, lo que se podría traducir como “arrastrarse”. Un crawler comienza su recorrido desde una cierta página asignada y sigue las li-gas de esta página para llegar a más páginas. Una liga, también conocida como un enlace, es simplemente un tex-to anotado con la dirección de otra página para ofrecer al usuario la posibilidad de ver otra página aparte de la que actualmente está leyendo.

Las páginas visitadas, con toda su información, están guardadas en las computadoras de Google, y las ligas en-tre ellas están analizadas. Múltiples crawlers recorren la WWW simultáneamente, recopilando así una “imagen” de la estructura y el contenido de ella en un momento dado.

El procesamiento hecho a las páginas obtenidas en esta forma es complejo, y sus detalles cambian de un mo-tor de búsquedas a otro. Sin embargo, el proceso general tiene dos componentes principales e importantes de co-nocer: las palabras que aparecen en una página están pro-cesadas según su frecuencia y posición en el texto. Las pa-labras utilizadas en títulos se consideran más importantes que las palabras incorporadas en el texto y una palabra que se usa mucho es considerada la más representativa del documento que una que se usa unas pocas veces. En este proceso se toma en cuenta la frecuencia global de

las palabras en todas las páginas procesadas: si alguna palabra (como por ejemplo las preposiciones y otras pa-labras pequeñas) se usa mucho en todos los documentos, su presencia no se considera relevante para determinar el tema de la página. El procesamiento también cuenta con un diccionario de sinónimos para identificar conceptos en vez de limitarse a nivel de palabras.

IMPORTANCIA DE LAS PALABRAS

La selección entre todas las páginas guardadas en las

computadoras está basada en la consulta hecha por el

usuario; o sea, las palabras clave que utilizó el usuario

al lanzar la búsqueda. Es importante reconocer que la búsqueda está realizada en las copias almacenadas en las computadoras de Google, en vez de buscar de forma

Google, el motor más popular del mundo

El alma de un buscador de páginas WebElisa Schaeffer

Doctora Elisa SchaefferProfesor-InvestigadorFacultad de Ingeniería Mecánica y Eléctrica / UANLCandidata al Sistema Nacional de Investigadores

Dado el enorme tamaño del Internet, sería imposible encontrar páginas relevantes sin los “buscadores” de Internet, que se han vuelto artículo de primera

necesidad en el uso de la computadora. Sin embargo, los buscadores, basados todos en el uso de palabras clave, no manejan adecuadamente aspectos finos, tales como la exis-tencia de sinónimos, ni son capaces de entender de lo que se tratan las páginas web, por lo que los resultados reci-bidos por los usuarios incluyen mucha “basura”. En este artículo revisamos formas de superar estas deficiencias.

INTRODUCCIÓN

Internet es reconocido como una de las grandes revolu-ciones tecnológicas de nuestro tiempo; desde su origen en marzo de 1989, el Internet, o “web” en inglés, o WWW por “World Wide Web”, ha crecido exponencialmente, al-canzando algo así como 109 millones de sitios web1 [1] con al menos 20 miles de millones de páginas indexadas por los principales “buscadores” de Internet.

Dada esta enorme cantidad de documentos en Inter-net, no sería posible que los usuarios “conocieran” poco a poco o encontraran, así fuera tras horas de navegación en web, las páginas relevantes para lo que les interesa, si no fuera por la existencia de esas maravillas conocidas

como “buscadores” de Internet. Con el liderazgo pro-nunciado de Google, compañía creada por estudiantes de Stanford, dirigidos en un tiempo por el investigador de origen mexicano Héctor García Molina, la tecnología de los buscadores de Internet se ha consolidado. Otros buscado-res, como Yahoo, Microsoft Live, así como otras compa-ñías, tratan de alcanzar al líder Google, pero en general sin proponer tecnologías radicalmente distintas.

Hay que subrayar la excelencia tecnológica de los ac-tuales buscadores de Internet, que a pesar del crecimien-to explosivo de la cantidad de páginas existentes, llevan muchos años sin incrementar el tiempo en que realizan una búsqueda.

Más allá de los buscadores en InternetRamón Brena

Doctor Ramón BrenaProfesor Titular

Centro de Sistemas Inteligentes,

Tecnológico de Monterrey

Director de la Cátedra de Investigación en

Conocimiento Distribuido y Agentes

Inteligentesramon.brena@itesm.

mx

44y29.indd 1 26/02/2008 17:08:41

Page 31: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB28 CONOCIMIENTO TECNOLOGÍAS WEB 45

MAMBO Y JOOMLA

Joomla surge como el resultado de una bifurcación o me-jora de Mambo, de la corporación Miro de Australia, que mantenía la marca del nombre Mambo en esa época y el grupo principal de desarrolladores. Joomla nace con esta división el 17 de agosto de 2005. La corporación Miro for-mó una organización sin ánimo de lucro, con el propósito inicial de fundar el proyecto y protegerlo de pleitos. El grupo de desarrollo reclamó que muchas de las cláusulas de la estructura de la fundación fueron acuerdos previos hechos por el comité directivo de Mambo, el que no tiene la consultoría necesaria de quienes mantienen el proyecto e incluye cláusulas que violan los valores principales del código abierto. El grupo de desarrollo creo un sitio Web

que se llamó OpenSourceMatters para distribuir infor-

mación a los usuarios, desarrolladores, diseñadores Web

y a la comunidad en general. En ese momento, el líder Andrew Eddie, conocido como “MasterChief”, escribió una carta abierta para la comunidad, que apareció en la se-cción de anuncios del foro público en mamboserver.com. Al siguiente día, miles de personas ingresaron al Sitio Web opensourcematters.org para expresar su apoyo y estímulo por las acciones ejecutadas por el grupo de desarrollo. El sitio Web recibió un aviso de temporalmente fuera de ser-vicio debido al excesivo tráfico. Este evento apareció en newsforge.com, eweek.com, y ZDnet.com.

PROYECTO FRAY SERVANDO

En el CECYTE,NL contamos con servidores que co-rren bajo Linux en su distribución Fedora y Ubuntu, en los cuales se monitorea y administra el proyecto educativo denominado Fray Servando, compuesto por una plataforma educativa, correo electrónico, bases de datos y enlaces dedicados hacia nuestros plan-

teles, los cuales permiten la realización de videoconferencias en tiempo real, con-ferencias magistrales y capacitación de docentes y alumnos.

Un ejemplo aplicado al código abierto es la página http://www.conocimientoen-linea.com, la cual está desarrollada con herramientas como Joomla y hospedada en servidores que utilizan Linux en su distribución Fedora.

En conclusión, creemos que los pro-

gramas open source desempeñan un im-

portantísimo papel en la Web. Gracias a

esto, muchas personas pueden publicar

sus páginas de una manera amigable

e interactiva y muy sencilla, ya que si hay algún problema para instalar un programa, ya sea Joomla o publicar un servidor con Apache, hay toda una comu-nidad presta para ayudar con cualquier problema que se pueda presentar, ya sea en blog o foros.

Precisamente, este artículo fue escrito en Open Office, corriendo sobre ubuntu 7.10.

Otra de las ventajas es que la comunidad de código libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera ordenada todos los artícu-los.

La WWW se ha vuelto parte integral de la vida de mil-

lones de personas, y no solamente en los países más

desarrollados, sino también en América Latina, donde la acción de hacer una búsqueda en Google es costumbre co-tidiana en el trabajo o en las ocupaciones personales. Tan acostumbrados estamos, que no nos damos cuenta de las limitaciones de dichas búsquedas.

Por ejemplo, si recurrimos a Web “bass” para buscar bajos eléctricos, en la página de resultados de Google vie-nen páginas sobre pesca, sobre zapatos, sobre cerveza, y sobre bajos. El problema aquí es que “bass” quiere decir muchas cosas, y Google no entiende a qué nos estamos refiriendo. Hasta se nos hace “natural” que Google no en-tienda, y nos contentamos con espulgar los resultados a-rrojados por Google hasta finalmente (a veces tras varias modificaciones a las consultas) llegar a un resultado que nos sirva.

Pero, ¿podría un buscador “entender” lo que le esta-mos preguntando?

MÁS ALLÁ DE LOS BUSCADORES ACTUALES

Las páginas Web son codificadas utilizando un lenguaje especial llamado “HTML” (HyperText Markup Language, [2]), que tiene comandos llamados “tags” para indicar la forma en que la información debe presentarse al usuario que la consulta.

El web semántico.- El problema de fondo con las pági-nas de Internet actuales es que su lenguaje, el HTML, está hecho para presentar información a un usuario humano, no para explicar a otro programa computacional de qué está hablando. Cuando el Internet fue inventado, la necesi-dad de que una máquina comprendiera la información de una página no era vista como algo importante, tal vez ni siquiera como algo posible.

Sin embargo, las cosas han cambiado en los últimos años. Por primera vez en la historia de la humanidad, la

información ha pasado de ser escasa a ser abundante, y

esta abundancia se ha convertido en un problema, pues

la información inunda a los usuarios en la forma de bu-

zones de correo electrónico, llenos de multitud de pági-

nas Web generalmente irrelevantes, etcétera.

Ahora bien, ¿cómo sería posible que un documento fuera comprensible para un programa computacional?

En primer lugar, existe la posibilidad de mejorar la forma en que los documentos describen su información. El mismo inventor del WWW (Sir Tim Berners-Lee) propuso hacer documentos web “autodescribibles”, que tuvieran su información codificada de forma tal que pudieran ser comprensibles para programas computacionales, y a esto se le llamó “Web semántico” [4]. En palabras del mismo Sir Tim Berners-Lee:

Tengo un sueño para el web, en el cual las computado-ras se vuelven capaces de analizar todos los datos en el web –el contenido, las ligas y las transacciones entre personas y computadoras. Un web semántico, que haría esto posible, aún está por surgir, pero cuando lo haga, los mecanismos para el intercambio día a día, la burocracia, y nuestras vidas diarias serán manejadas por máquinas hablando a máquinas.

Desde luego, a muchos lectores les erizará la piel la frase “nuestras vidas diarias serán manejadas por máqui-nas hablando a máquinas”, pero no vamos a discutir este aspecto aquí.

TECNOLOGÍAS ‘HABILITADORAS’

Para alcanzar estos sueños, se ha desarrollado una serie de tecnologías llamadas “habilitadoras”, tales, como XML, RDF, OWL y otras. XML [5] es un lenguaje parecido al HTML del web actual, pero extensible, para poder añadir “tags” especiales de acuerdo con la aplicación. Otras tecnologías de apoyo a XML son XML Schema, DTD, XML Namespaces, XSL/XSLT, CSS, XLink, XQuery, y muchas otras, en tal can-tidad que se hace difícil estar al corriente de todas ellas.

Han sido propuestos conjuntos de etiquetas específi-camente para representar información del Web semántico, y el conjunto más importante es el estándar RDF (Resource Description Framework [6]). Creado en 1999 por la asocia-ción global W3C, RDF permite definir propiedades de re-cursos en Web, afirmaciones sobre estas propiedades, así como clases de objetos, con subclases e incluso herencia de propiedades a las subclases.

Las declaraciones de RDF tienen la forma de tripletas

formadas por un recurso, una propiedad, y el valor de

dicha propiedad. Por ejemplo, para decir que el cielo es azul, hacemos una declaración en que el recurso es el cie-lo, la propiedad es el color, y el valor es el azul. Es fácil ver que esta estructura corresponde a la triada sujeto – verbo – complemento del idioma español (y del inglés y muchas otras lenguas); por esto la expresión de afirmaciones en RDF es muy natural. Actualmente ya existen una serie de aplicaciones de RDF en sistemas computacionales, tales como FOAF, SIOC, MusicBrainz y otros. Sin embargo, tal

Timothy John Berners-LeeTimothy “Tim” John Berners-Lee, OM,

KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Física en 1976 en el Queen’s College de la Universidad de Oxford. Es considerado como el padre de la Web. Básicamente, Tim, ante la necesidad de distribuir e intercam-biar información acerca de sus investigacio-nes de una manera más efectiva, desarrolló las ideas que forman parte de la Web. Tim y su grupo desarrollaron lo que por sus siglas en inglés se denominan: Lenguaje

HTML (HyperText Markup Language) o lenguaje de etíquetas de hipertex-to; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de local-ización de objetos en la web URL (Universal Resource Locator). Muchas de las ideas plasmadas por Berners-Lee podemos encontrarlas en el proyecto Xanadu que propuso Ted Nelson y el memex de Vannevar Bush.

28y45.indd 1 26/02/2008 17:08:23

CONOCIMIENTOTECNOLOGÍAS WEB44 CONOCIMIENTO TECNOLOGÍAS WEB 29

Google sabe todo. Si necesita un restaurante de comida italiana, el nombre de un libro que quie-re comprar, la hora de la función de cine, el hombre

moderno le pregunta a Google, el motor de búsqueda más popular del mundo. Prácticamente cada navegador de pá-

ginas web incorpora una barra de búsquedas para con-

sultar con Google sobre cualquier tema. Lo que interesa a cualquier proveedor o comerciante es cómo lograr que la página Web de su negocio salga primero en la lista de resultados que muestra el buscador.

Para asegurar un buen lugar en esta lista de resulta-dos, uno necesita saber cómo funcionan Google y sus com-petidores: cómo coleccionan los datos de los cuales eligen los resultados, en cada consulta, los millones de usuarios; cómo seleccionan las páginas para ofrecer al usuario y cómo ordenan esas páginas seleccionadas. En este artículo nos enfocamos más en Google, pero varios de estos aspec-tos se aplican también a otros buscadores de la Web.

NAVEGADO

RES AUTOMÁTICOS

La recolección de datos se basa en “navegadores au-

tomáticos” que recorren las páginas web. Esos navega-

dores automáticos se llaman crawler en inglés, un sus-tantivo que proviene del verbo crawl, lo que se podría traducir como “arrastrarse”. Un crawler comienza su recorrido desde una cierta página asignada y sigue las li-gas de esta página para llegar a más páginas. Una liga, también conocida como un enlace, es simplemente un tex-to anotado con la dirección de otra página para ofrecer al usuario la posibilidad de ver otra página aparte de la que actualmente está leyendo.

Las páginas visitadas, con toda su información, están guardadas en las computadoras de Google, y las ligas en-tre ellas están analizadas. Múltiples crawlers recorren la WWW simultáneamente, recopilando así una “imagen” de la estructura y el contenido de ella en un momento dado.

El procesamiento hecho a las páginas obtenidas en esta forma es complejo, y sus detalles cambian de un mo-tor de búsquedas a otro. Sin embargo, el proceso general tiene dos componentes principales e importantes de co-nocer: las palabras que aparecen en una página están pro-cesadas según su frecuencia y posición en el texto. Las pa-labras utilizadas en títulos se consideran más importantes que las palabras incorporadas en el texto y una palabra que se usa mucho es considerada la más representativa del documento que una que se usa unas pocas veces. En este proceso se toma en cuenta la frecuencia global de

las palabras en todas las páginas procesadas: si alguna palabra (como por ejemplo las preposiciones y otras pa-labras pequeñas) se usa mucho en todos los documentos, su presencia no se considera relevante para determinar el tema de la página. El procesamiento también cuenta con un diccionario de sinónimos para identificar conceptos en vez de limitarse a nivel de palabras.

IMPORTANCIA DE LAS PALABRAS

La selección entre todas las páginas guardadas en las

computadoras está basada en la consulta hecha por el

usuario; o sea, las palabras clave que utilizó el usuario

al lanzar la búsqueda. Es importante reconocer que la búsqueda está realizada en las copias almacenadas en las computadoras de Google, en vez de buscar de forma

Google, el motor más popular del mundo

El alma de un buscador de páginas WebElisa Schaeffer

Doctora Elisa SchaefferProfesor-InvestigadorFacultad de Ingeniería Mecánica y Eléctrica / UANLCandidata al Sistema Nacional de Investigadores

Dado el enorme tamaño del Internet, sería imposible encontrar páginas relevantes sin los “buscadores” de Internet, que se han vuelto artículo de primera

necesidad en el uso de la computadora. Sin embargo, los buscadores, basados todos en el uso de palabras clave, no manejan adecuadamente aspectos finos, tales como la exis-tencia de sinónimos, ni son capaces de entender de lo que se tratan las páginas web, por lo que los resultados reci-bidos por los usuarios incluyen mucha “basura”. En este artículo revisamos formas de superar estas deficiencias.

INTRODUCCIÓN

Internet es reconocido como una de las grandes revolu-ciones tecnológicas de nuestro tiempo; desde su origen en marzo de 1989, el Internet, o “web” en inglés, o WWW por “World Wide Web”, ha crecido exponencialmente, al-canzando algo así como 109 millones de sitios web1 [1] con al menos 20 miles de millones de páginas indexadas por los principales “buscadores” de Internet.

Dada esta enorme cantidad de documentos en Inter-net, no sería posible que los usuarios “conocieran” poco a poco o encontraran, así fuera tras horas de navegación en web, las páginas relevantes para lo que les interesa, si no fuera por la existencia de esas maravillas conocidas

como “buscadores” de Internet. Con el liderazgo pro-nunciado de Google, compañía creada por estudiantes de Stanford, dirigidos en un tiempo por el investigador de origen mexicano Héctor García Molina, la tecnología de los buscadores de Internet se ha consolidado. Otros buscado-res, como Yahoo, Microsoft Live, así como otras compa-ñías, tratan de alcanzar al líder Google, pero en general sin proponer tecnologías radicalmente distintas.

Hay que subrayar la excelencia tecnológica de los ac-tuales buscadores de Internet, que a pesar del crecimien-to explosivo de la cantidad de páginas existentes, llevan muchos años sin incrementar el tiempo en que realizan una búsqueda.

Más allá de los buscadores en InternetRamón Brena

Doctor Ramón BrenaProfesor Titular

Centro de Sistemas Inteligentes,

Tecnológico de Monterrey

Director de la Cátedra de Investigación en

Conocimiento Distribuido y Agentes

Inteligentesramon.brena@itesm.

mx

44y29.indd 1 26/02/2008 17:08:41

Page 32: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB30 CONOCIMIENTO TECNOLOGÍAS WEB 43

dinámica en la Web para cada consulta. Las listas de pa-labras clave están comparadas contra las listas de concep-tos de las páginas almacenadas para identificar cuáles pá-ginas manejan los mismos conceptos que la consulta.

Google también detecta si una palabra parece estar mal deletreada; si la palabra ocurre en los documentos almacenados con poca frecuencia, pero una variación cer-cana de la palabra ocurre mucho más, Google pregunta al usuario si realmente quería buscar por la variación en vez de la palabra que definió.

De nuevo, el motor de búsqueda incorpora el uso de sinónimos y ponderación de la importancia de las pa-labras de la consulta según su frecuencia en la colección de páginas. El orden de las palabras clave está interpreta-do como un orden de prioridad, y típicamente el usuario puede “forzar” la inclusión o exclusión de cierta palabra.

IMPORTANCIA DE LAS PÁGINAS

Para ordenar las páginas encontradas en el “almacén” según su importancia, Google hace matemáticas. Una pági-na se considera “importante”, si muchas otras páginas im-portantes tienen ligas a esa página. Ésta es una definición recursiva de importancia: la importancia está definida en términos de la importancia misma. Matemáticamente se maneja esa definición por crear una matriz que contiene la información de la existencia de ligas en una página A que apuntan a una página B para todos los posibles pares A y B. Esta matriz se convierte a otra matriz que contiene la probabilidad de que un “buscador aleatorio” vaya a una página B si actualmente está viendo una página A.

Esta matriz de probabilidades tiene una estructura es-pecial algebraica que permite interpretar una propiedad matemática suya, específicamente su eigenvector princi-pal, en forma de valores de importancia de las páginas. Es una matriz enorme, por lo cual no existe una computa-dora con suficiente memoria para calcular ese eigenvector, y aun si existiera, el tiempo de computación no sería nada razonable. Afortunadamente existen métodos aproxima-dos para rápidamente estimar el eigenvector y así obtener valores numéricos de importancia “estructural” para las páginas Web. La lista de documentos seleccionados por las palabras clave de la consulta del usuario está entonces

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

CONSEJOS PARA LOS USUARIOS

Tomando en cuenta la función de un motor de búsqueda, es posible ofrecer algunos consejos para asegurar que su página reciba la importancia que merece. Es esencial es-cribir texto claro y bien estructurado sobre los productos, servicios y otros temas relevantes de la empresa o insti-tución en cuestión. Las palabras utilizadas en los títulos

(las directivas <H1>, <H2> etcétera del lenguaje HTML)

pesan mucho en el análisis de la página por el motor de

búsqueda. Colocar texto únicamente en figuras e imágenes perjudica la visibilidad de la página en Google, porque ese texto pasará desapercibido por el análisis de contenido. Otro consejo, particularmente apto para optimizar la visi-bilidad en Google, se refiere a tratar de conseguir ligas que apunten a su página –la importancia de su página proviene de la importancia y la cantidad de las ligas que entran en esa página. Es importante colaborar con los clientes y proveedores, de tal manera que pongan ligas a los sitios de sus colaboradores. También la inclusión en diferentes tipos de directorios en línea puede ayudar a aumentar la importancia relativa de su página.

Para asegurarse de que un crawler visite su página, usted puede solicitarlo directamente a Google por la pá-gina http://www.google.com/addurl.html y ellos pro-gramarán una visita al sitio. Los crawlers visitan diferen-tes páginas con diferente frecuencia, buscando mantener las páginas más importantes mejor actualizadas en el almacén. Si su página tiene ligas entrantes desde alguna página que Google ya conoce, tarde o temprano un crawler encontrará su página por las ligas. También las visitas de los usuarios de la Web pueden informar a Google de la existencia de una página –muchos navegadores informan al buscador desde cuál página llegó el usuario a ver la pá-gina de Google. Los consejos para una persona que realiza búsquedas en la Web también se basan en función de los motores de búsqueda, como: poner las palabras clave más importantes primero en la consulta, pues esto ayuda a en-contrar las páginas más relevantes; utilizar palabras más específicas, lo que puede ayudar a limitar los resultados, si son demasiados. Palabras más generales suelen am-

pliar la gama de los resultados si originalmente fueron

escasos. Es recomendable evitar palabras que tienen

doble significado o que son altamente comunes.

La búsqueda de información, productos y servicios en línea es una parte importante de la vida diaria de una po-blación creciente. Encontrar y ser encontrado tienen un impacto socio-económico más allá de lo que podíamos haber esperado en los primeros años de la WWW.

Para más información:Una guía de uso de Google (en inglés) está disponible enhttp://www.googleguide.com/

Un artículo científico The Anatomy of a Large-Scale Hypertextual Web Search Engine sobre la arquitectura de Google, por los fundadores de la empresa, Sergey Brin y Lawrence Page, está disponible en línea, igual que varios otros artículos sobre el tema.

Para buscar publicaciones académicas, es mejor hacerlo en http://

scholar.google.com/ que, en vez de juzgar la importancia por ligas, orde-na resultados considerando referencias bibliográficas entre textos cientí-ficos, como una medida de importancia.

Entonces, ¿cuáles son las razones por las que México no avanza más rápidamente en la adopción de Internet? Entre las respuestas más socorridas, están dos: la falta de conectividad y la falta de confianza del usuario hacia los servicios de comercio y banca electrónica por razones de seguridad.

Con respecto a la primera: conectividad, aún hay mucho camino por recorrer, pues la penetración de Inter-net en zonas urbanas es de apenas el 36 por ciento, de modo que hay mucho por conquistar en zonas que cuen-tan con una robusta infraestructura de fibra óptica y tec-nologías inalámbricas. Más bien son otras las razones que frenan la penetración.

Ahora bien, la segunda razón, la de la confianza, es

quizá el problema más importante por atacar, ya que,

al resolverlo, se podría detonar la demanda de manera

importante. La llave para que esto suceda está del lado de las grandes corporaciones en México, los bancos, las em-presas de comercio detallista, las empresas de servicios y los medios de comunicación.

TRANSACCIONES MÁS ECONÓMICAS

Retomando el ejemplo de Banco por Internet, está com-probado que los costos de transacción son mucho más económicos por el canal de Internet que por canales tradi-cionales como una sucursal o vía telefónica. Por ejemplo, de acuerdo a un estudio publicado por Giga Information Group en 2005, resolver una consulta a través de una se-sión interactiva de Internet (vía chat) cuesta al banco la mitad que el hacerlo por teléfono. Más aún, si se atiende

mediante un sistema de autoservicio, el costo se reduce hasta un 20 por ciento. Sin embargo, la realidad es que muchas de las aclaraciones en México se tienen que re-solver en sucursal, con un costo para el banco mucho más alto aún que el teléfono.

Ahora bien, quizá el razonamiento del banco para no

invertir en robustecer su canal de Internet tiene que ver

con que sólo alcanzaría a un 12 ó 13 por ciento de la

población (si consideramos que menos de la mitad de los usuarios de Internet en México realizan transacciones ban-carias), por lo que la institución podría preferir focalizarse al grueso de sus clientes.

¿Cómo romper ese círculo vicioso? Alguien tiene que dar el primer paso, orientado a generar confianza entre los usuarios potenciales. Las corporaciones tienen mucho por ganar al adoptar mejores prácticas e integrar mejor su canal de Internet, al tiempo que cuidan más a los clientes que adoptan este medio. Entre los beneficios se cuentan: reducción de costos, incremento en la satisfacción del cliente, y reducción en el tiempo de introducción de pro-ductos en el mercado. Al hacerlo, además, contribuirían a una adopción más rápida de tecnologías de información en México y a cerrar la brecha digital.

¿Cómo hacerlo? Estableciendo los incentivos adecua-dos, como lo hizo mi ejecutivo de cuenta en la historia que compartí al principio; quien me hizo ver claramente por un lado que el no usar la tecnología me costaría más que sí hacerlo y, por otro lado, me capacitó adecuadamente. La zanahoria por delante y el látigo por detrás.

30y43.indd 1 26/02/2008 17:08:55

CONOCIMIENTOTECNOLOGÍAS WEB42 CONOCIMIENTO TECNOLOGÍAS WEB 31

Existe la creencia errónea de que, al crear el con-tenido de un sitio web, bastará con copiar la in-formación contenida en folletos y documentos

institucionales. Esto se hace cuando se parte de dos premi-sas equivocadas: (a) el texto de un material impreso se pue-de presentar y leer de la misma forma en una pantalla y (b) la gente lee lo que es importante para la organización dueña del sitio.

Para el primer punto, ergonómicamente es mucho más cansado leer pixeles en una pantalla que texto en un papel. (CBASSE, 1983) Por ello, cuando el usuario está leyendo

un artículo largo que le resulta interesante, muchas ve-

ces lo imprimirá para continuar leyendo de un papel. Para la segunda premisa, la gente no lee lo que es impor-tante para la organización. Piense en los últimos tres sitios que haya visitado. ¿Leyó toda la información de la página? Por supuesto que no. Cada usuario lee únicamente lo que resulta importante para él. Por ello es tan relevante co-nocer qué buscan los usuarios que visitan el sitio.

DISEÑO DE INFORMACIÓN

Para tener un sitio amigable y funcional, debemos diseñar la información del mismo. De acuerdo con Nathan Shed-roff (2008), el diseño de información “es un campo y un enfoque que intenta diseñar comunicaciones claras e in-teligibles mediante el cuidado de la estructura, el contexto y la presentación de los datos y la información”. Deben cuidarse cuatro aspectos:

¿Qué? El tema central o propósito de la página debe ser

lo más claro posible.

¿Quién? Es básico reclamar la propiedad de una página.

¿Dónde? Nunca olvidar la naturaleza internacional del

medio?.¿Cuándo? Indicar la fecha de publicación. Las páginas

envejecen. Un ejemplo muy sencillo sería la publicación de una página que hable sobre índices de deforestación en bosques de coníferas. Lo primero que debe quedar claro es por qué se publica esta información. ¿Está diseñada para centros de investigación o para concienciar a niños de escuelas primarias sobre la importancia del tema? El lenguaje empleado y los resultados presentados variarán mucho con base en mi audiencia. En segundo lugar, ¿quién publica esta información? No tendrá la misma credibilidad si lo publica la SEMARNAT, Green Peace o una asociación regional de madereros. En tercer lugar, debe especificar dónde se genera esta información. ¿Se está hablando de los bosques de Querétaro, de México o del mundo? Por último, saber de cuándo son estas cifras. Si son de hace dos años, ya cambiaron.

REDACTAR COMO PROGRAMAR.

UIILICE OBJETOS

En la programación orientada a objetos, cada uno de ellos tiene su propia información, encapsulada. No se encuentra esparcida por todo el código. De la misma forma, la infor-mación en un sitio Web debe organizarse como objetos, y

Cómo redactar los textos para la WebMarta Sylvia del Río

Ingeniera Marta Sylvia del RíoDirectora de los Posgrados en Ingeniería y DiseñoUniversidad de [email protected]

teléfono unas tres o cuatro ocasiones para resolver algún problema, siempre de manera satisfactoria.

El 2 de abril de ese mismo año, el periódico Reforma publicaba los resultados de la décima encuesta anual sobre consumo cultural y medios de comunicación. En ella se se-ñalaba que el 61 por ciento de los usuarios encuestados

nunca realizaría una transacción bancaria en Internet.

A la distancia, hoy en día, la situación entre los usua-rios de servicios bancarios en México pareciera no ser muy diferente. En un estudio publicado por la Asociación Mexi-cana de Internet (AMIPCI) en 2006, acerca de Banca por Internet en el país, se revela que del total de usuarios de

la banca en México, sólo el 48 por ciento utiliza servicios

en línea, la mayoría sólo para consultar saldos; apenas el

51 por ciento para pagar servicios, y un porcentaje aún

menor lo usa para hacer transferencias. Llama la atención el hecho de que el mismo estudio

señala que, entre los usuarios bancarios con acceso a In-ternet, el 81 por ciento indican que un factor de decisión al seleccionar un banco es que éste cuente con un buen servicio en línea.

SERVICIOS EN LÍNEA EXPEDITOS

Por las funciones que desempeño, me veo en la necesi-dad de viajar frecuentemente. El tener acceso a servicios como expedia.com, travelocity.com y hotels.com, me fa-cilita enormemente el proceso de planeación de viajes. En cuestión de minutos puedo comparar horarios, precios y disponibilidad. Una vez tomada la decisión de adquirir un paquete, no me toma más de cinco minutos el completar la transacción con alguno de los servicios que menciono.

No fue así mi experiencia hace un par de años, cuando decidí comprar un boleto en despegar.com, sitio especia-lizado en servicios de viaje en América Latina. En un prin-cipio, la experiencia parecía ser similar: comparé horarios, precios y me decidí por un itinerario para un viaje México-Nueva York. Completar la transacción me requirió media docena de correos electrónicos, tres llamadas de larga dis-

tancia, dos faxes y 48 horas. Esto parecería que se limita a la manera de hacer negocios de esta empresa en par-ticular. Sin embargo, también soy usuario frecuente de los servicios de aeroméxico.com, donde no es una situación extraordinaria encontrarme que, una vez en el aeropuerto, en mostrador me digan que mi boleto comprado vía Inter-net no ha sido pagado. La razón es que el sistema de cargo a tarjeta de crédito de aeroméxico.com no opera en línea, por lo que es muy común que, estando ya en mostrador, el agente tenga que llamar a la central de Houston o la Ciu-dad de México para solicitar el cargo vía telefónica.

CRECIENTE LA BRECHA DIGITAL

Utilizo estos dos escenarios: el de mi experiencia como usuario de banca y servicios de viaje en línea, no para señalar las deficiencias de tal o cual empresa, sino para ejemplificar las carencias que, desde mi óptica, existen en la cultura de servicios en línea en América Latina en gene-ral, y en México en particular; y el cómo se sientan las bases para que la brecha digital con los países desarro-llados se siga incrementando.

De acuerdo a un estudio de 2006 (Arbitron), ocho de

cada diez estadounidenses tienen acceso a Internet, y el

52 por ciento de ellos han realizado compras en línea,

mientras que en México sólo el 25.6 por ciento de la po-

blación tiene acceso a Internet y, entre éstos, sólo el 14

por ciento realiza actividades de comercio electrónico, aun cuando más de la mitad considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua-rios de Internet, AMIPCI 2007).

42y31.indd 1 26/02/2008 17:09:15

Page 33: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB30 CONOCIMIENTO TECNOLOGÍAS WEB 43

dinámica en la Web para cada consulta. Las listas de pa-labras clave están comparadas contra las listas de concep-tos de las páginas almacenadas para identificar cuáles pá-ginas manejan los mismos conceptos que la consulta.

Google también detecta si una palabra parece estar mal deletreada; si la palabra ocurre en los documentos almacenados con poca frecuencia, pero una variación cer-cana de la palabra ocurre mucho más, Google pregunta al usuario si realmente quería buscar por la variación en vez de la palabra que definió.

De nuevo, el motor de búsqueda incorpora el uso de sinónimos y ponderación de la importancia de las pa-labras de la consulta según su frecuencia en la colección de páginas. El orden de las palabras clave está interpreta-do como un orden de prioridad, y típicamente el usuario puede “forzar” la inclusión o exclusión de cierta palabra.

IMPORTANCIA DE LAS PÁGINAS

Para ordenar las páginas encontradas en el “almacén” según su importancia, Google hace matemáticas. Una pági-na se considera “importante”, si muchas otras páginas im-portantes tienen ligas a esa página. Ésta es una definición recursiva de importancia: la importancia está definida en términos de la importancia misma. Matemáticamente se maneja esa definición por crear una matriz que contiene la información de la existencia de ligas en una página A que apuntan a una página B para todos los posibles pares A y B. Esta matriz se convierte a otra matriz que contiene la probabilidad de que un “buscador aleatorio” vaya a una página B si actualmente está viendo una página A.

Esta matriz de probabilidades tiene una estructura es-pecial algebraica que permite interpretar una propiedad matemática suya, específicamente su eigenvector princi-pal, en forma de valores de importancia de las páginas. Es una matriz enorme, por lo cual no existe una computa-dora con suficiente memoria para calcular ese eigenvector, y aun si existiera, el tiempo de computación no sería nada razonable. Afortunadamente existen métodos aproxima-dos para rápidamente estimar el eigenvector y así obtener valores numéricos de importancia “estructural” para las páginas Web. La lista de documentos seleccionados por las palabras clave de la consulta del usuario está entonces

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

CONSEJOS PARA LOS USUARIOS

Tomando en cuenta la función de un motor de búsqueda, es posible ofrecer algunos consejos para asegurar que su página reciba la importancia que merece. Es esencial es-cribir texto claro y bien estructurado sobre los productos, servicios y otros temas relevantes de la empresa o insti-tución en cuestión. Las palabras utilizadas en los títulos

(las directivas <H1>, <H2> etcétera del lenguaje HTML)

pesan mucho en el análisis de la página por el motor de

búsqueda. Colocar texto únicamente en figuras e imágenes perjudica la visibilidad de la página en Google, porque ese texto pasará desapercibido por el análisis de contenido. Otro consejo, particularmente apto para optimizar la visi-bilidad en Google, se refiere a tratar de conseguir ligas que apunten a su página –la importancia de su página proviene de la importancia y la cantidad de las ligas que entran en esa página. Es importante colaborar con los clientes y proveedores, de tal manera que pongan ligas a los sitios de sus colaboradores. También la inclusión en diferentes tipos de directorios en línea puede ayudar a aumentar la importancia relativa de su página.

Para asegurarse de que un crawler visite su página, usted puede solicitarlo directamente a Google por la pá-gina http://www.google.com/addurl.html y ellos pro-gramarán una visita al sitio. Los crawlers visitan diferen-tes páginas con diferente frecuencia, buscando mantener las páginas más importantes mejor actualizadas en el almacén. Si su página tiene ligas entrantes desde alguna página que Google ya conoce, tarde o temprano un crawler encontrará su página por las ligas. También las visitas de los usuarios de la Web pueden informar a Google de la existencia de una página –muchos navegadores informan al buscador desde cuál página llegó el usuario a ver la pá-gina de Google. Los consejos para una persona que realiza búsquedas en la Web también se basan en función de los motores de búsqueda, como: poner las palabras clave más importantes primero en la consulta, pues esto ayuda a en-contrar las páginas más relevantes; utilizar palabras más específicas, lo que puede ayudar a limitar los resultados, si son demasiados. Palabras más generales suelen am-

pliar la gama de los resultados si originalmente fueron

escasos. Es recomendable evitar palabras que tienen

doble significado o que son altamente comunes.

La búsqueda de información, productos y servicios en línea es una parte importante de la vida diaria de una po-blación creciente. Encontrar y ser encontrado tienen un impacto socio-económico más allá de lo que podíamos haber esperado en los primeros años de la WWW.

Para más información:Una guía de uso de Google (en inglés) está disponible enhttp://www.googleguide.com/

Un artículo científico The Anatomy of a Large-Scale Hypertextual Web Search Engine sobre la arquitectura de Google, por los fundadores de la empresa, Sergey Brin y Lawrence Page, está disponible en línea, igual que varios otros artículos sobre el tema.

Para buscar publicaciones académicas, es mejor hacerlo en http://

scholar.google.com/ que, en vez de juzgar la importancia por ligas, orde-na resultados considerando referencias bibliográficas entre textos cientí-ficos, como una medida de importancia.

Entonces, ¿cuáles son las razones por las que México no avanza más rápidamente en la adopción de Internet? Entre las respuestas más socorridas, están dos: la falta de conectividad y la falta de confianza del usuario hacia los servicios de comercio y banca electrónica por razones de seguridad.

Con respecto a la primera: conectividad, aún hay mucho camino por recorrer, pues la penetración de Inter-net en zonas urbanas es de apenas el 36 por ciento, de modo que hay mucho por conquistar en zonas que cuen-tan con una robusta infraestructura de fibra óptica y tec-nologías inalámbricas. Más bien son otras las razones que frenan la penetración.

Ahora bien, la segunda razón, la de la confianza, es

quizá el problema más importante por atacar, ya que,

al resolverlo, se podría detonar la demanda de manera

importante. La llave para que esto suceda está del lado de las grandes corporaciones en México, los bancos, las em-presas de comercio detallista, las empresas de servicios y los medios de comunicación.

TRANSACCIONES MÁS ECONÓMICAS

Retomando el ejemplo de Banco por Internet, está com-probado que los costos de transacción son mucho más económicos por el canal de Internet que por canales tradi-cionales como una sucursal o vía telefónica. Por ejemplo, de acuerdo a un estudio publicado por Giga Information Group en 2005, resolver una consulta a través de una se-sión interactiva de Internet (vía chat) cuesta al banco la mitad que el hacerlo por teléfono. Más aún, si se atiende

mediante un sistema de autoservicio, el costo se reduce hasta un 20 por ciento. Sin embargo, la realidad es que muchas de las aclaraciones en México se tienen que re-solver en sucursal, con un costo para el banco mucho más alto aún que el teléfono.

Ahora bien, quizá el razonamiento del banco para no

invertir en robustecer su canal de Internet tiene que ver

con que sólo alcanzaría a un 12 ó 13 por ciento de la

población (si consideramos que menos de la mitad de los usuarios de Internet en México realizan transacciones ban-carias), por lo que la institución podría preferir focalizarse al grueso de sus clientes.

¿Cómo romper ese círculo vicioso? Alguien tiene que dar el primer paso, orientado a generar confianza entre los usuarios potenciales. Las corporaciones tienen mucho por ganar al adoptar mejores prácticas e integrar mejor su canal de Internet, al tiempo que cuidan más a los clientes que adoptan este medio. Entre los beneficios se cuentan: reducción de costos, incremento en la satisfacción del cliente, y reducción en el tiempo de introducción de pro-ductos en el mercado. Al hacerlo, además, contribuirían a una adopción más rápida de tecnologías de información en México y a cerrar la brecha digital.

¿Cómo hacerlo? Estableciendo los incentivos adecua-dos, como lo hizo mi ejecutivo de cuenta en la historia que compartí al principio; quien me hizo ver claramente por un lado que el no usar la tecnología me costaría más que sí hacerlo y, por otro lado, me capacitó adecuadamente. La zanahoria por delante y el látigo por detrás.

30y43.indd 1 26/02/2008 17:08:55

CONOCIMIENTOTECNOLOGÍAS WEB42 CONOCIMIENTO TECNOLOGÍAS WEB 31

Existe la creencia errónea de que, al crear el con-tenido de un sitio web, bastará con copiar la in-formación contenida en folletos y documentos

institucionales. Esto se hace cuando se parte de dos premi-sas equivocadas: (a) el texto de un material impreso se pue-de presentar y leer de la misma forma en una pantalla y (b) la gente lee lo que es importante para la organización dueña del sitio.

Para el primer punto, ergonómicamente es mucho más cansado leer pixeles en una pantalla que texto en un papel. (CBASSE, 1983) Por ello, cuando el usuario está leyendo

un artículo largo que le resulta interesante, muchas ve-

ces lo imprimirá para continuar leyendo de un papel. Para la segunda premisa, la gente no lee lo que es impor-tante para la organización. Piense en los últimos tres sitios que haya visitado. ¿Leyó toda la información de la página? Por supuesto que no. Cada usuario lee únicamente lo que resulta importante para él. Por ello es tan relevante co-nocer qué buscan los usuarios que visitan el sitio.

DISEÑO DE INFORMACIÓN

Para tener un sitio amigable y funcional, debemos diseñar la información del mismo. De acuerdo con Nathan Shed-roff (2008), el diseño de información “es un campo y un enfoque que intenta diseñar comunicaciones claras e in-teligibles mediante el cuidado de la estructura, el contexto y la presentación de los datos y la información”. Deben cuidarse cuatro aspectos:

¿Qué? El tema central o propósito de la página debe ser

lo más claro posible.

¿Quién? Es básico reclamar la propiedad de una página.

¿Dónde? Nunca olvidar la naturaleza internacional del

medio?.¿Cuándo? Indicar la fecha de publicación. Las páginas

envejecen. Un ejemplo muy sencillo sería la publicación de una página que hable sobre índices de deforestación en bosques de coníferas. Lo primero que debe quedar claro es por qué se publica esta información. ¿Está diseñada para centros de investigación o para concienciar a niños de escuelas primarias sobre la importancia del tema? El lenguaje empleado y los resultados presentados variarán mucho con base en mi audiencia. En segundo lugar, ¿quién publica esta información? No tendrá la misma credibilidad si lo publica la SEMARNAT, Green Peace o una asociación regional de madereros. En tercer lugar, debe especificar dónde se genera esta información. ¿Se está hablando de los bosques de Querétaro, de México o del mundo? Por último, saber de cuándo son estas cifras. Si son de hace dos años, ya cambiaron.

REDACTAR COMO PROGRAMAR.

UIILICE OBJETOS

En la programación orientada a objetos, cada uno de ellos tiene su propia información, encapsulada. No se encuentra esparcida por todo el código. De la misma forma, la infor-mación en un sitio Web debe organizarse como objetos, y

Cómo redactar los textos para la WebMarta Sylvia del Río

Ingeniera Marta Sylvia del RíoDirectora de los Posgrados en Ingeniería y DiseñoUniversidad de [email protected]

teléfono unas tres o cuatro ocasiones para resolver algún problema, siempre de manera satisfactoria.

El 2 de abril de ese mismo año, el periódico Reforma publicaba los resultados de la décima encuesta anual sobre consumo cultural y medios de comunicación. En ella se se-ñalaba que el 61 por ciento de los usuarios encuestados

nunca realizaría una transacción bancaria en Internet.

A la distancia, hoy en día, la situación entre los usua-rios de servicios bancarios en México pareciera no ser muy diferente. En un estudio publicado por la Asociación Mexi-cana de Internet (AMIPCI) en 2006, acerca de Banca por Internet en el país, se revela que del total de usuarios de

la banca en México, sólo el 48 por ciento utiliza servicios

en línea, la mayoría sólo para consultar saldos; apenas el

51 por ciento para pagar servicios, y un porcentaje aún

menor lo usa para hacer transferencias. Llama la atención el hecho de que el mismo estudio

señala que, entre los usuarios bancarios con acceso a In-ternet, el 81 por ciento indican que un factor de decisión al seleccionar un banco es que éste cuente con un buen servicio en línea.

SERVICIOS EN LÍNEA EXPEDITOS

Por las funciones que desempeño, me veo en la necesi-dad de viajar frecuentemente. El tener acceso a servicios como expedia.com, travelocity.com y hotels.com, me fa-cilita enormemente el proceso de planeación de viajes. En cuestión de minutos puedo comparar horarios, precios y disponibilidad. Una vez tomada la decisión de adquirir un paquete, no me toma más de cinco minutos el completar la transacción con alguno de los servicios que menciono.

No fue así mi experiencia hace un par de años, cuando decidí comprar un boleto en despegar.com, sitio especia-lizado en servicios de viaje en América Latina. En un prin-cipio, la experiencia parecía ser similar: comparé horarios, precios y me decidí por un itinerario para un viaje México-Nueva York. Completar la transacción me requirió media docena de correos electrónicos, tres llamadas de larga dis-

tancia, dos faxes y 48 horas. Esto parecería que se limita a la manera de hacer negocios de esta empresa en par-ticular. Sin embargo, también soy usuario frecuente de los servicios de aeroméxico.com, donde no es una situación extraordinaria encontrarme que, una vez en el aeropuerto, en mostrador me digan que mi boleto comprado vía Inter-net no ha sido pagado. La razón es que el sistema de cargo a tarjeta de crédito de aeroméxico.com no opera en línea, por lo que es muy común que, estando ya en mostrador, el agente tenga que llamar a la central de Houston o la Ciu-dad de México para solicitar el cargo vía telefónica.

CRECIENTE LA BRECHA DIGITAL

Utilizo estos dos escenarios: el de mi experiencia como usuario de banca y servicios de viaje en línea, no para señalar las deficiencias de tal o cual empresa, sino para ejemplificar las carencias que, desde mi óptica, existen en la cultura de servicios en línea en América Latina en gene-ral, y en México en particular; y el cómo se sientan las bases para que la brecha digital con los países desarro-llados se siga incrementando.

De acuerdo a un estudio de 2006 (Arbitron), ocho de

cada diez estadounidenses tienen acceso a Internet, y el

52 por ciento de ellos han realizado compras en línea,

mientras que en México sólo el 25.6 por ciento de la po-

blación tiene acceso a Internet y, entre éstos, sólo el 14

por ciento realiza actividades de comercio electrónico, aun cuando más de la mitad considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua-rios de Internet, AMIPCI 2007).

42y31.indd 1 26/02/2008 17:09:15

Page 34: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB32 CONOCIMIENTO TECNOLOGÍAS WEB 41

Antes Después

Existe la necesidad de una revisión tanto de los exámenes preoperatorios como de los postoperatorios para la determinación de la confiabilidad en los resultados.

Deben revisarse los exámenes pre y postoperatorios para determinar su nivel de confiabilidad.

Bienvenido al BuscaChef donde se maneja un concepto revolucionario para simplificar su tarea. Aquí no sólo podrá consultar todo tipo de recetas, sino que podrá hacerlo de varias formas. Si teclea un ingrediente, por ejemplo chocolate, traerá todas las recetas relacionadas con este producto, desde mole hasta pastel selva negra. Por otro lado, puede buscar una receta específica, como puede ser el mole. Por último, puede seleccionar un tipo de comida, como comida mexicana, y traerá todas las recetas que se tengan registradas.

El BuscaChef le ahorra tiempo encontrando recetasPor ingrediente traerá las recetas que contengan ese ingrediente, por ejemplo, chocolate Por platillo traerá las recetas de ese platillo, por ejemplo, molePor tipo de comida traerá las recetas relacionadas, por ejemplo, comida mexicana

Cuidado: no rechace esta oportunidad de renovar su membresía a menos que ya haya utilizado todos los beneficios que se ofrecen.

Por favor reconsidere su cancelación. Lo apreciamos como miembro, y esperamos que valore todos los beneficios que la membresía le ofrece. (Price, 2002)

Podrá subir al servidor, mediante un FTP, las imágenes que se seleccionen en la ventana del Explorador de Windows. Podrá agregar las imágenes que usted seleccione de su computadora.

No hay recaptura; ingrese en modo reescribir En este momento no puede modificar el dato; debe seleccionar el modo reescribir del menú

Antes Después

En la siguiente página podrá encontrar … En la página de seguridad del producto podrá encontrar…

Da clic aquí para ver los resultados El 63% de los alumnos recomendarían el curso y 23% sugieren mejoras, en base a nuestra encuesta de satisfacción.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

Resumen | Propuesta | RecomendacionesMayor información con Alejandro Rivera

El manual de identidad especifica los lineamientos a seguir para las aplicaciones.

El manual de identidad especifica los lineamientos a seguir para las aplicaciones. (PDF de 4.3 MB, requiere Acrobat Reader 4.0 o más)

SIMPLIFICAR LOS TEXTOS

El lenguaje debe simplificarse lo más posible, eliminando adjetivos, juicios de valor, y ambigüedades. Hay que dar

un tono positivo al mensaje. Se recomienda dar información completa, en forma amigable y sin tecnicismos. Esto último es especialmente importante para los mensajes de error.

SIMPLIFICAR LAS LIGAS

Cuando agregamos ligas, debe especificarse qué contienen, para que el usuario decida si quiere acceder a ellas o no. Conviene incluir referencias a otras páginas del sitio, para facilitar la navegación del usuario. Cuando se trate de descar-gar un documento, conviene especificar tamaño y formato.

definir tareas específicas que el usuario podrá realizar.Cuando un usuario entra en un Sitio Web, espera rea-

lizar una tarea específica. Si alguien accede a diccionar-ios.com, estará buscando la traducción de un término o la clarificación una palabra. Accederán a gmail.com para enviar un mensaje a un amigo. En cinepolis.com estarán buscando qué películas se exhiben y los horarios de la sala de exhibición más cercana.

El hombre piensa de forma natural en objetos, por

lo que es algo que debiera resultar intuitivo. Al solicitar información de sillas en target.com, toda la información de la mesa debe aparecer en un mismo lugar, y dicha infor-mación debe estar completa. Sin embargo, existen sitios que muestran toda la información del catálogo de pro-ductos en una misma página. Tanta información satura al usuario.

Si pensamos en tareas, es mucho más fácil definir cómo se manejarán esos objetos y diseñar la información adecuada para la tarea. Por ejemplo, si en un sitio voy a comprar un producto, al momento de seleccionar el ca-rrito de compra debo esconder la información sobre el ca-tálogo. Aun cuando deje una liga para regresar al catálogo, en ese momento me enfocaré en presentar la información de envío y contestar las dudas que deba tener sobre esto. Al momento de haber seleccionado la opción de envío, debo eliminar esta información y ahora apoyarla con las opciones de pago.

Aún más importante es el seleccionar nombres re-presentativos. Si un sitio promueve estudios en el extran-jero, los visitantes esperarán encontrar una liga o botón a becas, y si el sitio utiliza el término ayudas financieras, probablemente haya usuarios que no lo encuentren.

“Ahora permítame explicarle el funcionamiento de nuestro servicio de banca en línea”, procedió la funcionaria de la sucursal bancaria en Nueva York, y continuó: “Al mes tiene usted derecho a sólo cinco cheques sin cargo por comisión, pero las transacciones en Internet son sin cargo alguno”.

Sin más trámite que un depósito inicial, la firma de

un solo contrato y una sesión de entrenamiento de diez

minutos, ya estaba yo en condiciones de utilizar los ser-

vicios de banca en línea de Citibank. Esto también expli-caba el porqué esa sucursal, situada en la esquina de No-vena Avenida y Calle 42, una de las zonas más populares de Nueva York, se encontraba prácticamente vacía a mitad del día de trabajo.

NO MÁS IDAS AL BANCO

Era el principio del año 2003. Desde entonces realizo to-das mis actividades bancarias con esa institución; pago servicios, como luz, teléfono, cable; transfiero dinero a México; pago impuestos y nunca, desde aquel entonces, he tenido que poner un pie en una sucursal de banco. Todo lo realizo por Internet. Si acaso, he tenido que hablar por

Para que Internet funcione…

La zanahoria por delante y el látigopor detrásAlejandro Camino

Alejandro Camino V. P. Marketing y Comunicación / Softtek

32y41.indd 1 26/02/2008 17:09:32

CONOCIMIENTOTECNOLOGÍAS WEB40 CONOCIMIENTO TECNOLOGÍAS WEB 33

REDACCIÓN DE PIRÁMIDE INVERTIDA

Cuando sea posible, se recomienda utilizar la técnica de la pirámide invertida, escribiendo la idea principal y luego sustentando y agregando detalles. De esta forma, si el usua-rio no termina de leer, habrá captado la idea principal. No es el mejor estilo para un libro o una historia, pero enfoca la atención a la información más relevante.

Blanca Nieves se casó con su príncipe azul tras escapar de numerosos peligros, incluyendo un cazador asesino y una manzana envenenada. (Woodtke, 2002, p.16) Busque más información sobre el príncipe, los siete enanos, la ma-drastra, la manzana envenenada y el espejo mágico.

REDACTAR PARA BUSCADORES

Otro punto importante de un sitio web es redactar para que los buscadores puedan encontrar fácilmente mi con-tenido. Se les puede indicar qué información existe y cada cuánto tiempo se actualiza. Entre los expertos de diseño

de sitios web, se conoce cómo mejorar la buscabilidad

(findability). Es importante recordar que los textos em-

bebidos en imágenes no podrán ser localizados por los

buscadores.

EL LENGUAJE CIUDADANO:

UNA APLICACIÓN EN MÉXICO

En Suecia surgió un movimiento que posteriormente se fue adoptando en el resto del mundo, Plain Language, que puede traducirse como Lenguaje Cotidiano, y se ha imple-mentado en muchos países con éxito. México no es la ex-cepción, ya que ha sido una preocupación cada vez mayor para el gobierno. En la Secretaría de la Función Pública acuñaron el término lenguaje ciudadano (SFP, 2008). Esta entidad se dedica a capacitar a dependencias federales, estatales o municipales para mejorar los portales guber-namentales y facilitar el acceso del ciudadano.

En el ejemplo de la figura 1 se observa cómo simplifi-can sustancialmente la información para generar párrafos sencillos de entender.

CONCLUSIONES

Una vez que se reconoce que el escribir para Web no es igual al escribir para materiales impresos, se ha recorrido la mitad del camino. El hecho de que el usuario esté solo con su computadora, hace que los textos amigables sean más importantes que nunca. Adicionalmente, nunca se sabe quién es el verdadero lector que se tiene al otro lado. Un estudio que realizó en fecha reciente el gobierno de Chile, arrojó como resultado el que en muchas ocasiones el portal de gobierno estaba interactuando con niños, que ayudaban a sus abuelos a realizar algún trámite en línea. (P. Saavedra, comunicación personal, 9 de noviembre de 2007).

Entre más placentera sea la experiencia del usuario,

más posibilidades habrá de que regrese a un sitio web.

El lenguaje utilizado es parte importante de la usabili-

dad del sitio.

Antes Después

<html><head><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

<html><head><meta name=”keywords” content=”usabilidad, testing, card sort, personas, arquitectura de informacion, diseno visual, navegacion”><meta name=”description” content=”Informacion basica para el diseno de un sitio web, con referencias a libros y articulos especializados. Ideal para personas que inician en el diseno de sitios web”><meta name=”robot” content=”all”><meta name=”revisit” content=”20 days”><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

(Price, 2002)

BibliografíaJeney, C. (2006) Writing for the Web: A Practical Guide (1a ed.) USA: Prentice HallPrice, J. Price, L. (2002) Hot Text. USA: New RidersShedroff, N. Diller, S. Rhea D. (2008) Making Meaning: How Successful Businesses Deliver Meaningful Customer Experiences (1a ed). USA: New Riders PressWoodtke, Christina (2002). Information architecture. USA: New Riders Press

Referencias WebCBASSE Commission on Behavioral and Social Sciences and Education (1983). Video Displays, Work, and Vision. Disponible en: http://www.nap.edu/openbook.php?isbn=0309033888&page=R9 Secretaría de la Función Pública (2008). Lenguaje Ciudadano. Disponible en: http://www.lenguajeciudadano.gob.mx/index.php?option=com_content&task=blogcategory&id=23&Itemid=30.

códecs necesarios para la reproducción de contenido mul-timedia WMV, WMA y MP3.

COMPLEMENTO DE EXPLORADOR

Esencialmente, Silverlight es un complemento de explora-dor que representa XAML, y expone su modelo de objetos del documento (DOM - Document Object Model) interno y el modelo de evento al explorador de manera traducible en secuencias de comandos. Así, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones y escalas de tiempo, y un desarrollador puede adjuntarlos al código de una página para implementar la funcionali-dad. Dado que XAML se basa en XML, el documento que define la interfaz del usuario que se descarga al cliente se basa en texto y, por lo tanto, no da problemas a mo-tores de búsqueda ni firewalls. Además, XAML puede en-samblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experien-cia gráfica enriquecida, sino también una muy personali-zable y dinámica.

Silverlight representa el paso siguiente en el desa-

rrollo del potencial de riqueza en utilización que los de-

sarrolladores y diseñadores de aplicaciones pueden pre-

sentar a sus clientes. Esto se consigue permitiendo a los diseñadores expresar su creatividad y guardar su trabajo en un formato que funcione directamente en la Web. En el pasado, los diseñadores creaban un sitio Web y ofrecían una utilización a los usuarios a través de herramientas que proporcionaban resultados variados, pero el desarro-llador tenía que solventar las restricciones de la platafor-ma Web y era capaz de ofrecer tales resultados.

UTILIZACIÓN

COMPLETA Y VARIADA

En el modelo de Silverlight, los diseñadores pueden ge-nerar el tipo de utilización que desean para el usuario, y expresarlo como XAML. De esta forma, se puede trabajar más estrechamente que antes, con el fin de proporcionar una utilización completa y variada al usuario.

Como XAML es XML; está basado en texto, lo cual pro-porciona una descripción de sus ricos contenidos, fácil de inspeccionar y totalmente compatible con los firewall. Aunque se pueden usar otras tecnologías —como subpro-gramas en Java, ActiveX y Flash— para implementar con-tenidos más ricos que DHTML, CSS y JavaScript, todas e-llas envían contenidos binarios al explorador. Esto resulta difícil de auditar, sin mencionar la dificultad de actuali-zación, ya que para cualquier cambio es necesario que la aplicación se vuelva a instalar, lo que no es tan fácil para el usuario y podría provocar estancamientos en las páginas. Cuando se usa Silverlight y es necesario realizar un cam-bio en el contenido enriquecido, se genera un nuevo ar-chivo XAML en el servidor. La próxima vez que el usuario vaya a la página, se descargará este XAML y se actualizará la experiencia sin ninguna reinstalación.

APLICACIONES DE SILVERLIGHT

En el núcleo de Silverlight está el módulo de mejora del explorador que genera XAML y ofrece los gráficos resul-tantes en la superficie del explorador. Se trata de una descarga pequeña (menos de 2 MB), que se puede instalar cuando el usuario se encuentra con un sitio con contenido de Silverlight o bien se puede descargar de su Web: http://www.microsoft.com/silverlight/

Para generar aplicaciones de Silverlight,tenemos las siguientes opciones:

Para desarrolladores:• Microsoft Visual Studio 2008• Microsoft ASP.NET

Para diseñadores:• Expression Encoder• Expression Design• Expression Blend 2

Sitio creado con Silverlight: http://www.tafiti.com/

40y33.indd 1 26/02/2008 17:09:48

Page 35: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB32 CONOCIMIENTO TECNOLOGÍAS WEB 41

Antes Después

Existe la necesidad de una revisión tanto de los exámenes preoperatorios como de los postoperatorios para la determinación de la confiabilidad en los resultados.

Deben revisarse los exámenes pre y postoperatorios para determinar su nivel de confiabilidad.

Bienvenido al BuscaChef donde se maneja un concepto revolucionario para simplificar su tarea. Aquí no sólo podrá consultar todo tipo de recetas, sino que podrá hacerlo de varias formas. Si teclea un ingrediente, por ejemplo chocolate, traerá todas las recetas relacionadas con este producto, desde mole hasta pastel selva negra. Por otro lado, puede buscar una receta específica, como puede ser el mole. Por último, puede seleccionar un tipo de comida, como comida mexicana, y traerá todas las recetas que se tengan registradas.

El BuscaChef le ahorra tiempo encontrando recetasPor ingrediente traerá las recetas que contengan ese ingrediente, por ejemplo, chocolate Por platillo traerá las recetas de ese platillo, por ejemplo, molePor tipo de comida traerá las recetas relacionadas, por ejemplo, comida mexicana

Cuidado: no rechace esta oportunidad de renovar su membresía a menos que ya haya utilizado todos los beneficios que se ofrecen.

Por favor reconsidere su cancelación. Lo apreciamos como miembro, y esperamos que valore todos los beneficios que la membresía le ofrece. (Price, 2002)

Podrá subir al servidor, mediante un FTP, las imágenes que se seleccionen en la ventana del Explorador de Windows. Podrá agregar las imágenes que usted seleccione de su computadora.

No hay recaptura; ingrese en modo reescribir En este momento no puede modificar el dato; debe seleccionar el modo reescribir del menú

Antes Después

En la siguiente página podrá encontrar … En la página de seguridad del producto podrá encontrar…

Da clic aquí para ver los resultados El 63% de los alumnos recomendarían el curso y 23% sugieren mejoras, en base a nuestra encuesta de satisfacción.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

Resumen | Propuesta | RecomendacionesMayor información con Alejandro Rivera

El manual de identidad especifica los lineamientos a seguir para las aplicaciones.

El manual de identidad especifica los lineamientos a seguir para las aplicaciones. (PDF de 4.3 MB, requiere Acrobat Reader 4.0 o más)

SIMPLIFICAR LOS TEXTOS

El lenguaje debe simplificarse lo más posible, eliminando adjetivos, juicios de valor, y ambigüedades. Hay que dar

un tono positivo al mensaje. Se recomienda dar información completa, en forma amigable y sin tecnicismos. Esto último es especialmente importante para los mensajes de error.

SIMPLIFICAR LAS LIGAS

Cuando agregamos ligas, debe especificarse qué contienen, para que el usuario decida si quiere acceder a ellas o no. Conviene incluir referencias a otras páginas del sitio, para facilitar la navegación del usuario. Cuando se trate de descar-gar un documento, conviene especificar tamaño y formato.

definir tareas específicas que el usuario podrá realizar.Cuando un usuario entra en un Sitio Web, espera rea-

lizar una tarea específica. Si alguien accede a diccionar-ios.com, estará buscando la traducción de un término o la clarificación una palabra. Accederán a gmail.com para enviar un mensaje a un amigo. En cinepolis.com estarán buscando qué películas se exhiben y los horarios de la sala de exhibición más cercana.

El hombre piensa de forma natural en objetos, por

lo que es algo que debiera resultar intuitivo. Al solicitar información de sillas en target.com, toda la información de la mesa debe aparecer en un mismo lugar, y dicha infor-mación debe estar completa. Sin embargo, existen sitios que muestran toda la información del catálogo de pro-ductos en una misma página. Tanta información satura al usuario.

Si pensamos en tareas, es mucho más fácil definir cómo se manejarán esos objetos y diseñar la información adecuada para la tarea. Por ejemplo, si en un sitio voy a comprar un producto, al momento de seleccionar el ca-rrito de compra debo esconder la información sobre el ca-tálogo. Aun cuando deje una liga para regresar al catálogo, en ese momento me enfocaré en presentar la información de envío y contestar las dudas que deba tener sobre esto. Al momento de haber seleccionado la opción de envío, debo eliminar esta información y ahora apoyarla con las opciones de pago.

Aún más importante es el seleccionar nombres re-presentativos. Si un sitio promueve estudios en el extran-jero, los visitantes esperarán encontrar una liga o botón a becas, y si el sitio utiliza el término ayudas financieras, probablemente haya usuarios que no lo encuentren.

“Ahora permítame explicarle el funcionamiento de nuestro servicio de banca en línea”, procedió la funcionaria de la sucursal bancaria en Nueva York, y continuó: “Al mes tiene usted derecho a sólo cinco cheques sin cargo por comisión, pero las transacciones en Internet son sin cargo alguno”.

Sin más trámite que un depósito inicial, la firma de

un solo contrato y una sesión de entrenamiento de diez

minutos, ya estaba yo en condiciones de utilizar los ser-

vicios de banca en línea de Citibank. Esto también expli-caba el porqué esa sucursal, situada en la esquina de No-vena Avenida y Calle 42, una de las zonas más populares de Nueva York, se encontraba prácticamente vacía a mitad del día de trabajo.

NO MÁS IDAS AL BANCO

Era el principio del año 2003. Desde entonces realizo to-das mis actividades bancarias con esa institución; pago servicios, como luz, teléfono, cable; transfiero dinero a México; pago impuestos y nunca, desde aquel entonces, he tenido que poner un pie en una sucursal de banco. Todo lo realizo por Internet. Si acaso, he tenido que hablar por

Para que Internet funcione…

La zanahoria por delante y el látigopor detrásAlejandro Camino

Alejandro Camino V. P. Marketing y Comunicación / Softtek

32y41.indd 1 26/02/2008 17:09:32

CONOCIMIENTOTECNOLOGÍAS WEB40 CONOCIMIENTO TECNOLOGÍAS WEB 33

REDACCIÓN DE PIRÁMIDE INVERTIDA

Cuando sea posible, se recomienda utilizar la técnica de la pirámide invertida, escribiendo la idea principal y luego sustentando y agregando detalles. De esta forma, si el usua-rio no termina de leer, habrá captado la idea principal. No es el mejor estilo para un libro o una historia, pero enfoca la atención a la información más relevante.

Blanca Nieves se casó con su príncipe azul tras escapar de numerosos peligros, incluyendo un cazador asesino y una manzana envenenada. (Woodtke, 2002, p.16) Busque más información sobre el príncipe, los siete enanos, la ma-drastra, la manzana envenenada y el espejo mágico.

REDACTAR PARA BUSCADORES

Otro punto importante de un sitio web es redactar para que los buscadores puedan encontrar fácilmente mi con-tenido. Se les puede indicar qué información existe y cada cuánto tiempo se actualiza. Entre los expertos de diseño

de sitios web, se conoce cómo mejorar la buscabilidad

(findability). Es importante recordar que los textos em-

bebidos en imágenes no podrán ser localizados por los

buscadores.

EL LENGUAJE CIUDADANO:

UNA APLICACIÓN EN MÉXICO

En Suecia surgió un movimiento que posteriormente se fue adoptando en el resto del mundo, Plain Language, que puede traducirse como Lenguaje Cotidiano, y se ha imple-mentado en muchos países con éxito. México no es la ex-cepción, ya que ha sido una preocupación cada vez mayor para el gobierno. En la Secretaría de la Función Pública acuñaron el término lenguaje ciudadano (SFP, 2008). Esta entidad se dedica a capacitar a dependencias federales, estatales o municipales para mejorar los portales guber-namentales y facilitar el acceso del ciudadano.

En el ejemplo de la figura 1 se observa cómo simplifi-can sustancialmente la información para generar párrafos sencillos de entender.

CONCLUSIONES

Una vez que se reconoce que el escribir para Web no es igual al escribir para materiales impresos, se ha recorrido la mitad del camino. El hecho de que el usuario esté solo con su computadora, hace que los textos amigables sean más importantes que nunca. Adicionalmente, nunca se sabe quién es el verdadero lector que se tiene al otro lado. Un estudio que realizó en fecha reciente el gobierno de Chile, arrojó como resultado el que en muchas ocasiones el portal de gobierno estaba interactuando con niños, que ayudaban a sus abuelos a realizar algún trámite en línea. (P. Saavedra, comunicación personal, 9 de noviembre de 2007).

Entre más placentera sea la experiencia del usuario,

más posibilidades habrá de que regrese a un sitio web.

El lenguaje utilizado es parte importante de la usabili-

dad del sitio.

Antes Después

<html><head><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

<html><head><meta name=”keywords” content=”usabilidad, testing, card sort, personas, arquitectura de informacion, diseno visual, navegacion”><meta name=”description” content=”Informacion basica para el diseno de un sitio web, con referencias a libros y articulos especializados. Ideal para personas que inician en el diseno de sitios web”><meta name=”robot” content=”all”><meta name=”revisit” content=”20 days”><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

(Price, 2002)

BibliografíaJeney, C. (2006) Writing for the Web: A Practical Guide (1a ed.) USA: Prentice HallPrice, J. Price, L. (2002) Hot Text. USA: New RidersShedroff, N. Diller, S. Rhea D. (2008) Making Meaning: How Successful Businesses Deliver Meaningful Customer Experiences (1a ed). USA: New Riders PressWoodtke, Christina (2002). Information architecture. USA: New Riders Press

Referencias WebCBASSE Commission on Behavioral and Social Sciences and Education (1983). Video Displays, Work, and Vision. Disponible en: http://www.nap.edu/openbook.php?isbn=0309033888&page=R9 Secretaría de la Función Pública (2008). Lenguaje Ciudadano. Disponible en: http://www.lenguajeciudadano.gob.mx/index.php?option=com_content&task=blogcategory&id=23&Itemid=30.

códecs necesarios para la reproducción de contenido mul-timedia WMV, WMA y MP3.

COMPLEMENTO DE EXPLORADOR

Esencialmente, Silverlight es un complemento de explora-dor que representa XAML, y expone su modelo de objetos del documento (DOM - Document Object Model) interno y el modelo de evento al explorador de manera traducible en secuencias de comandos. Así, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones y escalas de tiempo, y un desarrollador puede adjuntarlos al código de una página para implementar la funcionali-dad. Dado que XAML se basa en XML, el documento que define la interfaz del usuario que se descarga al cliente se basa en texto y, por lo tanto, no da problemas a mo-tores de búsqueda ni firewalls. Además, XAML puede en-samblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experien-cia gráfica enriquecida, sino también una muy personali-zable y dinámica.

Silverlight representa el paso siguiente en el desa-

rrollo del potencial de riqueza en utilización que los de-

sarrolladores y diseñadores de aplicaciones pueden pre-

sentar a sus clientes. Esto se consigue permitiendo a los diseñadores expresar su creatividad y guardar su trabajo en un formato que funcione directamente en la Web. En el pasado, los diseñadores creaban un sitio Web y ofrecían una utilización a los usuarios a través de herramientas que proporcionaban resultados variados, pero el desarro-llador tenía que solventar las restricciones de la platafor-ma Web y era capaz de ofrecer tales resultados.

UTILIZACIÓN

COMPLETA Y VARIADA

En el modelo de Silverlight, los diseñadores pueden ge-nerar el tipo de utilización que desean para el usuario, y expresarlo como XAML. De esta forma, se puede trabajar más estrechamente que antes, con el fin de proporcionar una utilización completa y variada al usuario.

Como XAML es XML; está basado en texto, lo cual pro-porciona una descripción de sus ricos contenidos, fácil de inspeccionar y totalmente compatible con los firewall. Aunque se pueden usar otras tecnologías —como subpro-gramas en Java, ActiveX y Flash— para implementar con-tenidos más ricos que DHTML, CSS y JavaScript, todas e-llas envían contenidos binarios al explorador. Esto resulta difícil de auditar, sin mencionar la dificultad de actuali-zación, ya que para cualquier cambio es necesario que la aplicación se vuelva a instalar, lo que no es tan fácil para el usuario y podría provocar estancamientos en las páginas. Cuando se usa Silverlight y es necesario realizar un cam-bio en el contenido enriquecido, se genera un nuevo ar-chivo XAML en el servidor. La próxima vez que el usuario vaya a la página, se descargará este XAML y se actualizará la experiencia sin ninguna reinstalación.

APLICACIONES DE SILVERLIGHT

En el núcleo de Silverlight está el módulo de mejora del explorador que genera XAML y ofrece los gráficos resul-tantes en la superficie del explorador. Se trata de una descarga pequeña (menos de 2 MB), que se puede instalar cuando el usuario se encuentra con un sitio con contenido de Silverlight o bien se puede descargar de su Web: http://www.microsoft.com/silverlight/

Para generar aplicaciones de Silverlight,tenemos las siguientes opciones:

Para desarrolladores:• Microsoft Visual Studio 2008• Microsoft ASP.NET

Para diseñadores:• Expression Encoder• Expression Design• Expression Blend 2

Sitio creado con Silverlight: http://www.tafiti.com/

40y33.indd 1 26/02/2008 17:09:48

Page 36: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB34 CONOCIMIENTO TECNOLOGÍAS WEB 39

Quienes nos dedicamos al desarrollo de software estamos convencidos de que una de las labores críticas de los proyectos es, sin duda alguna, la

construcción de los componentes de software; elementos visibles para el usuario y que, de no estar claros, comple-tos y correctos, sencillamente no le resultan de utilidad.

Si a esto agregamos el que, para los ambientes Web, su arquitectura y la diversidad de tecnologías que en ella con-fluyen es aún más compleja; y que los requerimientos del usuario se ven con la necesidad de ser automatizados en el menor tiempo posible, a fin de seguir siendo competitivos, entonces no dudaremos en incorporar a nuestros proyec-tos un elemento humano que garantice o incremente la factibilidad de éxito de los mismos.

Un rol muy importante en los desarrollos de software, sin duda es el del que ha sido identificado como coach de construcción; un rol con participación activa en el proyecto y que además cumple con una responsabilidad muy importante: la de “asegurar que los componentes

de software construidos cumplan con las expectativas

funcionales del usuario, el tiempo de entrega, el uso ra-

cional de los recursos involucrados y que estén libres

de defectos”

ACTIVIDADES IMPORTANTES

El coach de construcción tiene que seguir una serie de ac-tividades para cumplir con lo anterior; por lo que aquí, y a manera de checklist enlistaré las más significativas:• Formalizar y asegurar el uso de un proceso estándar de

construcción de componentes, que garantice disciplina y apego a las buenas prácticas.• Establecer modelos de programación que aseguren la efi-ciencia en la construcción de los componentes Web.• Implantar estándares de codificación y del uso racio-

nal de las herramientas de desarrollo y lenguajes de pro-gramación.• Establecer los criterios de calidad y aceptación que deben tener todas las especificaciones detalladas de los compo-nentes a construir.• Capacitar a los desarrolladores en metodología y téc-

nicas de ingeniería de software orientadas a la progra-mación dirigida a objetos.• Tomar mediciones durante el desarrollo de los compo-

nentes de software, para optimizar el proceso de cons-trucción.• Inspeccionar periódicamente el software construido, para asegurar que los componentes estén libres de defec-tos.

El coach que diseña y construye componentes del software Web Felipe de Jesús Rodríguez García

Licenciado Felipe de Jesús

Rodríguez García, MTSubdirector de

Investigación Tecnológica y DesarrolloCentro

de Servicios en InformáticaUANL – FCFM

• Llevar a cabo estrategias de prueba que aseguren que los componentes de software construidos cumplen al cien por ciento con lo establecido en las especificaciones deta-lladas.• Establecer comunicación efectiva con cada uno de los

desarrolladores asignados al proyecto.

• Tener la habilidad para formar y manejar equipos de

trabajo efectivos, durante la construcción de los compo-nentes de software.Sin duda se trata de una labor interesante y que nos traerá excelentes beneficios en la medida de su aplicación co-rrecta en los proyectos de software que emprendamos.

Y recuerden…

Cualquier trabajo que se haga en la vida es el mejor, si éste satisface y llena de orgullo a quién lo hace.

Una de las mejores satisfacciones se experimenta cuan-do ve uno que el trabajo realizado rinde frutos y se desa-rrolla de manera autónoma. Es como si una parte de uno mismo siguiera trabajando continuamente.

Silverlight es una nueva tecnología de presentación Web, creada para su ejecución en distintas platafor-mas. Hace posible un uso más completo, atractivo

visualmente e interactivo, y se puede ejecutar en todos los entornos: con exploradores y en múltiples dispositivos y sistemas operativos de escritorio (como en Macintosh de Apple). Además, para alcanzar a la mayoría de la comuni-dad Web, Silverlight necesita ejecutarse correctamente en diversos sistemas operativos conocidos y en los explora-dores más usados.

Como resultado, la primera versión es compatible

con los exploradores Firefox y Safari, que se ejecutan

en Mac OS X, así como en Firefox y en Internet Explo-

rer, Windows. A medida que evolucione el producto, se irán admitiendo más sistemas operativos y exploradores. Además de estas capacidades, Silverlight también es com-pletamente independiente de otros productos, tales como Windows Media Player para la reproducción de vídeo, y de Microsoft.NET Framework 3.0 para el análisis de XAML.

DESARROLLO

DE SIGUIENTE

GENERACIÓN

Silverlight es un componente clave en la estrategia de Mi-crosoft para el desarrollo Web de siguiente generación (Web.Next). Anteriormente se denominaba con el nom-bre en código “WPF/E”.

Al igual que WPF (Win-dows Presentation Founda-tion), la tecnología de pre-sentación en Microsoft .NET Framework 3.0 (la infra-estructura de programación de Windows), XAML (eXten-sible Application Markup Language, lenguaje de mar-cado de aplicaciones exten-sible), constituye la base de la capacidad de presen-tación de Silverlight. Microsoft Silverlight es un

plug-in compatible con va-

rias plataformas y buscado-

res que le pueden ayudar a

crear aplicaciones multi-

media interactividad y de

última generación, a partir de Microsoft .NET para Web. Silverlight ofrece un modelo de programación flexible con soporte para AJAX, Virtual Basic, C#, Python y Ruby, y se integra con aplicaciones de Web antiguas. Silverlight pue-de ofrecer de forma rápida y rentable videos compatibles con todos los buscadores más conocidos.

La arquitectura que admite la aplicación Silverlight se muestra en la figura. La interfaz de programación princi-pal es la API de JavaScript DOM. Esto permite responder a eventos sucedidos dentro del XAML de Silverlight, por ejemplo, cuando el contenido ha terminado de cargarse o cuando se completa una animación. También puede lla-mar a métodos para manipular la presentación; por ejem-plo, al iniciar una animación o al detener la reproducción de vídeo. Debajo de esto se encuentra el motor de análisis de XAML. El analizador crea el DOM de XAML en memo-ria que el núcleo de presentación usará y que controla la representación de los gráficos y las animaciones definidos por XAML. Además, el tiempo de ejecución contiene los

Ingeniero Joséde León Rodrí[email protected]

Silverlight, nueva y versátil

tecnología WebJosé de León Rodríguez

34y39.indd 1 26/02/2008 17:10:04

CONOCIMIENTOTECNOLOGÍAS WEB38 CONOCIMIENTO TECNOLOGÍAS WEB 35

El servicio de banca en línea se ha vuelto primordial para todas las personas que viven la vida acelerada de trabajo, niños, súper y agregados. Esta ventaja ha

llegado a simplificar mi vida en un cien por ciento. Se me hace difícil recordar mis odiseas de filas, estacionamien-tos, horarios. Hoy por hoy, hago transferencias en línea

para cualquier tipo de deuda, ya sea el pago de un servi-

cio, el pago a una amiga, el pago de mi tarjeta de crédito;

en fin, con cinco minitos de mi tiempo puedo efectuar

hasta tres pagos, sin la necesidad de levantarme de mi

escritorio o sacar el coche cuando estoy en casa. Hoy por hoy, el tema importante en este servicio es el identificar una Banca en línea cien por ciento segura. Podemos encon-trar en internet muchas opciones; pero, ¿cómo podemos definir si nuestra Banca es segura? Yo podría enumerar algunas recomendaciones para identificar una Banca en

Línea Segura:

1. Ofrecerme un portal seguro: esto se puede identi-ficar con la dirección en la parte de arriba de nuestro ex-plorador (https://www.mibanco.com) o bien un icono de

Yo necesito una banca segura.¿¿Y tú?

Licenciada Laura RodríguezResponsable del Portal [email protected]

Laura Rodríguez

La línea digital

(búsqueda, eliminación, actualización de información en bases de datos), y se devuelven respuestas relativamente cortas. Esto permite el desarrollo de aplicaciones más efi-cientes, con interactividad ágil y mejores tiempos de res-puesta hacia el usuario. La figura 2 ilustra el modelo de aplicaciones Web implementando AJAX.

IMPLEMENTACIÓN DE AJAX

En mi experiencia personal en el desarrollo de aplicacio-nes Web, principalmente desarrollando en ASP.NET, la implementación de AJAX la he realizado por medio de controles específicamente diseñados para AJAX. Esto me ha permitido ser productivo en los tiempos de desarrollo. Sin el uso de estos controles tendría que escribir “tonela-das” de código Javascript, despidiéndome con ello de la productividad tan importante para mis clientes.

Existen numerosas opciones de controles para el de-sarrollo de aplicaciones Web ASP.NET. Por mencionar al-

gunas: TELERIK, INFRAGISTICS, MAGIC AJAX, ASP.NET AJAX, etcétera.

CONCLUSIONES

Hoy en día, gracias al AJAX, cuyo modelo de desarrollo

es relativamente simple, es posible desarrollar aplica-

ciones para el Web con interactividad similar a la de

aplicaciones Windows Cliente/Servidor. Desarrollar con AJAX ha sido determinante para mi empresa de desarrollo de software. Mis clientes operan aplicaciones en ambiente Web altamente eficientes, con gran interactividad, y dan la sensación de que se está trabajando con una aplicación Windows.

Recomiendo ampliamente el desarrollo de aplicaciones AJAX por medio de controles de terceros. Con una inver-sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

38y35.indd 1 26/02/2008 17:10:26

Page 37: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB34 CONOCIMIENTO TECNOLOGÍAS WEB 39

Quienes nos dedicamos al desarrollo de software estamos convencidos de que una de las labores críticas de los proyectos es, sin duda alguna, la

construcción de los componentes de software; elementos visibles para el usuario y que, de no estar claros, comple-tos y correctos, sencillamente no le resultan de utilidad.

Si a esto agregamos el que, para los ambientes Web, su arquitectura y la diversidad de tecnologías que en ella con-fluyen es aún más compleja; y que los requerimientos del usuario se ven con la necesidad de ser automatizados en el menor tiempo posible, a fin de seguir siendo competitivos, entonces no dudaremos en incorporar a nuestros proyec-tos un elemento humano que garantice o incremente la factibilidad de éxito de los mismos.

Un rol muy importante en los desarrollos de software, sin duda es el del que ha sido identificado como coach de construcción; un rol con participación activa en el proyecto y que además cumple con una responsabilidad muy importante: la de “asegurar que los componentes

de software construidos cumplan con las expectativas

funcionales del usuario, el tiempo de entrega, el uso ra-

cional de los recursos involucrados y que estén libres

de defectos”

ACTIVIDADES IMPORTANTES

El coach de construcción tiene que seguir una serie de ac-tividades para cumplir con lo anterior; por lo que aquí, y a manera de checklist enlistaré las más significativas:• Formalizar y asegurar el uso de un proceso estándar de

construcción de componentes, que garantice disciplina y apego a las buenas prácticas.• Establecer modelos de programación que aseguren la efi-ciencia en la construcción de los componentes Web.• Implantar estándares de codificación y del uso racio-

nal de las herramientas de desarrollo y lenguajes de pro-gramación.• Establecer los criterios de calidad y aceptación que deben tener todas las especificaciones detalladas de los compo-nentes a construir.• Capacitar a los desarrolladores en metodología y téc-

nicas de ingeniería de software orientadas a la progra-mación dirigida a objetos.• Tomar mediciones durante el desarrollo de los compo-

nentes de software, para optimizar el proceso de cons-trucción.• Inspeccionar periódicamente el software construido, para asegurar que los componentes estén libres de defec-tos.

El coach que diseña y construye componentes del software Web Felipe de Jesús Rodríguez García

Licenciado Felipe de Jesús

Rodríguez García, MTSubdirector de

Investigación Tecnológica y DesarrolloCentro

de Servicios en InformáticaUANL – FCFM

• Llevar a cabo estrategias de prueba que aseguren que los componentes de software construidos cumplen al cien por ciento con lo establecido en las especificaciones deta-lladas.• Establecer comunicación efectiva con cada uno de los

desarrolladores asignados al proyecto.

• Tener la habilidad para formar y manejar equipos de

trabajo efectivos, durante la construcción de los compo-nentes de software.Sin duda se trata de una labor interesante y que nos traerá excelentes beneficios en la medida de su aplicación co-rrecta en los proyectos de software que emprendamos.

Y recuerden…

Cualquier trabajo que se haga en la vida es el mejor, si éste satisface y llena de orgullo a quién lo hace.

Una de las mejores satisfacciones se experimenta cuan-do ve uno que el trabajo realizado rinde frutos y se desa-rrolla de manera autónoma. Es como si una parte de uno mismo siguiera trabajando continuamente.

Silverlight es una nueva tecnología de presentación Web, creada para su ejecución en distintas platafor-mas. Hace posible un uso más completo, atractivo

visualmente e interactivo, y se puede ejecutar en todos los entornos: con exploradores y en múltiples dispositivos y sistemas operativos de escritorio (como en Macintosh de Apple). Además, para alcanzar a la mayoría de la comuni-dad Web, Silverlight necesita ejecutarse correctamente en diversos sistemas operativos conocidos y en los explora-dores más usados.

Como resultado, la primera versión es compatible

con los exploradores Firefox y Safari, que se ejecutan

en Mac OS X, así como en Firefox y en Internet Explo-

rer, Windows. A medida que evolucione el producto, se irán admitiendo más sistemas operativos y exploradores. Además de estas capacidades, Silverlight también es com-pletamente independiente de otros productos, tales como Windows Media Player para la reproducción de vídeo, y de Microsoft.NET Framework 3.0 para el análisis de XAML.

DESARROLLO

DE SIGUIENTE

GENERACIÓN

Silverlight es un componente clave en la estrategia de Mi-crosoft para el desarrollo Web de siguiente generación (Web.Next). Anteriormente se denominaba con el nom-bre en código “WPF/E”.

Al igual que WPF (Win-dows Presentation Founda-tion), la tecnología de pre-sentación en Microsoft .NET Framework 3.0 (la infra-estructura de programación de Windows), XAML (eXten-sible Application Markup Language, lenguaje de mar-cado de aplicaciones exten-sible), constituye la base de la capacidad de presen-tación de Silverlight. Microsoft Silverlight es un

plug-in compatible con va-

rias plataformas y buscado-

res que le pueden ayudar a

crear aplicaciones multi-

media interactividad y de

última generación, a partir de Microsoft .NET para Web. Silverlight ofrece un modelo de programación flexible con soporte para AJAX, Virtual Basic, C#, Python y Ruby, y se integra con aplicaciones de Web antiguas. Silverlight pue-de ofrecer de forma rápida y rentable videos compatibles con todos los buscadores más conocidos.

La arquitectura que admite la aplicación Silverlight se muestra en la figura. La interfaz de programación princi-pal es la API de JavaScript DOM. Esto permite responder a eventos sucedidos dentro del XAML de Silverlight, por ejemplo, cuando el contenido ha terminado de cargarse o cuando se completa una animación. También puede lla-mar a métodos para manipular la presentación; por ejem-plo, al iniciar una animación o al detener la reproducción de vídeo. Debajo de esto se encuentra el motor de análisis de XAML. El analizador crea el DOM de XAML en memo-ria que el núcleo de presentación usará y que controla la representación de los gráficos y las animaciones definidos por XAML. Además, el tiempo de ejecución contiene los

Ingeniero Joséde León Rodrí[email protected]

Silverlight, nueva y versátil

tecnología WebJosé de León Rodríguez

34y39.indd 1 26/02/2008 17:10:04

CONOCIMIENTOTECNOLOGÍAS WEB38 CONOCIMIENTO TECNOLOGÍAS WEB 35

El servicio de banca en línea se ha vuelto primordial para todas las personas que viven la vida acelerada de trabajo, niños, súper y agregados. Esta ventaja ha

llegado a simplificar mi vida en un cien por ciento. Se me hace difícil recordar mis odiseas de filas, estacionamien-tos, horarios. Hoy por hoy, hago transferencias en línea

para cualquier tipo de deuda, ya sea el pago de un servi-

cio, el pago a una amiga, el pago de mi tarjeta de crédito;

en fin, con cinco minitos de mi tiempo puedo efectuar

hasta tres pagos, sin la necesidad de levantarme de mi

escritorio o sacar el coche cuando estoy en casa. Hoy por hoy, el tema importante en este servicio es el identificar una Banca en línea cien por ciento segura. Podemos encon-trar en internet muchas opciones; pero, ¿cómo podemos definir si nuestra Banca es segura? Yo podría enumerar algunas recomendaciones para identificar una Banca en

Línea Segura:

1. Ofrecerme un portal seguro: esto se puede identi-ficar con la dirección en la parte de arriba de nuestro ex-plorador (https://www.mibanco.com) o bien un icono de

Yo necesito una banca segura.¿¿Y tú?

Licenciada Laura RodríguezResponsable del Portal [email protected]

Laura Rodríguez

La línea digital

(búsqueda, eliminación, actualización de información en bases de datos), y se devuelven respuestas relativamente cortas. Esto permite el desarrollo de aplicaciones más efi-cientes, con interactividad ágil y mejores tiempos de res-puesta hacia el usuario. La figura 2 ilustra el modelo de aplicaciones Web implementando AJAX.

IMPLEMENTACIÓN DE AJAX

En mi experiencia personal en el desarrollo de aplicacio-nes Web, principalmente desarrollando en ASP.NET, la implementación de AJAX la he realizado por medio de controles específicamente diseñados para AJAX. Esto me ha permitido ser productivo en los tiempos de desarrollo. Sin el uso de estos controles tendría que escribir “tonela-das” de código Javascript, despidiéndome con ello de la productividad tan importante para mis clientes.

Existen numerosas opciones de controles para el de-sarrollo de aplicaciones Web ASP.NET. Por mencionar al-

gunas: TELERIK, INFRAGISTICS, MAGIC AJAX, ASP.NET AJAX, etcétera.

CONCLUSIONES

Hoy en día, gracias al AJAX, cuyo modelo de desarrollo

es relativamente simple, es posible desarrollar aplica-

ciones para el Web con interactividad similar a la de

aplicaciones Windows Cliente/Servidor. Desarrollar con AJAX ha sido determinante para mi empresa de desarrollo de software. Mis clientes operan aplicaciones en ambiente Web altamente eficientes, con gran interactividad, y dan la sensación de que se está trabajando con una aplicación Windows.

Recomiendo ampliamente el desarrollo de aplicaciones AJAX por medio de controles de terceros. Con una inver-sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

38y35.indd 1 26/02/2008 17:10:26

Page 38: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB36 CONOCIMIENTO TECNOLOGÍAS WEB 37

candado en la parte de abajo de la página.2. Filtros de seguridad: de preferencia el banco nos

debe otorgar más de un identificador. Algunos filtros pue-den ser: usuario, contraseña, dispositivo electrónico.

3. Correos de Confirmación: es importante que nos mantengan informados en todo momento sobre las trans-acciones realizadas en nuestra cuenta; esto se maneja nor-malmente por correos electrónicos de confirmación.

4. Certificado de reembolso: algunos bancos han toma-do en serio el tema de seguridad, y ofrecen confiadamente un certificado de reembolso, el cual ampara al cliente en caso de cualquier problema que se pueda presentar. Esto, además de utilizarlo en algún momento.

VENTAJAS DE LA BANCA EN LÍNEA

En el año 2006, VISA y AMIPCI realizaron un estudio en el cual revelan que el 44 por ciento de los usuarios prefieren no utilizar la banca en línea, por considerarla insegura. Pero, a diferencia de ellos, tenemos el 56 por ciento de

usuarios que ya utilizan la banca en línea, conocen las ven-tajas y beneficios que ofrece y que no están dispuestos a volver a hacer filas en un banco.

En este estudio, se nos indica que el 56 por ciento de

los usuarios utilizan la banca en línea dos o más veces

a la semana; esto nos da una idea de la importancia que

está tomando este servicio.*

*Fuente www.amipci.org.mxEl sector financiero está consciente de ello, y por esa

razón ha ido implementando diferentes niveles de seguri-dad, como la implementación de dispositivos electrónicos que despliegan una clave numérica, misma que, en com-binación con el usuario y contraseña, ofrece un nivel de seguridad más alto.

ASPECTOS QUE HAY QUE CONOCER

Además, existe mucha información respecto a los posibles ataques en Internet, para que estemos al tanto de los de-talles y no dejemos que suceda en nuestras cuentas. Algu-nos temas que debemos saber y que debemos evitar son:

1. Phishing: es un término informático que denomina un tipo de delito encuadrado dentro del ámbito de las estafas, y que se comete mediante el uso de un tipo de ingeniería social caracterizado por intentar adquirir infor-mación confidencial de forma fraudulenta (como puede ser una contraseña o información detallada sobre tarje-tas de crédito u otra información bancaria). El estafador, conocido como phisher, se hace pasar por una persona o empresa de confianza en una aparente comunicación oficial electrónica, por lo común un correo electrónico, o algún sistema de mensajería instantánea o incluso utili-zando también llamadas telefónicas.

2. Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System) o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio (domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de Inter-net a la página web que el atacante haya especificado para ese nombre de dominio.

3. Spoofing, en términos de seguridad de redes, hace referencia al uso de técnicas de suplantación de identidad, generalmente con usos maliciosos o de investigación. Ex-isten diferentes tipos de spoofing dependiendo de la tec-nología a la que nos refiramos, los cuales se describirán más adelante, como el IP spoofing (quizás el más cono-cido), ARP spoofing, DNS spoofing, Web spoofing o e-mail spoofing, aunque en general se puede englobar dentro de spoofing cualquier tecnología de red susceptible de sufrir suplantaciones de identidad.

*Fuente wikipedia

Ahora ya estás enterado. Si por alguna razón aún no tienes el servicio de Banca en Línea, ¿qué esperas para contratarlo? Puedes ocupar tu tiempo en cosas más im-portantes que hacer filas. Modernízate! ¿O quieres seguir viviendo en la antigüedad?

Al menos en los últimos tres años mis clientes me han estado solicitando con mayor frecuencia el desarrollo de aplicaciones para el ambien-

te Web (Internet o Intranet). Las aplicaciones para Win-dows son cada vez menos requeridas; los departamentos de sistemas de las empresas han encontrado en este tipo de ambientes la facilidad de implementación, ya que los equipos PC cliente solamente requieren de un navegador Web instalado, con lo que se facilita lo que se conoce como deployment de la aplicación o sistema por implementar.

Actualmente, más del 90 por ciento de las aplicaciones en que trabajo para mis clientes son para Web. Aquí encon-tramos necesidades de aplicaciones ricas en interactividad (RIA, Rich Internet Applications), las cuales, programadas de la manera tradicional en Web, resultarían ineficientes y propensas a saturar las redes de cómputo de las orga-nizaciones. Es aquí donde aparece el AJAX, el cual vamos a describir a continuación.

DEFINICIÓN DE AJAX

AJAX, acrónimo de Asynchronous JavaScript And XML (Ja-vaScript asíncrono y XML), es una técnica para crear apli-

caciones RIA basadas en ambiente Web, que se ejecutan

para el cliente por medio del navegador, el cual man-tiene comunicación asíncrona con el servidor Web en un segundo plano (background). Esto permite realizar cam-bios sobre una página Web sin necesidad de recargarla, con lo que aumentan la velocidad e interactividad de la misma. El término AJAX fue creado en el año 2005, aunque la tec-nología en que está basado fue creada una década antes.

¿ES AJAX UNA NUEVA TECNOLOGÍA?

Podemos pensar que AJAX es una nueva tecnología; sin embargo, no lo es, más bien es la combinación de tres tec-nologías ya existentes desde hace tiempo:

1. XHTML (o HTML) y hojas de estilos en cascada (CSS) que utilizan el modelo DOM (Document Object Model) para la exhibición e interacción en forma dinámica.

2. Intercambio y manipulación de datos, aplicando XML y XSLT.

Implementación de la tecnología

Figura 1: El modelo clásico de aplicaciones Web (síncrono).

Figura 2: Modelo de aplicaciones Web implementando AJAX.

Maestro José Luis Ramos MartínezCatedrático en FACPYA / UANLConsultor Independienteen desarrollo de [email protected]

José Luis Ramos Martínez

3. Recuperación de datos en forma asíncrona, usando el objeto XMLHttpRequest y Javascript.

MODELO CLÁSICO

DE APLICACIONES WEB

La mayoría de las aplicaciones Web “disparan” acciones del usuario en la interfaz; estas acciones hacen un re-querimiento HTTP al servidor Web, el cual ejecuta un pro-ceso como recopilar información, hacer cálculos, etcétera, y devuelve el resultado del proceso al cliente por medio de HTML. La figura 1 ilustra este modelo.

Es importante observar que en cada petición de proc-esamiento hacia el servidor, toda la página Web es enviada al servidor, se ejecuta el procesamiento requerido, y el servidor envía toda la página Web al cliente en forma de HTML. Esto, en sistemas con mucha interacción del usua-rio, resulta en una total ineficiencia.

EL FUNCIONAMIENTO DE AJAX

Una aplicación Web con implementación de AJAX elimina parte de la interacción en la Web entre el cliente y el servi-dor; esto se logra por medio de un motor AJAX (escrito en Javascript y usualmente accesado desde un frame oculto), el cual resulta ser una capa adicional encargada de contro-lar la interacción entre cliente y servidor.

Las aplicaciones AJAX se ejecutan en el PC cliente,

manipulando la página Web dentro del navegador por

medio de DOM, teniendo la capacidad de procesar las

peticiones al servidor y sus respuestas, sin necesidad de tener que recargar toda la página HTML cada vez que se realiza una acción o cambio en la interfaz. Generalmente, sólo se requiere enviar pequeñas peticiones al servidor

36y37.indd 1 26/02/2008 17:10:45

CONOCIMIENTOTECNOLOGÍAS WEB36 CONOCIMIENTO TECNOLOGÍAS WEB 37

candado en la parte de abajo de la página.2. Filtros de seguridad: de preferencia el banco nos

debe otorgar más de un identificador. Algunos filtros pue-den ser: usuario, contraseña, dispositivo electrónico.

3. Correos de Confirmación: es importante que nos mantengan informados en todo momento sobre las trans-acciones realizadas en nuestra cuenta; esto se maneja nor-malmente por correos electrónicos de confirmación.

4. Certificado de reembolso: algunos bancos han toma-do en serio el tema de seguridad, y ofrecen confiadamente un certificado de reembolso, el cual ampara al cliente en caso de cualquier problema que se pueda presentar. Esto, además de utilizarlo en algún momento.

VENTAJAS DE LA BANCA EN LÍNEA

En el año 2006, VISA y AMIPCI realizaron un estudio en el cual revelan que el 44 por ciento de los usuarios prefieren no utilizar la banca en línea, por considerarla insegura. Pero, a diferencia de ellos, tenemos el 56 por ciento de

usuarios que ya utilizan la banca en línea, conocen las ven-tajas y beneficios que ofrece y que no están dispuestos a volver a hacer filas en un banco.

En este estudio, se nos indica que el 56 por ciento de

los usuarios utilizan la banca en línea dos o más veces

a la semana; esto nos da una idea de la importancia que

está tomando este servicio.*

*Fuente www.amipci.org.mxEl sector financiero está consciente de ello, y por esa

razón ha ido implementando diferentes niveles de seguri-dad, como la implementación de dispositivos electrónicos que despliegan una clave numérica, misma que, en com-binación con el usuario y contraseña, ofrece un nivel de seguridad más alto.

ASPECTOS QUE HAY QUE CONOCER

Además, existe mucha información respecto a los posibles ataques en Internet, para que estemos al tanto de los de-talles y no dejemos que suceda en nuestras cuentas. Algu-nos temas que debemos saber y que debemos evitar son:

1. Phishing: es un término informático que denomina un tipo de delito encuadrado dentro del ámbito de las estafas, y que se comete mediante el uso de un tipo de ingeniería social caracterizado por intentar adquirir infor-mación confidencial de forma fraudulenta (como puede ser una contraseña o información detallada sobre tarje-tas de crédito u otra información bancaria). El estafador, conocido como phisher, se hace pasar por una persona o empresa de confianza en una aparente comunicación oficial electrónica, por lo común un correo electrónico, o algún sistema de mensajería instantánea o incluso utili-zando también llamadas telefónicas.

2. Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System) o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio (domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de Inter-net a la página web que el atacante haya especificado para ese nombre de dominio.

3. Spoofing, en términos de seguridad de redes, hace referencia al uso de técnicas de suplantación de identidad, generalmente con usos maliciosos o de investigación. Ex-isten diferentes tipos de spoofing dependiendo de la tec-nología a la que nos refiramos, los cuales se describirán más adelante, como el IP spoofing (quizás el más cono-cido), ARP spoofing, DNS spoofing, Web spoofing o e-mail spoofing, aunque en general se puede englobar dentro de spoofing cualquier tecnología de red susceptible de sufrir suplantaciones de identidad.

*Fuente wikipedia

Ahora ya estás enterado. Si por alguna razón aún no tienes el servicio de Banca en Línea, ¿qué esperas para contratarlo? Puedes ocupar tu tiempo en cosas más im-portantes que hacer filas. Modernízate! ¿O quieres seguir viviendo en la antigüedad?

Al menos en los últimos tres años mis clientes me han estado solicitando con mayor frecuencia el desarrollo de aplicaciones para el ambien-

te Web (Internet o Intranet). Las aplicaciones para Win-dows son cada vez menos requeridas; los departamentos de sistemas de las empresas han encontrado en este tipo de ambientes la facilidad de implementación, ya que los equipos PC cliente solamente requieren de un navegador Web instalado, con lo que se facilita lo que se conoce como deployment de la aplicación o sistema por implementar.

Actualmente, más del 90 por ciento de las aplicaciones en que trabajo para mis clientes son para Web. Aquí encon-tramos necesidades de aplicaciones ricas en interactividad (RIA, Rich Internet Applications), las cuales, programadas de la manera tradicional en Web, resultarían ineficientes y propensas a saturar las redes de cómputo de las orga-nizaciones. Es aquí donde aparece el AJAX, el cual vamos a describir a continuación.

DEFINICIÓN DE AJAX

AJAX, acrónimo de Asynchronous JavaScript And XML (Ja-vaScript asíncrono y XML), es una técnica para crear apli-

caciones RIA basadas en ambiente Web, que se ejecutan

para el cliente por medio del navegador, el cual man-tiene comunicación asíncrona con el servidor Web en un segundo plano (background). Esto permite realizar cam-bios sobre una página Web sin necesidad de recargarla, con lo que aumentan la velocidad e interactividad de la misma. El término AJAX fue creado en el año 2005, aunque la tec-nología en que está basado fue creada una década antes.

¿ES AJAX UNA NUEVA TECNOLOGÍA?

Podemos pensar que AJAX es una nueva tecnología; sin embargo, no lo es, más bien es la combinación de tres tec-nologías ya existentes desde hace tiempo:

1. XHTML (o HTML) y hojas de estilos en cascada (CSS) que utilizan el modelo DOM (Document Object Model) para la exhibición e interacción en forma dinámica.

2. Intercambio y manipulación de datos, aplicando XML y XSLT.

Implementación de la tecnología

Figura 1: El modelo clásico de aplicaciones Web (síncrono).

Figura 2: Modelo de aplicaciones Web implementando AJAX.

Maestro José Luis Ramos MartínezCatedrático en FACPYA / UANLConsultor Independienteen desarrollo de [email protected]

José Luis Ramos Martínez

3. Recuperación de datos en forma asíncrona, usando el objeto XMLHttpRequest y Javascript.

MODELO CLÁSICO

DE APLICACIONES WEB

La mayoría de las aplicaciones Web “disparan” acciones del usuario en la interfaz; estas acciones hacen un re-querimiento HTTP al servidor Web, el cual ejecuta un pro-ceso como recopilar información, hacer cálculos, etcétera, y devuelve el resultado del proceso al cliente por medio de HTML. La figura 1 ilustra este modelo.

Es importante observar que en cada petición de proc-esamiento hacia el servidor, toda la página Web es enviada al servidor, se ejecuta el procesamiento requerido, y el servidor envía toda la página Web al cliente en forma de HTML. Esto, en sistemas con mucha interacción del usua-rio, resulta en una total ineficiencia.

EL FUNCIONAMIENTO DE AJAX

Una aplicación Web con implementación de AJAX elimina parte de la interacción en la Web entre el cliente y el servi-dor; esto se logra por medio de un motor AJAX (escrito en Javascript y usualmente accesado desde un frame oculto), el cual resulta ser una capa adicional encargada de contro-lar la interacción entre cliente y servidor.

Las aplicaciones AJAX se ejecutan en el PC cliente,

manipulando la página Web dentro del navegador por

medio de DOM, teniendo la capacidad de procesar las

peticiones al servidor y sus respuestas, sin necesidad de tener que recargar toda la página HTML cada vez que se realiza una acción o cambio en la interfaz. Generalmente, sólo se requiere enviar pequeñas peticiones al servidor

36y37.indd 1 26/02/2008 17:10:45

Page 39: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB36 CONOCIMIENTO TECNOLOGÍAS WEB 37

candado en la parte de abajo de la página.2. Filtros de seguridad: de preferencia el banco nos

debe otorgar más de un identificador. Algunos filtros pue-den ser: usuario, contraseña, dispositivo electrónico.

3. Correos de Confirmación: es importante que nos mantengan informados en todo momento sobre las trans-acciones realizadas en nuestra cuenta; esto se maneja nor-malmente por correos electrónicos de confirmación.

4. Certificado de reembolso: algunos bancos han toma-do en serio el tema de seguridad, y ofrecen confiadamente un certificado de reembolso, el cual ampara al cliente en caso de cualquier problema que se pueda presentar. Esto, además de utilizarlo en algún momento.

VENTAJAS DE LA BANCA EN LÍNEA

En el año 2006, VISA y AMIPCI realizaron un estudio en el cual revelan que el 44 por ciento de los usuarios prefieren no utilizar la banca en línea, por considerarla insegura. Pero, a diferencia de ellos, tenemos el 56 por ciento de

usuarios que ya utilizan la banca en línea, conocen las ven-tajas y beneficios que ofrece y que no están dispuestos a volver a hacer filas en un banco.

En este estudio, se nos indica que el 56 por ciento de

los usuarios utilizan la banca en línea dos o más veces

a la semana; esto nos da una idea de la importancia que

está tomando este servicio.*

*Fuente www.amipci.org.mxEl sector financiero está consciente de ello, y por esa

razón ha ido implementando diferentes niveles de seguri-dad, como la implementación de dispositivos electrónicos que despliegan una clave numérica, misma que, en com-binación con el usuario y contraseña, ofrece un nivel de seguridad más alto.

ASPECTOS QUE HAY QUE CONOCER

Además, existe mucha información respecto a los posibles ataques en Internet, para que estemos al tanto de los de-talles y no dejemos que suceda en nuestras cuentas. Algu-nos temas que debemos saber y que debemos evitar son:

1. Phishing: es un término informático que denomina un tipo de delito encuadrado dentro del ámbito de las estafas, y que se comete mediante el uso de un tipo de ingeniería social caracterizado por intentar adquirir infor-mación confidencial de forma fraudulenta (como puede ser una contraseña o información detallada sobre tarje-tas de crédito u otra información bancaria). El estafador, conocido como phisher, se hace pasar por una persona o empresa de confianza en una aparente comunicación oficial electrónica, por lo común un correo electrónico, o algún sistema de mensajería instantánea o incluso utili-zando también llamadas telefónicas.

2. Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System) o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio (domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de Inter-net a la página web que el atacante haya especificado para ese nombre de dominio.

3. Spoofing, en términos de seguridad de redes, hace referencia al uso de técnicas de suplantación de identidad, generalmente con usos maliciosos o de investigación. Ex-isten diferentes tipos de spoofing dependiendo de la tec-nología a la que nos refiramos, los cuales se describirán más adelante, como el IP spoofing (quizás el más cono-cido), ARP spoofing, DNS spoofing, Web spoofing o e-mail spoofing, aunque en general se puede englobar dentro de spoofing cualquier tecnología de red susceptible de sufrir suplantaciones de identidad.

*Fuente wikipedia

Ahora ya estás enterado. Si por alguna razón aún no tienes el servicio de Banca en Línea, ¿qué esperas para contratarlo? Puedes ocupar tu tiempo en cosas más im-portantes que hacer filas. Modernízate! ¿O quieres seguir viviendo en la antigüedad?

Al menos en los últimos tres años mis clientes me han estado solicitando con mayor frecuencia el desarrollo de aplicaciones para el ambien-

te Web (Internet o Intranet). Las aplicaciones para Win-dows son cada vez menos requeridas; los departamentos de sistemas de las empresas han encontrado en este tipo de ambientes la facilidad de implementación, ya que los equipos PC cliente solamente requieren de un navegador Web instalado, con lo que se facilita lo que se conoce como deployment de la aplicación o sistema por implementar.

Actualmente, más del 90 por ciento de las aplicaciones en que trabajo para mis clientes son para Web. Aquí encon-tramos necesidades de aplicaciones ricas en interactividad (RIA, Rich Internet Applications), las cuales, programadas de la manera tradicional en Web, resultarían ineficientes y propensas a saturar las redes de cómputo de las orga-nizaciones. Es aquí donde aparece el AJAX, el cual vamos a describir a continuación.

DEFINICIÓN DE AJAX

AJAX, acrónimo de Asynchronous JavaScript And XML (Ja-vaScript asíncrono y XML), es una técnica para crear apli-

caciones RIA basadas en ambiente Web, que se ejecutan

para el cliente por medio del navegador, el cual man-tiene comunicación asíncrona con el servidor Web en un segundo plano (background). Esto permite realizar cam-bios sobre una página Web sin necesidad de recargarla, con lo que aumentan la velocidad e interactividad de la misma. El término AJAX fue creado en el año 2005, aunque la tec-nología en que está basado fue creada una década antes.

¿ES AJAX UNA NUEVA TECNOLOGÍA?

Podemos pensar que AJAX es una nueva tecnología; sin embargo, no lo es, más bien es la combinación de tres tec-nologías ya existentes desde hace tiempo:

1. XHTML (o HTML) y hojas de estilos en cascada (CSS) que utilizan el modelo DOM (Document Object Model) para la exhibición e interacción en forma dinámica.

2. Intercambio y manipulación de datos, aplicando XML y XSLT.

Implementación de la tecnología

Figura 1: El modelo clásico de aplicaciones Web (síncrono).

Figura 2: Modelo de aplicaciones Web implementando AJAX.

Maestro José Luis Ramos MartínezCatedrático en FACPYA / UANLConsultor Independienteen desarrollo de [email protected]

José Luis Ramos Martínez

3. Recuperación de datos en forma asíncrona, usando el objeto XMLHttpRequest y Javascript.

MODELO CLÁSICO

DE APLICACIONES WEB

La mayoría de las aplicaciones Web “disparan” acciones del usuario en la interfaz; estas acciones hacen un re-querimiento HTTP al servidor Web, el cual ejecuta un pro-ceso como recopilar información, hacer cálculos, etcétera, y devuelve el resultado del proceso al cliente por medio de HTML. La figura 1 ilustra este modelo.

Es importante observar que en cada petición de proc-esamiento hacia el servidor, toda la página Web es enviada al servidor, se ejecuta el procesamiento requerido, y el servidor envía toda la página Web al cliente en forma de HTML. Esto, en sistemas con mucha interacción del usua-rio, resulta en una total ineficiencia.

EL FUNCIONAMIENTO DE AJAX

Una aplicación Web con implementación de AJAX elimina parte de la interacción en la Web entre el cliente y el servi-dor; esto se logra por medio de un motor AJAX (escrito en Javascript y usualmente accesado desde un frame oculto), el cual resulta ser una capa adicional encargada de contro-lar la interacción entre cliente y servidor.

Las aplicaciones AJAX se ejecutan en el PC cliente,

manipulando la página Web dentro del navegador por

medio de DOM, teniendo la capacidad de procesar las

peticiones al servidor y sus respuestas, sin necesidad de tener que recargar toda la página HTML cada vez que se realiza una acción o cambio en la interfaz. Generalmente, sólo se requiere enviar pequeñas peticiones al servidor

36y37.indd 1 26/02/2008 17:10:45

CONOCIMIENTOTECNOLOGÍAS WEB36 CONOCIMIENTO TECNOLOGÍAS WEB 37

candado en la parte de abajo de la página.2. Filtros de seguridad: de preferencia el banco nos

debe otorgar más de un identificador. Algunos filtros pue-den ser: usuario, contraseña, dispositivo electrónico.

3. Correos de Confirmación: es importante que nos mantengan informados en todo momento sobre las trans-acciones realizadas en nuestra cuenta; esto se maneja nor-malmente por correos electrónicos de confirmación.

4. Certificado de reembolso: algunos bancos han toma-do en serio el tema de seguridad, y ofrecen confiadamente un certificado de reembolso, el cual ampara al cliente en caso de cualquier problema que se pueda presentar. Esto, además de utilizarlo en algún momento.

VENTAJAS DE LA BANCA EN LÍNEA

En el año 2006, VISA y AMIPCI realizaron un estudio en el cual revelan que el 44 por ciento de los usuarios prefieren no utilizar la banca en línea, por considerarla insegura. Pero, a diferencia de ellos, tenemos el 56 por ciento de

usuarios que ya utilizan la banca en línea, conocen las ven-tajas y beneficios que ofrece y que no están dispuestos a volver a hacer filas en un banco.

En este estudio, se nos indica que el 56 por ciento de

los usuarios utilizan la banca en línea dos o más veces

a la semana; esto nos da una idea de la importancia que

está tomando este servicio.*

*Fuente www.amipci.org.mxEl sector financiero está consciente de ello, y por esa

razón ha ido implementando diferentes niveles de seguri-dad, como la implementación de dispositivos electrónicos que despliegan una clave numérica, misma que, en com-binación con el usuario y contraseña, ofrece un nivel de seguridad más alto.

ASPECTOS QUE HAY QUE CONOCER

Además, existe mucha información respecto a los posibles ataques en Internet, para que estemos al tanto de los de-talles y no dejemos que suceda en nuestras cuentas. Algu-nos temas que debemos saber y que debemos evitar son:

1. Phishing: es un término informático que denomina un tipo de delito encuadrado dentro del ámbito de las estafas, y que se comete mediante el uso de un tipo de ingeniería social caracterizado por intentar adquirir infor-mación confidencial de forma fraudulenta (como puede ser una contraseña o información detallada sobre tarje-tas de crédito u otra información bancaria). El estafador, conocido como phisher, se hace pasar por una persona o empresa de confianza en una aparente comunicación oficial electrónica, por lo común un correo electrónico, o algún sistema de mensajería instantánea o incluso utili-zando también llamadas telefónicas.

2. Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System) o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio (domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de Inter-net a la página web que el atacante haya especificado para ese nombre de dominio.

3. Spoofing, en términos de seguridad de redes, hace referencia al uso de técnicas de suplantación de identidad, generalmente con usos maliciosos o de investigación. Ex-isten diferentes tipos de spoofing dependiendo de la tec-nología a la que nos refiramos, los cuales se describirán más adelante, como el IP spoofing (quizás el más cono-cido), ARP spoofing, DNS spoofing, Web spoofing o e-mail spoofing, aunque en general se puede englobar dentro de spoofing cualquier tecnología de red susceptible de sufrir suplantaciones de identidad.

*Fuente wikipedia

Ahora ya estás enterado. Si por alguna razón aún no tienes el servicio de Banca en Línea, ¿qué esperas para contratarlo? Puedes ocupar tu tiempo en cosas más im-portantes que hacer filas. Modernízate! ¿O quieres seguir viviendo en la antigüedad?

Al menos en los últimos tres años mis clientes me han estado solicitando con mayor frecuencia el desarrollo de aplicaciones para el ambien-

te Web (Internet o Intranet). Las aplicaciones para Win-dows son cada vez menos requeridas; los departamentos de sistemas de las empresas han encontrado en este tipo de ambientes la facilidad de implementación, ya que los equipos PC cliente solamente requieren de un navegador Web instalado, con lo que se facilita lo que se conoce como deployment de la aplicación o sistema por implementar.

Actualmente, más del 90 por ciento de las aplicaciones en que trabajo para mis clientes son para Web. Aquí encon-tramos necesidades de aplicaciones ricas en interactividad (RIA, Rich Internet Applications), las cuales, programadas de la manera tradicional en Web, resultarían ineficientes y propensas a saturar las redes de cómputo de las orga-nizaciones. Es aquí donde aparece el AJAX, el cual vamos a describir a continuación.

DEFINICIÓN DE AJAX

AJAX, acrónimo de Asynchronous JavaScript And XML (Ja-vaScript asíncrono y XML), es una técnica para crear apli-

caciones RIA basadas en ambiente Web, que se ejecutan

para el cliente por medio del navegador, el cual man-tiene comunicación asíncrona con el servidor Web en un segundo plano (background). Esto permite realizar cam-bios sobre una página Web sin necesidad de recargarla, con lo que aumentan la velocidad e interactividad de la misma. El término AJAX fue creado en el año 2005, aunque la tec-nología en que está basado fue creada una década antes.

¿ES AJAX UNA NUEVA TECNOLOGÍA?

Podemos pensar que AJAX es una nueva tecnología; sin embargo, no lo es, más bien es la combinación de tres tec-nologías ya existentes desde hace tiempo:

1. XHTML (o HTML) y hojas de estilos en cascada (CSS) que utilizan el modelo DOM (Document Object Model) para la exhibición e interacción en forma dinámica.

2. Intercambio y manipulación de datos, aplicando XML y XSLT.

Implementación de la tecnología

Figura 1: El modelo clásico de aplicaciones Web (síncrono).

Figura 2: Modelo de aplicaciones Web implementando AJAX.

Maestro José Luis Ramos MartínezCatedrático en FACPYA / UANLConsultor Independienteen desarrollo de [email protected]

José Luis Ramos Martínez

3. Recuperación de datos en forma asíncrona, usando el objeto XMLHttpRequest y Javascript.

MODELO CLÁSICO

DE APLICACIONES WEB

La mayoría de las aplicaciones Web “disparan” acciones del usuario en la interfaz; estas acciones hacen un re-querimiento HTTP al servidor Web, el cual ejecuta un pro-ceso como recopilar información, hacer cálculos, etcétera, y devuelve el resultado del proceso al cliente por medio de HTML. La figura 1 ilustra este modelo.

Es importante observar que en cada petición de proc-esamiento hacia el servidor, toda la página Web es enviada al servidor, se ejecuta el procesamiento requerido, y el servidor envía toda la página Web al cliente en forma de HTML. Esto, en sistemas con mucha interacción del usua-rio, resulta en una total ineficiencia.

EL FUNCIONAMIENTO DE AJAX

Una aplicación Web con implementación de AJAX elimina parte de la interacción en la Web entre el cliente y el servi-dor; esto se logra por medio de un motor AJAX (escrito en Javascript y usualmente accesado desde un frame oculto), el cual resulta ser una capa adicional encargada de contro-lar la interacción entre cliente y servidor.

Las aplicaciones AJAX se ejecutan en el PC cliente,

manipulando la página Web dentro del navegador por

medio de DOM, teniendo la capacidad de procesar las

peticiones al servidor y sus respuestas, sin necesidad de tener que recargar toda la página HTML cada vez que se realiza una acción o cambio en la interfaz. Generalmente, sólo se requiere enviar pequeñas peticiones al servidor

36y37.indd 1 26/02/2008 17:10:45

Page 40: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB38 CONOCIMIENTO TECNOLOGÍAS WEB 35

El servicio de banca en línea se ha vuelto primordial para todas las personas que viven la vida acelerada de trabajo, niños, súper y agregados. Esta ventaja ha

llegado a simplificar mi vida en un cien por ciento. Se me hace difícil recordar mis odiseas de filas, estacionamien-tos, horarios. Hoy por hoy, hago transferencias en línea

para cualquier tipo de deuda, ya sea el pago de un servi-

cio, el pago a una amiga, el pago de mi tarjeta de crédito;

en fin, con cinco minitos de mi tiempo puedo efectuar

hasta tres pagos, sin la necesidad de levantarme de mi

escritorio o sacar el coche cuando estoy en casa. Hoy por hoy, el tema importante en este servicio es el identificar una Banca en línea cien por ciento segura. Podemos encon-trar en internet muchas opciones; pero, ¿cómo podemos definir si nuestra Banca es segura? Yo podría enumerar algunas recomendaciones para identificar una Banca en

Línea Segura:

1. Ofrecerme un portal seguro: esto se puede identi-ficar con la dirección en la parte de arriba de nuestro ex-plorador (https://www.mibanco.com) o bien un icono de

Yo necesito una banca segura.¿¿Y tú?

Licenciada Laura RodríguezResponsable del Portal [email protected]

Laura Rodríguez

La línea digital

(búsqueda, eliminación, actualización de información en bases de datos), y se devuelven respuestas relativamente cortas. Esto permite el desarrollo de aplicaciones más efi-cientes, con interactividad ágil y mejores tiempos de res-puesta hacia el usuario. La figura 2 ilustra el modelo de aplicaciones Web implementando AJAX.

IMPLEMENTACIÓN DE AJAX

En mi experiencia personal en el desarrollo de aplicacio-nes Web, principalmente desarrollando en ASP.NET, la implementación de AJAX la he realizado por medio de controles específicamente diseñados para AJAX. Esto me ha permitido ser productivo en los tiempos de desarrollo. Sin el uso de estos controles tendría que escribir “tonela-das” de código Javascript, despidiéndome con ello de la productividad tan importante para mis clientes.

Existen numerosas opciones de controles para el de-sarrollo de aplicaciones Web ASP.NET. Por mencionar al-

gunas: TELERIK, INFRAGISTICS, MAGIC AJAX, ASP.NET AJAX, etcétera.

CONCLUSIONES

Hoy en día, gracias al AJAX, cuyo modelo de desarrollo

es relativamente simple, es posible desarrollar aplica-

ciones para el Web con interactividad similar a la de

aplicaciones Windows Cliente/Servidor. Desarrollar con AJAX ha sido determinante para mi empresa de desarrollo de software. Mis clientes operan aplicaciones en ambiente Web altamente eficientes, con gran interactividad, y dan la sensación de que se está trabajando con una aplicación Windows.

Recomiendo ampliamente el desarrollo de aplicaciones AJAX por medio de controles de terceros. Con una inver-sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

38y35.indd 1 26/02/2008 17:10:26

CONOCIMIENTOTECNOLOGÍAS WEB34 CONOCIMIENTO TECNOLOGÍAS WEB 39

Quienes nos dedicamos al desarrollo de software estamos convencidos de que una de las labores críticas de los proyectos es, sin duda alguna, la

construcción de los componentes de software; elementos visibles para el usuario y que, de no estar claros, comple-tos y correctos, sencillamente no le resultan de utilidad.

Si a esto agregamos el que, para los ambientes Web, su arquitectura y la diversidad de tecnologías que en ella con-fluyen es aún más compleja; y que los requerimientos del usuario se ven con la necesidad de ser automatizados en el menor tiempo posible, a fin de seguir siendo competitivos, entonces no dudaremos en incorporar a nuestros proyec-tos un elemento humano que garantice o incremente la factibilidad de éxito de los mismos.

Un rol muy importante en los desarrollos de software, sin duda es el del que ha sido identificado como coach de construcción; un rol con participación activa en el proyecto y que además cumple con una responsabilidad muy importante: la de “asegurar que los componentes

de software construidos cumplan con las expectativas

funcionales del usuario, el tiempo de entrega, el uso ra-

cional de los recursos involucrados y que estén libres

de defectos”

ACTIVIDADES IMPORTANTES

El coach de construcción tiene que seguir una serie de ac-tividades para cumplir con lo anterior; por lo que aquí, y a manera de checklist enlistaré las más significativas:• Formalizar y asegurar el uso de un proceso estándar de

construcción de componentes, que garantice disciplina y apego a las buenas prácticas.• Establecer modelos de programación que aseguren la efi-ciencia en la construcción de los componentes Web.• Implantar estándares de codificación y del uso racio-

nal de las herramientas de desarrollo y lenguajes de pro-gramación.• Establecer los criterios de calidad y aceptación que deben tener todas las especificaciones detalladas de los compo-nentes a construir.• Capacitar a los desarrolladores en metodología y téc-

nicas de ingeniería de software orientadas a la progra-mación dirigida a objetos.• Tomar mediciones durante el desarrollo de los compo-

nentes de software, para optimizar el proceso de cons-trucción.• Inspeccionar periódicamente el software construido, para asegurar que los componentes estén libres de defec-tos.

El coach que diseña y construye componentes del software Web Felipe de Jesús Rodríguez García

Licenciado Felipe de Jesús

Rodríguez García, MTSubdirector de

Investigación Tecnológica y DesarrolloCentro

de Servicios en InformáticaUANL – FCFM

• Llevar a cabo estrategias de prueba que aseguren que los componentes de software construidos cumplen al cien por ciento con lo establecido en las especificaciones deta-lladas.• Establecer comunicación efectiva con cada uno de los

desarrolladores asignados al proyecto.

• Tener la habilidad para formar y manejar equipos de

trabajo efectivos, durante la construcción de los compo-nentes de software.Sin duda se trata de una labor interesante y que nos traerá excelentes beneficios en la medida de su aplicación co-rrecta en los proyectos de software que emprendamos.

Y recuerden…

Cualquier trabajo que se haga en la vida es el mejor, si éste satisface y llena de orgullo a quién lo hace.

Una de las mejores satisfacciones se experimenta cuan-do ve uno que el trabajo realizado rinde frutos y se desa-rrolla de manera autónoma. Es como si una parte de uno mismo siguiera trabajando continuamente.

Silverlight es una nueva tecnología de presentación Web, creada para su ejecución en distintas platafor-mas. Hace posible un uso más completo, atractivo

visualmente e interactivo, y se puede ejecutar en todos los entornos: con exploradores y en múltiples dispositivos y sistemas operativos de escritorio (como en Macintosh de Apple). Además, para alcanzar a la mayoría de la comuni-dad Web, Silverlight necesita ejecutarse correctamente en diversos sistemas operativos conocidos y en los explora-dores más usados.

Como resultado, la primera versión es compatible

con los exploradores Firefox y Safari, que se ejecutan

en Mac OS X, así como en Firefox y en Internet Explo-

rer, Windows. A medida que evolucione el producto, se irán admitiendo más sistemas operativos y exploradores. Además de estas capacidades, Silverlight también es com-pletamente independiente de otros productos, tales como Windows Media Player para la reproducción de vídeo, y de Microsoft.NET Framework 3.0 para el análisis de XAML.

DESARROLLO

DE SIGUIENTE

GENERACIÓN

Silverlight es un componente clave en la estrategia de Mi-crosoft para el desarrollo Web de siguiente generación (Web.Next). Anteriormente se denominaba con el nom-bre en código “WPF/E”.

Al igual que WPF (Win-dows Presentation Founda-tion), la tecnología de pre-sentación en Microsoft .NET Framework 3.0 (la infra-estructura de programación de Windows), XAML (eXten-sible Application Markup Language, lenguaje de mar-cado de aplicaciones exten-sible), constituye la base de la capacidad de presen-tación de Silverlight. Microsoft Silverlight es un

plug-in compatible con va-

rias plataformas y buscado-

res que le pueden ayudar a

crear aplicaciones multi-

media interactividad y de

última generación, a partir de Microsoft .NET para Web. Silverlight ofrece un modelo de programación flexible con soporte para AJAX, Virtual Basic, C#, Python y Ruby, y se integra con aplicaciones de Web antiguas. Silverlight pue-de ofrecer de forma rápida y rentable videos compatibles con todos los buscadores más conocidos.

La arquitectura que admite la aplicación Silverlight se muestra en la figura. La interfaz de programación princi-pal es la API de JavaScript DOM. Esto permite responder a eventos sucedidos dentro del XAML de Silverlight, por ejemplo, cuando el contenido ha terminado de cargarse o cuando se completa una animación. También puede lla-mar a métodos para manipular la presentación; por ejem-plo, al iniciar una animación o al detener la reproducción de vídeo. Debajo de esto se encuentra el motor de análisis de XAML. El analizador crea el DOM de XAML en memo-ria que el núcleo de presentación usará y que controla la representación de los gráficos y las animaciones definidos por XAML. Además, el tiempo de ejecución contiene los

Ingeniero Joséde León Rodrí[email protected]

Silverlight, nueva y versátil

tecnología WebJosé de León Rodríguez

34y39.indd 1 26/02/2008 17:10:04

Page 41: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB38 CONOCIMIENTO TECNOLOGÍAS WEB 35

El servicio de banca en línea se ha vuelto primordial para todas las personas que viven la vida acelerada de trabajo, niños, súper y agregados. Esta ventaja ha

llegado a simplificar mi vida en un cien por ciento. Se me hace difícil recordar mis odiseas de filas, estacionamien-tos, horarios. Hoy por hoy, hago transferencias en línea

para cualquier tipo de deuda, ya sea el pago de un servi-

cio, el pago a una amiga, el pago de mi tarjeta de crédito;

en fin, con cinco minitos de mi tiempo puedo efectuar

hasta tres pagos, sin la necesidad de levantarme de mi

escritorio o sacar el coche cuando estoy en casa. Hoy por hoy, el tema importante en este servicio es el identificar una Banca en línea cien por ciento segura. Podemos encon-trar en internet muchas opciones; pero, ¿cómo podemos definir si nuestra Banca es segura? Yo podría enumerar algunas recomendaciones para identificar una Banca en

Línea Segura:

1. Ofrecerme un portal seguro: esto se puede identi-ficar con la dirección en la parte de arriba de nuestro ex-plorador (https://www.mibanco.com) o bien un icono de

Yo necesito una banca segura.¿¿Y tú?

Licenciada Laura RodríguezResponsable del Portal [email protected]

Laura Rodríguez

La línea digital

(búsqueda, eliminación, actualización de información en bases de datos), y se devuelven respuestas relativamente cortas. Esto permite el desarrollo de aplicaciones más efi-cientes, con interactividad ágil y mejores tiempos de res-puesta hacia el usuario. La figura 2 ilustra el modelo de aplicaciones Web implementando AJAX.

IMPLEMENTACIÓN DE AJAX

En mi experiencia personal en el desarrollo de aplicacio-nes Web, principalmente desarrollando en ASP.NET, la implementación de AJAX la he realizado por medio de controles específicamente diseñados para AJAX. Esto me ha permitido ser productivo en los tiempos de desarrollo. Sin el uso de estos controles tendría que escribir “tonela-das” de código Javascript, despidiéndome con ello de la productividad tan importante para mis clientes.

Existen numerosas opciones de controles para el de-sarrollo de aplicaciones Web ASP.NET. Por mencionar al-

gunas: TELERIK, INFRAGISTICS, MAGIC AJAX, ASP.NET AJAX, etcétera.

CONCLUSIONES

Hoy en día, gracias al AJAX, cuyo modelo de desarrollo

es relativamente simple, es posible desarrollar aplica-

ciones para el Web con interactividad similar a la de

aplicaciones Windows Cliente/Servidor. Desarrollar con AJAX ha sido determinante para mi empresa de desarrollo de software. Mis clientes operan aplicaciones en ambiente Web altamente eficientes, con gran interactividad, y dan la sensación de que se está trabajando con una aplicación Windows.

Recomiendo ampliamente el desarrollo de aplicaciones AJAX por medio de controles de terceros. Con una inver-sión módica (alrededor de $800.00 dólares americanos), se pueden obtener grandes beneficios en productividad.

38y35.indd 1 26/02/2008 17:10:26

CONOCIMIENTOTECNOLOGÍAS WEB34 CONOCIMIENTO TECNOLOGÍAS WEB 39

Quienes nos dedicamos al desarrollo de software estamos convencidos de que una de las labores críticas de los proyectos es, sin duda alguna, la

construcción de los componentes de software; elementos visibles para el usuario y que, de no estar claros, comple-tos y correctos, sencillamente no le resultan de utilidad.

Si a esto agregamos el que, para los ambientes Web, su arquitectura y la diversidad de tecnologías que en ella con-fluyen es aún más compleja; y que los requerimientos del usuario se ven con la necesidad de ser automatizados en el menor tiempo posible, a fin de seguir siendo competitivos, entonces no dudaremos en incorporar a nuestros proyec-tos un elemento humano que garantice o incremente la factibilidad de éxito de los mismos.

Un rol muy importante en los desarrollos de software, sin duda es el del que ha sido identificado como coach de construcción; un rol con participación activa en el proyecto y que además cumple con una responsabilidad muy importante: la de “asegurar que los componentes

de software construidos cumplan con las expectativas

funcionales del usuario, el tiempo de entrega, el uso ra-

cional de los recursos involucrados y que estén libres

de defectos”

ACTIVIDADES IMPORTANTES

El coach de construcción tiene que seguir una serie de ac-tividades para cumplir con lo anterior; por lo que aquí, y a manera de checklist enlistaré las más significativas:• Formalizar y asegurar el uso de un proceso estándar de

construcción de componentes, que garantice disciplina y apego a las buenas prácticas.• Establecer modelos de programación que aseguren la efi-ciencia en la construcción de los componentes Web.• Implantar estándares de codificación y del uso racio-

nal de las herramientas de desarrollo y lenguajes de pro-gramación.• Establecer los criterios de calidad y aceptación que deben tener todas las especificaciones detalladas de los compo-nentes a construir.• Capacitar a los desarrolladores en metodología y téc-

nicas de ingeniería de software orientadas a la progra-mación dirigida a objetos.• Tomar mediciones durante el desarrollo de los compo-

nentes de software, para optimizar el proceso de cons-trucción.• Inspeccionar periódicamente el software construido, para asegurar que los componentes estén libres de defec-tos.

El coach que diseña y construye componentes del software Web Felipe de Jesús Rodríguez García

Licenciado Felipe de Jesús

Rodríguez García, MTSubdirector de

Investigación Tecnológica y DesarrolloCentro

de Servicios en InformáticaUANL – FCFM

• Llevar a cabo estrategias de prueba que aseguren que los componentes de software construidos cumplen al cien por ciento con lo establecido en las especificaciones deta-lladas.• Establecer comunicación efectiva con cada uno de los

desarrolladores asignados al proyecto.

• Tener la habilidad para formar y manejar equipos de

trabajo efectivos, durante la construcción de los compo-nentes de software.Sin duda se trata de una labor interesante y que nos traerá excelentes beneficios en la medida de su aplicación co-rrecta en los proyectos de software que emprendamos.

Y recuerden…

Cualquier trabajo que se haga en la vida es el mejor, si éste satisface y llena de orgullo a quién lo hace.

Una de las mejores satisfacciones se experimenta cuan-do ve uno que el trabajo realizado rinde frutos y se desa-rrolla de manera autónoma. Es como si una parte de uno mismo siguiera trabajando continuamente.

Silverlight es una nueva tecnología de presentación Web, creada para su ejecución en distintas platafor-mas. Hace posible un uso más completo, atractivo

visualmente e interactivo, y se puede ejecutar en todos los entornos: con exploradores y en múltiples dispositivos y sistemas operativos de escritorio (como en Macintosh de Apple). Además, para alcanzar a la mayoría de la comuni-dad Web, Silverlight necesita ejecutarse correctamente en diversos sistemas operativos conocidos y en los explora-dores más usados.

Como resultado, la primera versión es compatible

con los exploradores Firefox y Safari, que se ejecutan

en Mac OS X, así como en Firefox y en Internet Explo-

rer, Windows. A medida que evolucione el producto, se irán admitiendo más sistemas operativos y exploradores. Además de estas capacidades, Silverlight también es com-pletamente independiente de otros productos, tales como Windows Media Player para la reproducción de vídeo, y de Microsoft.NET Framework 3.0 para el análisis de XAML.

DESARROLLO

DE SIGUIENTE

GENERACIÓN

Silverlight es un componente clave en la estrategia de Mi-crosoft para el desarrollo Web de siguiente generación (Web.Next). Anteriormente se denominaba con el nom-bre en código “WPF/E”.

Al igual que WPF (Win-dows Presentation Founda-tion), la tecnología de pre-sentación en Microsoft .NET Framework 3.0 (la infra-estructura de programación de Windows), XAML (eXten-sible Application Markup Language, lenguaje de mar-cado de aplicaciones exten-sible), constituye la base de la capacidad de presen-tación de Silverlight. Microsoft Silverlight es un

plug-in compatible con va-

rias plataformas y buscado-

res que le pueden ayudar a

crear aplicaciones multi-

media interactividad y de

última generación, a partir de Microsoft .NET para Web. Silverlight ofrece un modelo de programación flexible con soporte para AJAX, Virtual Basic, C#, Python y Ruby, y se integra con aplicaciones de Web antiguas. Silverlight pue-de ofrecer de forma rápida y rentable videos compatibles con todos los buscadores más conocidos.

La arquitectura que admite la aplicación Silverlight se muestra en la figura. La interfaz de programación princi-pal es la API de JavaScript DOM. Esto permite responder a eventos sucedidos dentro del XAML de Silverlight, por ejemplo, cuando el contenido ha terminado de cargarse o cuando se completa una animación. También puede lla-mar a métodos para manipular la presentación; por ejem-plo, al iniciar una animación o al detener la reproducción de vídeo. Debajo de esto se encuentra el motor de análisis de XAML. El analizador crea el DOM de XAML en memo-ria que el núcleo de presentación usará y que controla la representación de los gráficos y las animaciones definidos por XAML. Además, el tiempo de ejecución contiene los

Ingeniero Joséde León Rodrí[email protected]

Silverlight, nueva y versátil

tecnología WebJosé de León Rodríguez

34y39.indd 1 26/02/2008 17:10:04

Page 42: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB40 CONOCIMIENTO TECNOLOGÍAS WEB 33

REDACCIÓN DE PIRÁMIDE INVERTIDA

Cuando sea posible, se recomienda utilizar la técnica de la pirámide invertida, escribiendo la idea principal y luego sustentando y agregando detalles. De esta forma, si el usua-rio no termina de leer, habrá captado la idea principal. No es el mejor estilo para un libro o una historia, pero enfoca la atención a la información más relevante.

Blanca Nieves se casó con su príncipe azul tras escapar de numerosos peligros, incluyendo un cazador asesino y una manzana envenenada. (Woodtke, 2002, p.16) Busque más información sobre el príncipe, los siete enanos, la ma-drastra, la manzana envenenada y el espejo mágico.

REDACTAR PARA BUSCADORES

Otro punto importante de un sitio web es redactar para que los buscadores puedan encontrar fácilmente mi con-tenido. Se les puede indicar qué información existe y cada cuánto tiempo se actualiza. Entre los expertos de diseño

de sitios web, se conoce cómo mejorar la buscabilidad

(findability). Es importante recordar que los textos em-

bebidos en imágenes no podrán ser localizados por los

buscadores.

EL LENGUAJE CIUDADANO:

UNA APLICACIÓN EN MÉXICO

En Suecia surgió un movimiento que posteriormente se fue adoptando en el resto del mundo, Plain Language, que puede traducirse como Lenguaje Cotidiano, y se ha imple-mentado en muchos países con éxito. México no es la ex-cepción, ya que ha sido una preocupación cada vez mayor para el gobierno. En la Secretaría de la Función Pública acuñaron el término lenguaje ciudadano (SFP, 2008). Esta entidad se dedica a capacitar a dependencias federales, estatales o municipales para mejorar los portales guber-namentales y facilitar el acceso del ciudadano.

En el ejemplo de la figura 1 se observa cómo simplifi-can sustancialmente la información para generar párrafos sencillos de entender.

CONCLUSIONES

Una vez que se reconoce que el escribir para Web no es igual al escribir para materiales impresos, se ha recorrido la mitad del camino. El hecho de que el usuario esté solo con su computadora, hace que los textos amigables sean más importantes que nunca. Adicionalmente, nunca se sabe quién es el verdadero lector que se tiene al otro lado. Un estudio que realizó en fecha reciente el gobierno de Chile, arrojó como resultado el que en muchas ocasiones el portal de gobierno estaba interactuando con niños, que ayudaban a sus abuelos a realizar algún trámite en línea. (P. Saavedra, comunicación personal, 9 de noviembre de 2007).

Entre más placentera sea la experiencia del usuario,

más posibilidades habrá de que regrese a un sitio web.

El lenguaje utilizado es parte importante de la usabili-

dad del sitio.

Antes Después

<html><head><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

<html><head><meta name=”keywords” content=”usabilidad, testing, card sort, personas, arquitectura de informacion, diseno visual, navegacion”><meta name=”description” content=”Informacion basica para el diseno de un sitio web, con referencias a libros y articulos especializados. Ideal para personas que inician en el diseno de sitios web”><meta name=”robot” content=”all”><meta name=”revisit” content=”20 days”><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

(Price, 2002)

BibliografíaJeney, C. (2006) Writing for the Web: A Practical Guide (1a ed.) USA: Prentice HallPrice, J. Price, L. (2002) Hot Text. USA: New RidersShedroff, N. Diller, S. Rhea D. (2008) Making Meaning: How Successful Businesses Deliver Meaningful Customer Experiences (1a ed). USA: New Riders PressWoodtke, Christina (2002). Information architecture. USA: New Riders Press

Referencias WebCBASSE Commission on Behavioral and Social Sciences and Education (1983). Video Displays, Work, and Vision. Disponible en: http://www.nap.edu/openbook.php?isbn=0309033888&page=R9 Secretaría de la Función Pública (2008). Lenguaje Ciudadano. Disponible en: http://www.lenguajeciudadano.gob.mx/index.php?option=com_content&task=blogcategory&id=23&Itemid=30.

códecs necesarios para la reproducción de contenido mul-timedia WMV, WMA y MP3.

COMPLEMENTO DE EXPLORADOR

Esencialmente, Silverlight es un complemento de explora-dor que representa XAML, y expone su modelo de objetos del documento (DOM - Document Object Model) interno y el modelo de evento al explorador de manera traducible en secuencias de comandos. Así, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones y escalas de tiempo, y un desarrollador puede adjuntarlos al código de una página para implementar la funcionali-dad. Dado que XAML se basa en XML, el documento que define la interfaz del usuario que se descarga al cliente se basa en texto y, por lo tanto, no da problemas a mo-tores de búsqueda ni firewalls. Además, XAML puede en-samblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experien-cia gráfica enriquecida, sino también una muy personali-zable y dinámica.

Silverlight representa el paso siguiente en el desa-

rrollo del potencial de riqueza en utilización que los de-

sarrolladores y diseñadores de aplicaciones pueden pre-

sentar a sus clientes. Esto se consigue permitiendo a los diseñadores expresar su creatividad y guardar su trabajo en un formato que funcione directamente en la Web. En el pasado, los diseñadores creaban un sitio Web y ofrecían una utilización a los usuarios a través de herramientas que proporcionaban resultados variados, pero el desarro-llador tenía que solventar las restricciones de la platafor-ma Web y era capaz de ofrecer tales resultados.

UTILIZACIÓN

COMPLETA Y VARIADA

En el modelo de Silverlight, los diseñadores pueden ge-nerar el tipo de utilización que desean para el usuario, y expresarlo como XAML. De esta forma, se puede trabajar más estrechamente que antes, con el fin de proporcionar una utilización completa y variada al usuario.

Como XAML es XML; está basado en texto, lo cual pro-porciona una descripción de sus ricos contenidos, fácil de inspeccionar y totalmente compatible con los firewall. Aunque se pueden usar otras tecnologías —como subpro-gramas en Java, ActiveX y Flash— para implementar con-tenidos más ricos que DHTML, CSS y JavaScript, todas e-llas envían contenidos binarios al explorador. Esto resulta difícil de auditar, sin mencionar la dificultad de actuali-zación, ya que para cualquier cambio es necesario que la aplicación se vuelva a instalar, lo que no es tan fácil para el usuario y podría provocar estancamientos en las páginas. Cuando se usa Silverlight y es necesario realizar un cam-bio en el contenido enriquecido, se genera un nuevo ar-chivo XAML en el servidor. La próxima vez que el usuario vaya a la página, se descargará este XAML y se actualizará la experiencia sin ninguna reinstalación.

APLICACIONES DE SILVERLIGHT

En el núcleo de Silverlight está el módulo de mejora del explorador que genera XAML y ofrece los gráficos resul-tantes en la superficie del explorador. Se trata de una descarga pequeña (menos de 2 MB), que se puede instalar cuando el usuario se encuentra con un sitio con contenido de Silverlight o bien se puede descargar de su Web: http://www.microsoft.com/silverlight/

Para generar aplicaciones de Silverlight,tenemos las siguientes opciones:

Para desarrolladores:• Microsoft Visual Studio 2008• Microsoft ASP.NET

Para diseñadores:• Expression Encoder• Expression Design• Expression Blend 2

Sitio creado con Silverlight: http://www.tafiti.com/

40y33.indd 1 26/02/2008 17:09:48

CONOCIMIENTOTECNOLOGÍAS WEB32 CONOCIMIENTO TECNOLOGÍAS WEB 41

Antes Después

Existe la necesidad de una revisión tanto de los exámenes preoperatorios como de los postoperatorios para la determinación de la confiabilidad en los resultados.

Deben revisarse los exámenes pre y postoperatorios para determinar su nivel de confiabilidad.

Bienvenido al BuscaChef donde se maneja un concepto revolucionario para simplificar su tarea. Aquí no sólo podrá consultar todo tipo de recetas, sino que podrá hacerlo de varias formas. Si teclea un ingrediente, por ejemplo chocolate, traerá todas las recetas relacionadas con este producto, desde mole hasta pastel selva negra. Por otro lado, puede buscar una receta específica, como puede ser el mole. Por último, puede seleccionar un tipo de comida, como comida mexicana, y traerá todas las recetas que se tengan registradas.

El BuscaChef le ahorra tiempo encontrando recetasPor ingrediente traerá las recetas que contengan ese ingrediente, por ejemplo, chocolate Por platillo traerá las recetas de ese platillo, por ejemplo, molePor tipo de comida traerá las recetas relacionadas, por ejemplo, comida mexicana

Cuidado: no rechace esta oportunidad de renovar su membresía a menos que ya haya utilizado todos los beneficios que se ofrecen.

Por favor reconsidere su cancelación. Lo apreciamos como miembro, y esperamos que valore todos los beneficios que la membresía le ofrece. (Price, 2002)

Podrá subir al servidor, mediante un FTP, las imágenes que se seleccionen en la ventana del Explorador de Windows. Podrá agregar las imágenes que usted seleccione de su computadora.

No hay recaptura; ingrese en modo reescribir En este momento no puede modificar el dato; debe seleccionar el modo reescribir del menú

Antes Después

En la siguiente página podrá encontrar … En la página de seguridad del producto podrá encontrar…

Da clic aquí para ver los resultados El 63% de los alumnos recomendarían el curso y 23% sugieren mejoras, en base a nuestra encuesta de satisfacción.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

Resumen | Propuesta | RecomendacionesMayor información con Alejandro Rivera

El manual de identidad especifica los lineamientos a seguir para las aplicaciones.

El manual de identidad especifica los lineamientos a seguir para las aplicaciones. (PDF de 4.3 MB, requiere Acrobat Reader 4.0 o más)

SIMPLIFICAR LOS TEXTOS

El lenguaje debe simplificarse lo más posible, eliminando adjetivos, juicios de valor, y ambigüedades. Hay que dar

un tono positivo al mensaje. Se recomienda dar información completa, en forma amigable y sin tecnicismos. Esto último es especialmente importante para los mensajes de error.

SIMPLIFICAR LAS LIGAS

Cuando agregamos ligas, debe especificarse qué contienen, para que el usuario decida si quiere acceder a ellas o no. Conviene incluir referencias a otras páginas del sitio, para facilitar la navegación del usuario. Cuando se trate de descar-gar un documento, conviene especificar tamaño y formato.

definir tareas específicas que el usuario podrá realizar.Cuando un usuario entra en un Sitio Web, espera rea-

lizar una tarea específica. Si alguien accede a diccionar-ios.com, estará buscando la traducción de un término o la clarificación una palabra. Accederán a gmail.com para enviar un mensaje a un amigo. En cinepolis.com estarán buscando qué películas se exhiben y los horarios de la sala de exhibición más cercana.

El hombre piensa de forma natural en objetos, por

lo que es algo que debiera resultar intuitivo. Al solicitar información de sillas en target.com, toda la información de la mesa debe aparecer en un mismo lugar, y dicha infor-mación debe estar completa. Sin embargo, existen sitios que muestran toda la información del catálogo de pro-ductos en una misma página. Tanta información satura al usuario.

Si pensamos en tareas, es mucho más fácil definir cómo se manejarán esos objetos y diseñar la información adecuada para la tarea. Por ejemplo, si en un sitio voy a comprar un producto, al momento de seleccionar el ca-rrito de compra debo esconder la información sobre el ca-tálogo. Aun cuando deje una liga para regresar al catálogo, en ese momento me enfocaré en presentar la información de envío y contestar las dudas que deba tener sobre esto. Al momento de haber seleccionado la opción de envío, debo eliminar esta información y ahora apoyarla con las opciones de pago.

Aún más importante es el seleccionar nombres re-presentativos. Si un sitio promueve estudios en el extran-jero, los visitantes esperarán encontrar una liga o botón a becas, y si el sitio utiliza el término ayudas financieras, probablemente haya usuarios que no lo encuentren.

“Ahora permítame explicarle el funcionamiento de nuestro servicio de banca en línea”, procedió la funcionaria de la sucursal bancaria en Nueva York, y continuó: “Al mes tiene usted derecho a sólo cinco cheques sin cargo por comisión, pero las transacciones en Internet son sin cargo alguno”.

Sin más trámite que un depósito inicial, la firma de

un solo contrato y una sesión de entrenamiento de diez

minutos, ya estaba yo en condiciones de utilizar los ser-

vicios de banca en línea de Citibank. Esto también expli-caba el porqué esa sucursal, situada en la esquina de No-vena Avenida y Calle 42, una de las zonas más populares de Nueva York, se encontraba prácticamente vacía a mitad del día de trabajo.

NO MÁS IDAS AL BANCO

Era el principio del año 2003. Desde entonces realizo to-das mis actividades bancarias con esa institución; pago servicios, como luz, teléfono, cable; transfiero dinero a México; pago impuestos y nunca, desde aquel entonces, he tenido que poner un pie en una sucursal de banco. Todo lo realizo por Internet. Si acaso, he tenido que hablar por

Para que Internet funcione…

La zanahoria por delante y el látigopor detrásAlejandro Camino

Alejandro Camino V. P. Marketing y Comunicación / Softtek

32y41.indd 1 26/02/2008 17:09:32

Page 43: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB40 CONOCIMIENTO TECNOLOGÍAS WEB 33

REDACCIÓN DE PIRÁMIDE INVERTIDA

Cuando sea posible, se recomienda utilizar la técnica de la pirámide invertida, escribiendo la idea principal y luego sustentando y agregando detalles. De esta forma, si el usua-rio no termina de leer, habrá captado la idea principal. No es el mejor estilo para un libro o una historia, pero enfoca la atención a la información más relevante.

Blanca Nieves se casó con su príncipe azul tras escapar de numerosos peligros, incluyendo un cazador asesino y una manzana envenenada. (Woodtke, 2002, p.16) Busque más información sobre el príncipe, los siete enanos, la ma-drastra, la manzana envenenada y el espejo mágico.

REDACTAR PARA BUSCADORES

Otro punto importante de un sitio web es redactar para que los buscadores puedan encontrar fácilmente mi con-tenido. Se les puede indicar qué información existe y cada cuánto tiempo se actualiza. Entre los expertos de diseño

de sitios web, se conoce cómo mejorar la buscabilidad

(findability). Es importante recordar que los textos em-

bebidos en imágenes no podrán ser localizados por los

buscadores.

EL LENGUAJE CIUDADANO:

UNA APLICACIÓN EN MÉXICO

En Suecia surgió un movimiento que posteriormente se fue adoptando en el resto del mundo, Plain Language, que puede traducirse como Lenguaje Cotidiano, y se ha imple-mentado en muchos países con éxito. México no es la ex-cepción, ya que ha sido una preocupación cada vez mayor para el gobierno. En la Secretaría de la Función Pública acuñaron el término lenguaje ciudadano (SFP, 2008). Esta entidad se dedica a capacitar a dependencias federales, estatales o municipales para mejorar los portales guber-namentales y facilitar el acceso del ciudadano.

En el ejemplo de la figura 1 se observa cómo simplifi-can sustancialmente la información para generar párrafos sencillos de entender.

CONCLUSIONES

Una vez que se reconoce que el escribir para Web no es igual al escribir para materiales impresos, se ha recorrido la mitad del camino. El hecho de que el usuario esté solo con su computadora, hace que los textos amigables sean más importantes que nunca. Adicionalmente, nunca se sabe quién es el verdadero lector que se tiene al otro lado. Un estudio que realizó en fecha reciente el gobierno de Chile, arrojó como resultado el que en muchas ocasiones el portal de gobierno estaba interactuando con niños, que ayudaban a sus abuelos a realizar algún trámite en línea. (P. Saavedra, comunicación personal, 9 de noviembre de 2007).

Entre más placentera sea la experiencia del usuario,

más posibilidades habrá de que regrese a un sitio web.

El lenguaje utilizado es parte importante de la usabili-

dad del sitio.

Antes Después

<html><head><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

<html><head><meta name=”keywords” content=”usabilidad, testing, card sort, personas, arquitectura de informacion, diseno visual, navegacion”><meta name=”description” content=”Informacion basica para el diseno de un sitio web, con referencias a libros y articulos especializados. Ideal para personas que inician en el diseno de sitios web”><meta name=”robot” content=”all”><meta name=”revisit” content=”20 days”><title>Universidad de Monterrey: Maestria en Diseno Grafico: Usabilidad</title></head>…

(Price, 2002)

BibliografíaJeney, C. (2006) Writing for the Web: A Practical Guide (1a ed.) USA: Prentice HallPrice, J. Price, L. (2002) Hot Text. USA: New RidersShedroff, N. Diller, S. Rhea D. (2008) Making Meaning: How Successful Businesses Deliver Meaningful Customer Experiences (1a ed). USA: New Riders PressWoodtke, Christina (2002). Information architecture. USA: New Riders Press

Referencias WebCBASSE Commission on Behavioral and Social Sciences and Education (1983). Video Displays, Work, and Vision. Disponible en: http://www.nap.edu/openbook.php?isbn=0309033888&page=R9 Secretaría de la Función Pública (2008). Lenguaje Ciudadano. Disponible en: http://www.lenguajeciudadano.gob.mx/index.php?option=com_content&task=blogcategory&id=23&Itemid=30.

códecs necesarios para la reproducción de contenido mul-timedia WMV, WMA y MP3.

COMPLEMENTO DE EXPLORADOR

Esencialmente, Silverlight es un complemento de explora-dor que representa XAML, y expone su modelo de objetos del documento (DOM - Document Object Model) interno y el modelo de evento al explorador de manera traducible en secuencias de comandos. Así, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones y escalas de tiempo, y un desarrollador puede adjuntarlos al código de una página para implementar la funcionali-dad. Dado que XAML se basa en XML, el documento que define la interfaz del usuario que se descarga al cliente se basa en texto y, por lo tanto, no da problemas a mo-tores de búsqueda ni firewalls. Además, XAML puede en-samblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experien-cia gráfica enriquecida, sino también una muy personali-zable y dinámica.

Silverlight representa el paso siguiente en el desa-

rrollo del potencial de riqueza en utilización que los de-

sarrolladores y diseñadores de aplicaciones pueden pre-

sentar a sus clientes. Esto se consigue permitiendo a los diseñadores expresar su creatividad y guardar su trabajo en un formato que funcione directamente en la Web. En el pasado, los diseñadores creaban un sitio Web y ofrecían una utilización a los usuarios a través de herramientas que proporcionaban resultados variados, pero el desarro-llador tenía que solventar las restricciones de la platafor-ma Web y era capaz de ofrecer tales resultados.

UTILIZACIÓN

COMPLETA Y VARIADA

En el modelo de Silverlight, los diseñadores pueden ge-nerar el tipo de utilización que desean para el usuario, y expresarlo como XAML. De esta forma, se puede trabajar más estrechamente que antes, con el fin de proporcionar una utilización completa y variada al usuario.

Como XAML es XML; está basado en texto, lo cual pro-porciona una descripción de sus ricos contenidos, fácil de inspeccionar y totalmente compatible con los firewall. Aunque se pueden usar otras tecnologías —como subpro-gramas en Java, ActiveX y Flash— para implementar con-tenidos más ricos que DHTML, CSS y JavaScript, todas e-llas envían contenidos binarios al explorador. Esto resulta difícil de auditar, sin mencionar la dificultad de actuali-zación, ya que para cualquier cambio es necesario que la aplicación se vuelva a instalar, lo que no es tan fácil para el usuario y podría provocar estancamientos en las páginas. Cuando se usa Silverlight y es necesario realizar un cam-bio en el contenido enriquecido, se genera un nuevo ar-chivo XAML en el servidor. La próxima vez que el usuario vaya a la página, se descargará este XAML y se actualizará la experiencia sin ninguna reinstalación.

APLICACIONES DE SILVERLIGHT

En el núcleo de Silverlight está el módulo de mejora del explorador que genera XAML y ofrece los gráficos resul-tantes en la superficie del explorador. Se trata de una descarga pequeña (menos de 2 MB), que se puede instalar cuando el usuario se encuentra con un sitio con contenido de Silverlight o bien se puede descargar de su Web: http://www.microsoft.com/silverlight/

Para generar aplicaciones de Silverlight,tenemos las siguientes opciones:

Para desarrolladores:• Microsoft Visual Studio 2008• Microsoft ASP.NET

Para diseñadores:• Expression Encoder• Expression Design• Expression Blend 2

Sitio creado con Silverlight: http://www.tafiti.com/

40y33.indd 1 26/02/2008 17:09:48

CONOCIMIENTOTECNOLOGÍAS WEB32 CONOCIMIENTO TECNOLOGÍAS WEB 41

Antes Después

Existe la necesidad de una revisión tanto de los exámenes preoperatorios como de los postoperatorios para la determinación de la confiabilidad en los resultados.

Deben revisarse los exámenes pre y postoperatorios para determinar su nivel de confiabilidad.

Bienvenido al BuscaChef donde se maneja un concepto revolucionario para simplificar su tarea. Aquí no sólo podrá consultar todo tipo de recetas, sino que podrá hacerlo de varias formas. Si teclea un ingrediente, por ejemplo chocolate, traerá todas las recetas relacionadas con este producto, desde mole hasta pastel selva negra. Por otro lado, puede buscar una receta específica, como puede ser el mole. Por último, puede seleccionar un tipo de comida, como comida mexicana, y traerá todas las recetas que se tengan registradas.

El BuscaChef le ahorra tiempo encontrando recetasPor ingrediente traerá las recetas que contengan ese ingrediente, por ejemplo, chocolate Por platillo traerá las recetas de ese platillo, por ejemplo, molePor tipo de comida traerá las recetas relacionadas, por ejemplo, comida mexicana

Cuidado: no rechace esta oportunidad de renovar su membresía a menos que ya haya utilizado todos los beneficios que se ofrecen.

Por favor reconsidere su cancelación. Lo apreciamos como miembro, y esperamos que valore todos los beneficios que la membresía le ofrece. (Price, 2002)

Podrá subir al servidor, mediante un FTP, las imágenes que se seleccionen en la ventana del Explorador de Windows. Podrá agregar las imágenes que usted seleccione de su computadora.

No hay recaptura; ingrese en modo reescribir En este momento no puede modificar el dato; debe seleccionar el modo reescribir del menú

Antes Después

En la siguiente página podrá encontrar … En la página de seguridad del producto podrá encontrar…

Da clic aquí para ver los resultados El 63% de los alumnos recomendarían el curso y 23% sugieren mejoras, en base a nuestra encuesta de satisfacción.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

En conclusión, la junta directiva recomienda que estas mejoras se implementen hasta 2009.

Resumen | Propuesta | RecomendacionesMayor información con Alejandro Rivera

El manual de identidad especifica los lineamientos a seguir para las aplicaciones.

El manual de identidad especifica los lineamientos a seguir para las aplicaciones. (PDF de 4.3 MB, requiere Acrobat Reader 4.0 o más)

SIMPLIFICAR LOS TEXTOS

El lenguaje debe simplificarse lo más posible, eliminando adjetivos, juicios de valor, y ambigüedades. Hay que dar

un tono positivo al mensaje. Se recomienda dar información completa, en forma amigable y sin tecnicismos. Esto último es especialmente importante para los mensajes de error.

SIMPLIFICAR LAS LIGAS

Cuando agregamos ligas, debe especificarse qué contienen, para que el usuario decida si quiere acceder a ellas o no. Conviene incluir referencias a otras páginas del sitio, para facilitar la navegación del usuario. Cuando se trate de descar-gar un documento, conviene especificar tamaño y formato.

definir tareas específicas que el usuario podrá realizar.Cuando un usuario entra en un Sitio Web, espera rea-

lizar una tarea específica. Si alguien accede a diccionar-ios.com, estará buscando la traducción de un término o la clarificación una palabra. Accederán a gmail.com para enviar un mensaje a un amigo. En cinepolis.com estarán buscando qué películas se exhiben y los horarios de la sala de exhibición más cercana.

El hombre piensa de forma natural en objetos, por

lo que es algo que debiera resultar intuitivo. Al solicitar información de sillas en target.com, toda la información de la mesa debe aparecer en un mismo lugar, y dicha infor-mación debe estar completa. Sin embargo, existen sitios que muestran toda la información del catálogo de pro-ductos en una misma página. Tanta información satura al usuario.

Si pensamos en tareas, es mucho más fácil definir cómo se manejarán esos objetos y diseñar la información adecuada para la tarea. Por ejemplo, si en un sitio voy a comprar un producto, al momento de seleccionar el ca-rrito de compra debo esconder la información sobre el ca-tálogo. Aun cuando deje una liga para regresar al catálogo, en ese momento me enfocaré en presentar la información de envío y contestar las dudas que deba tener sobre esto. Al momento de haber seleccionado la opción de envío, debo eliminar esta información y ahora apoyarla con las opciones de pago.

Aún más importante es el seleccionar nombres re-presentativos. Si un sitio promueve estudios en el extran-jero, los visitantes esperarán encontrar una liga o botón a becas, y si el sitio utiliza el término ayudas financieras, probablemente haya usuarios que no lo encuentren.

“Ahora permítame explicarle el funcionamiento de nuestro servicio de banca en línea”, procedió la funcionaria de la sucursal bancaria en Nueva York, y continuó: “Al mes tiene usted derecho a sólo cinco cheques sin cargo por comisión, pero las transacciones en Internet son sin cargo alguno”.

Sin más trámite que un depósito inicial, la firma de

un solo contrato y una sesión de entrenamiento de diez

minutos, ya estaba yo en condiciones de utilizar los ser-

vicios de banca en línea de Citibank. Esto también expli-caba el porqué esa sucursal, situada en la esquina de No-vena Avenida y Calle 42, una de las zonas más populares de Nueva York, se encontraba prácticamente vacía a mitad del día de trabajo.

NO MÁS IDAS AL BANCO

Era el principio del año 2003. Desde entonces realizo to-das mis actividades bancarias con esa institución; pago servicios, como luz, teléfono, cable; transfiero dinero a México; pago impuestos y nunca, desde aquel entonces, he tenido que poner un pie en una sucursal de banco. Todo lo realizo por Internet. Si acaso, he tenido que hablar por

Para que Internet funcione…

La zanahoria por delante y el látigopor detrásAlejandro Camino

Alejandro Camino V. P. Marketing y Comunicación / Softtek

32y41.indd 1 26/02/2008 17:09:32

Page 44: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB42 CONOCIMIENTO TECNOLOGÍAS WEB 31

Existe la creencia errónea de que, al crear el con-tenido de un sitio web, bastará con copiar la in-formación contenida en folletos y documentos

institucionales. Esto se hace cuando se parte de dos premi-sas equivocadas: (a) el texto de un material impreso se pue-de presentar y leer de la misma forma en una pantalla y (b) la gente lee lo que es importante para la organización dueña del sitio.

Para el primer punto, ergonómicamente es mucho más cansado leer pixeles en una pantalla que texto en un papel. (CBASSE, 1983) Por ello, cuando el usuario está leyendo

un artículo largo que le resulta interesante, muchas ve-

ces lo imprimirá para continuar leyendo de un papel. Para la segunda premisa, la gente no lee lo que es impor-tante para la organización. Piense en los últimos tres sitios que haya visitado. ¿Leyó toda la información de la página? Por supuesto que no. Cada usuario lee únicamente lo que resulta importante para él. Por ello es tan relevante co-nocer qué buscan los usuarios que visitan el sitio.

DISEÑO DE INFORMACIÓN

Para tener un sitio amigable y funcional, debemos diseñar la información del mismo. De acuerdo con Nathan Shed-roff (2008), el diseño de información “es un campo y un enfoque que intenta diseñar comunicaciones claras e in-teligibles mediante el cuidado de la estructura, el contexto y la presentación de los datos y la información”. Deben cuidarse cuatro aspectos:

¿Qué? El tema central o propósito de la página debe ser

lo más claro posible.

¿Quién? Es básico reclamar la propiedad de una página.

¿Dónde? Nunca olvidar la naturaleza internacional del

medio?.¿Cuándo? Indicar la fecha de publicación. Las páginas

envejecen. Un ejemplo muy sencillo sería la publicación de una página que hable sobre índices de deforestación en bosques de coníferas. Lo primero que debe quedar claro es por qué se publica esta información. ¿Está diseñada para centros de investigación o para concienciar a niños de escuelas primarias sobre la importancia del tema? El lenguaje empleado y los resultados presentados variarán mucho con base en mi audiencia. En segundo lugar, ¿quién publica esta información? No tendrá la misma credibilidad si lo publica la SEMARNAT, Green Peace o una asociación regional de madereros. En tercer lugar, debe especificar dónde se genera esta información. ¿Se está hablando de los bosques de Querétaro, de México o del mundo? Por último, saber de cuándo son estas cifras. Si son de hace dos años, ya cambiaron.

REDACTAR COMO PROGRAMAR.

UIILICE OBJETOS

En la programación orientada a objetos, cada uno de ellos tiene su propia información, encapsulada. No se encuentra esparcida por todo el código. De la misma forma, la infor-mación en un sitio Web debe organizarse como objetos, y

Cómo redactar los textos para la WebMarta Sylvia del Río

Ingeniera Marta Sylvia del RíoDirectora de los Posgrados en Ingeniería y DiseñoUniversidad de [email protected]

teléfono unas tres o cuatro ocasiones para resolver algún problema, siempre de manera satisfactoria.

El 2 de abril de ese mismo año, el periódico Reforma publicaba los resultados de la décima encuesta anual sobre consumo cultural y medios de comunicación. En ella se se-ñalaba que el 61 por ciento de los usuarios encuestados

nunca realizaría una transacción bancaria en Internet.

A la distancia, hoy en día, la situación entre los usua-rios de servicios bancarios en México pareciera no ser muy diferente. En un estudio publicado por la Asociación Mexi-cana de Internet (AMIPCI) en 2006, acerca de Banca por Internet en el país, se revela que del total de usuarios de

la banca en México, sólo el 48 por ciento utiliza servicios

en línea, la mayoría sólo para consultar saldos; apenas el

51 por ciento para pagar servicios, y un porcentaje aún

menor lo usa para hacer transferencias. Llama la atención el hecho de que el mismo estudio

señala que, entre los usuarios bancarios con acceso a In-ternet, el 81 por ciento indican que un factor de decisión al seleccionar un banco es que éste cuente con un buen servicio en línea.

SERVICIOS EN LÍNEA EXPEDITOS

Por las funciones que desempeño, me veo en la necesi-dad de viajar frecuentemente. El tener acceso a servicios como expedia.com, travelocity.com y hotels.com, me fa-cilita enormemente el proceso de planeación de viajes. En cuestión de minutos puedo comparar horarios, precios y disponibilidad. Una vez tomada la decisión de adquirir un paquete, no me toma más de cinco minutos el completar la transacción con alguno de los servicios que menciono.

No fue así mi experiencia hace un par de años, cuando decidí comprar un boleto en despegar.com, sitio especia-lizado en servicios de viaje en América Latina. En un prin-cipio, la experiencia parecía ser similar: comparé horarios, precios y me decidí por un itinerario para un viaje México-Nueva York. Completar la transacción me requirió media docena de correos electrónicos, tres llamadas de larga dis-

tancia, dos faxes y 48 horas. Esto parecería que se limita a la manera de hacer negocios de esta empresa en par-ticular. Sin embargo, también soy usuario frecuente de los servicios de aeroméxico.com, donde no es una situación extraordinaria encontrarme que, una vez en el aeropuerto, en mostrador me digan que mi boleto comprado vía Inter-net no ha sido pagado. La razón es que el sistema de cargo a tarjeta de crédito de aeroméxico.com no opera en línea, por lo que es muy común que, estando ya en mostrador, el agente tenga que llamar a la central de Houston o la Ciu-dad de México para solicitar el cargo vía telefónica.

CRECIENTE LA BRECHA DIGITAL

Utilizo estos dos escenarios: el de mi experiencia como usuario de banca y servicios de viaje en línea, no para señalar las deficiencias de tal o cual empresa, sino para ejemplificar las carencias que, desde mi óptica, existen en la cultura de servicios en línea en América Latina en gene-ral, y en México en particular; y el cómo se sientan las bases para que la brecha digital con los países desarro-llados se siga incrementando.

De acuerdo a un estudio de 2006 (Arbitron), ocho de

cada diez estadounidenses tienen acceso a Internet, y el

52 por ciento de ellos han realizado compras en línea,

mientras que en México sólo el 25.6 por ciento de la po-

blación tiene acceso a Internet y, entre éstos, sólo el 14

por ciento realiza actividades de comercio electrónico, aun cuando más de la mitad considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua-rios de Internet, AMIPCI 2007).

42y31.indd 1 26/02/2008 17:09:15

CONOCIMIENTOTECNOLOGÍAS WEB30 CONOCIMIENTO TECNOLOGÍAS WEB 43

dinámica en la Web para cada consulta. Las listas de pa-labras clave están comparadas contra las listas de concep-tos de las páginas almacenadas para identificar cuáles pá-ginas manejan los mismos conceptos que la consulta.

Google también detecta si una palabra parece estar mal deletreada; si la palabra ocurre en los documentos almacenados con poca frecuencia, pero una variación cer-cana de la palabra ocurre mucho más, Google pregunta al usuario si realmente quería buscar por la variación en vez de la palabra que definió.

De nuevo, el motor de búsqueda incorpora el uso de sinónimos y ponderación de la importancia de las pa-labras de la consulta según su frecuencia en la colección de páginas. El orden de las palabras clave está interpreta-do como un orden de prioridad, y típicamente el usuario puede “forzar” la inclusión o exclusión de cierta palabra.

IMPORTANCIA DE LAS PÁGINAS

Para ordenar las páginas encontradas en el “almacén” según su importancia, Google hace matemáticas. Una pági-na se considera “importante”, si muchas otras páginas im-portantes tienen ligas a esa página. Ésta es una definición recursiva de importancia: la importancia está definida en términos de la importancia misma. Matemáticamente se maneja esa definición por crear una matriz que contiene la información de la existencia de ligas en una página A que apuntan a una página B para todos los posibles pares A y B. Esta matriz se convierte a otra matriz que contiene la probabilidad de que un “buscador aleatorio” vaya a una página B si actualmente está viendo una página A.

Esta matriz de probabilidades tiene una estructura es-pecial algebraica que permite interpretar una propiedad matemática suya, específicamente su eigenvector princi-pal, en forma de valores de importancia de las páginas. Es una matriz enorme, por lo cual no existe una computa-dora con suficiente memoria para calcular ese eigenvector, y aun si existiera, el tiempo de computación no sería nada razonable. Afortunadamente existen métodos aproxima-dos para rápidamente estimar el eigenvector y así obtener valores numéricos de importancia “estructural” para las páginas Web. La lista de documentos seleccionados por las palabras clave de la consulta del usuario está entonces

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

CONSEJOS PARA LOS USUARIOS

Tomando en cuenta la función de un motor de búsqueda, es posible ofrecer algunos consejos para asegurar que su página reciba la importancia que merece. Es esencial es-cribir texto claro y bien estructurado sobre los productos, servicios y otros temas relevantes de la empresa o insti-tución en cuestión. Las palabras utilizadas en los títulos

(las directivas <H1>, <H2> etcétera del lenguaje HTML)

pesan mucho en el análisis de la página por el motor de

búsqueda. Colocar texto únicamente en figuras e imágenes perjudica la visibilidad de la página en Google, porque ese texto pasará desapercibido por el análisis de contenido. Otro consejo, particularmente apto para optimizar la visi-bilidad en Google, se refiere a tratar de conseguir ligas que apunten a su página –la importancia de su página proviene de la importancia y la cantidad de las ligas que entran en esa página. Es importante colaborar con los clientes y proveedores, de tal manera que pongan ligas a los sitios de sus colaboradores. También la inclusión en diferentes tipos de directorios en línea puede ayudar a aumentar la importancia relativa de su página.

Para asegurarse de que un crawler visite su página, usted puede solicitarlo directamente a Google por la pá-gina http://www.google.com/addurl.html y ellos pro-gramarán una visita al sitio. Los crawlers visitan diferen-tes páginas con diferente frecuencia, buscando mantener las páginas más importantes mejor actualizadas en el almacén. Si su página tiene ligas entrantes desde alguna página que Google ya conoce, tarde o temprano un crawler encontrará su página por las ligas. También las visitas de los usuarios de la Web pueden informar a Google de la existencia de una página –muchos navegadores informan al buscador desde cuál página llegó el usuario a ver la pá-gina de Google. Los consejos para una persona que realiza búsquedas en la Web también se basan en función de los motores de búsqueda, como: poner las palabras clave más importantes primero en la consulta, pues esto ayuda a en-contrar las páginas más relevantes; utilizar palabras más específicas, lo que puede ayudar a limitar los resultados, si son demasiados. Palabras más generales suelen am-

pliar la gama de los resultados si originalmente fueron

escasos. Es recomendable evitar palabras que tienen

doble significado o que son altamente comunes.

La búsqueda de información, productos y servicios en línea es una parte importante de la vida diaria de una po-blación creciente. Encontrar y ser encontrado tienen un impacto socio-económico más allá de lo que podíamos haber esperado en los primeros años de la WWW.

Para más información:Una guía de uso de Google (en inglés) está disponible enhttp://www.googleguide.com/

Un artículo científico The Anatomy of a Large-Scale Hypertextual Web Search Engine sobre la arquitectura de Google, por los fundadores de la empresa, Sergey Brin y Lawrence Page, está disponible en línea, igual que varios otros artículos sobre el tema.

Para buscar publicaciones académicas, es mejor hacerlo en http://

scholar.google.com/ que, en vez de juzgar la importancia por ligas, orde-na resultados considerando referencias bibliográficas entre textos cientí-ficos, como una medida de importancia.

Entonces, ¿cuáles son las razones por las que México no avanza más rápidamente en la adopción de Internet? Entre las respuestas más socorridas, están dos: la falta de conectividad y la falta de confianza del usuario hacia los servicios de comercio y banca electrónica por razones de seguridad.

Con respecto a la primera: conectividad, aún hay mucho camino por recorrer, pues la penetración de Inter-net en zonas urbanas es de apenas el 36 por ciento, de modo que hay mucho por conquistar en zonas que cuen-tan con una robusta infraestructura de fibra óptica y tec-nologías inalámbricas. Más bien son otras las razones que frenan la penetración.

Ahora bien, la segunda razón, la de la confianza, es

quizá el problema más importante por atacar, ya que,

al resolverlo, se podría detonar la demanda de manera

importante. La llave para que esto suceda está del lado de las grandes corporaciones en México, los bancos, las em-presas de comercio detallista, las empresas de servicios y los medios de comunicación.

TRANSACCIONES MÁS ECONÓMICAS

Retomando el ejemplo de Banco por Internet, está com-probado que los costos de transacción son mucho más económicos por el canal de Internet que por canales tradi-cionales como una sucursal o vía telefónica. Por ejemplo, de acuerdo a un estudio publicado por Giga Information Group en 2005, resolver una consulta a través de una se-sión interactiva de Internet (vía chat) cuesta al banco la mitad que el hacerlo por teléfono. Más aún, si se atiende

mediante un sistema de autoservicio, el costo se reduce hasta un 20 por ciento. Sin embargo, la realidad es que muchas de las aclaraciones en México se tienen que re-solver en sucursal, con un costo para el banco mucho más alto aún que el teléfono.

Ahora bien, quizá el razonamiento del banco para no

invertir en robustecer su canal de Internet tiene que ver

con que sólo alcanzaría a un 12 ó 13 por ciento de la

población (si consideramos que menos de la mitad de los usuarios de Internet en México realizan transacciones ban-carias), por lo que la institución podría preferir focalizarse al grueso de sus clientes.

¿Cómo romper ese círculo vicioso? Alguien tiene que dar el primer paso, orientado a generar confianza entre los usuarios potenciales. Las corporaciones tienen mucho por ganar al adoptar mejores prácticas e integrar mejor su canal de Internet, al tiempo que cuidan más a los clientes que adoptan este medio. Entre los beneficios se cuentan: reducción de costos, incremento en la satisfacción del cliente, y reducción en el tiempo de introducción de pro-ductos en el mercado. Al hacerlo, además, contribuirían a una adopción más rápida de tecnologías de información en México y a cerrar la brecha digital.

¿Cómo hacerlo? Estableciendo los incentivos adecua-dos, como lo hizo mi ejecutivo de cuenta en la historia que compartí al principio; quien me hizo ver claramente por un lado que el no usar la tecnología me costaría más que sí hacerlo y, por otro lado, me capacitó adecuadamente. La zanahoria por delante y el látigo por detrás.

30y43.indd 1 26/02/2008 17:08:55

Page 45: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB42 CONOCIMIENTO TECNOLOGÍAS WEB 31

Existe la creencia errónea de que, al crear el con-tenido de un sitio web, bastará con copiar la in-formación contenida en folletos y documentos

institucionales. Esto se hace cuando se parte de dos premi-sas equivocadas: (a) el texto de un material impreso se pue-de presentar y leer de la misma forma en una pantalla y (b) la gente lee lo que es importante para la organización dueña del sitio.

Para el primer punto, ergonómicamente es mucho más cansado leer pixeles en una pantalla que texto en un papel. (CBASSE, 1983) Por ello, cuando el usuario está leyendo

un artículo largo que le resulta interesante, muchas ve-

ces lo imprimirá para continuar leyendo de un papel. Para la segunda premisa, la gente no lee lo que es impor-tante para la organización. Piense en los últimos tres sitios que haya visitado. ¿Leyó toda la información de la página? Por supuesto que no. Cada usuario lee únicamente lo que resulta importante para él. Por ello es tan relevante co-nocer qué buscan los usuarios que visitan el sitio.

DISEÑO DE INFORMACIÓN

Para tener un sitio amigable y funcional, debemos diseñar la información del mismo. De acuerdo con Nathan Shed-roff (2008), el diseño de información “es un campo y un enfoque que intenta diseñar comunicaciones claras e in-teligibles mediante el cuidado de la estructura, el contexto y la presentación de los datos y la información”. Deben cuidarse cuatro aspectos:

¿Qué? El tema central o propósito de la página debe ser

lo más claro posible.

¿Quién? Es básico reclamar la propiedad de una página.

¿Dónde? Nunca olvidar la naturaleza internacional del

medio?.¿Cuándo? Indicar la fecha de publicación. Las páginas

envejecen. Un ejemplo muy sencillo sería la publicación de una página que hable sobre índices de deforestación en bosques de coníferas. Lo primero que debe quedar claro es por qué se publica esta información. ¿Está diseñada para centros de investigación o para concienciar a niños de escuelas primarias sobre la importancia del tema? El lenguaje empleado y los resultados presentados variarán mucho con base en mi audiencia. En segundo lugar, ¿quién publica esta información? No tendrá la misma credibilidad si lo publica la SEMARNAT, Green Peace o una asociación regional de madereros. En tercer lugar, debe especificar dónde se genera esta información. ¿Se está hablando de los bosques de Querétaro, de México o del mundo? Por último, saber de cuándo son estas cifras. Si son de hace dos años, ya cambiaron.

REDACTAR COMO PROGRAMAR.

UIILICE OBJETOS

En la programación orientada a objetos, cada uno de ellos tiene su propia información, encapsulada. No se encuentra esparcida por todo el código. De la misma forma, la infor-mación en un sitio Web debe organizarse como objetos, y

Cómo redactar los textos para la WebMarta Sylvia del Río

Ingeniera Marta Sylvia del RíoDirectora de los Posgrados en Ingeniería y DiseñoUniversidad de [email protected]

teléfono unas tres o cuatro ocasiones para resolver algún problema, siempre de manera satisfactoria.

El 2 de abril de ese mismo año, el periódico Reforma publicaba los resultados de la décima encuesta anual sobre consumo cultural y medios de comunicación. En ella se se-ñalaba que el 61 por ciento de los usuarios encuestados

nunca realizaría una transacción bancaria en Internet.

A la distancia, hoy en día, la situación entre los usua-rios de servicios bancarios en México pareciera no ser muy diferente. En un estudio publicado por la Asociación Mexi-cana de Internet (AMIPCI) en 2006, acerca de Banca por Internet en el país, se revela que del total de usuarios de

la banca en México, sólo el 48 por ciento utiliza servicios

en línea, la mayoría sólo para consultar saldos; apenas el

51 por ciento para pagar servicios, y un porcentaje aún

menor lo usa para hacer transferencias. Llama la atención el hecho de que el mismo estudio

señala que, entre los usuarios bancarios con acceso a In-ternet, el 81 por ciento indican que un factor de decisión al seleccionar un banco es que éste cuente con un buen servicio en línea.

SERVICIOS EN LÍNEA EXPEDITOS

Por las funciones que desempeño, me veo en la necesi-dad de viajar frecuentemente. El tener acceso a servicios como expedia.com, travelocity.com y hotels.com, me fa-cilita enormemente el proceso de planeación de viajes. En cuestión de minutos puedo comparar horarios, precios y disponibilidad. Una vez tomada la decisión de adquirir un paquete, no me toma más de cinco minutos el completar la transacción con alguno de los servicios que menciono.

No fue así mi experiencia hace un par de años, cuando decidí comprar un boleto en despegar.com, sitio especia-lizado en servicios de viaje en América Latina. En un prin-cipio, la experiencia parecía ser similar: comparé horarios, precios y me decidí por un itinerario para un viaje México-Nueva York. Completar la transacción me requirió media docena de correos electrónicos, tres llamadas de larga dis-

tancia, dos faxes y 48 horas. Esto parecería que se limita a la manera de hacer negocios de esta empresa en par-ticular. Sin embargo, también soy usuario frecuente de los servicios de aeroméxico.com, donde no es una situación extraordinaria encontrarme que, una vez en el aeropuerto, en mostrador me digan que mi boleto comprado vía Inter-net no ha sido pagado. La razón es que el sistema de cargo a tarjeta de crédito de aeroméxico.com no opera en línea, por lo que es muy común que, estando ya en mostrador, el agente tenga que llamar a la central de Houston o la Ciu-dad de México para solicitar el cargo vía telefónica.

CRECIENTE LA BRECHA DIGITAL

Utilizo estos dos escenarios: el de mi experiencia como usuario de banca y servicios de viaje en línea, no para señalar las deficiencias de tal o cual empresa, sino para ejemplificar las carencias que, desde mi óptica, existen en la cultura de servicios en línea en América Latina en gene-ral, y en México en particular; y el cómo se sientan las bases para que la brecha digital con los países desarro-llados se siga incrementando.

De acuerdo a un estudio de 2006 (Arbitron), ocho de

cada diez estadounidenses tienen acceso a Internet, y el

52 por ciento de ellos han realizado compras en línea,

mientras que en México sólo el 25.6 por ciento de la po-

blación tiene acceso a Internet y, entre éstos, sólo el 14

por ciento realiza actividades de comercio electrónico, aun cuando más de la mitad considera a Internet como “Indispensable” para su vida moderna (Hábitos de usua-rios de Internet, AMIPCI 2007).

42y31.indd 1 26/02/2008 17:09:15

CONOCIMIENTOTECNOLOGÍAS WEB30 CONOCIMIENTO TECNOLOGÍAS WEB 43

dinámica en la Web para cada consulta. Las listas de pa-labras clave están comparadas contra las listas de concep-tos de las páginas almacenadas para identificar cuáles pá-ginas manejan los mismos conceptos que la consulta.

Google también detecta si una palabra parece estar mal deletreada; si la palabra ocurre en los documentos almacenados con poca frecuencia, pero una variación cer-cana de la palabra ocurre mucho más, Google pregunta al usuario si realmente quería buscar por la variación en vez de la palabra que definió.

De nuevo, el motor de búsqueda incorpora el uso de sinónimos y ponderación de la importancia de las pa-labras de la consulta según su frecuencia en la colección de páginas. El orden de las palabras clave está interpreta-do como un orden de prioridad, y típicamente el usuario puede “forzar” la inclusión o exclusión de cierta palabra.

IMPORTANCIA DE LAS PÁGINAS

Para ordenar las páginas encontradas en el “almacén” según su importancia, Google hace matemáticas. Una pági-na se considera “importante”, si muchas otras páginas im-portantes tienen ligas a esa página. Ésta es una definición recursiva de importancia: la importancia está definida en términos de la importancia misma. Matemáticamente se maneja esa definición por crear una matriz que contiene la información de la existencia de ligas en una página A que apuntan a una página B para todos los posibles pares A y B. Esta matriz se convierte a otra matriz que contiene la probabilidad de que un “buscador aleatorio” vaya a una página B si actualmente está viendo una página A.

Esta matriz de probabilidades tiene una estructura es-pecial algebraica que permite interpretar una propiedad matemática suya, específicamente su eigenvector princi-pal, en forma de valores de importancia de las páginas. Es una matriz enorme, por lo cual no existe una computa-dora con suficiente memoria para calcular ese eigenvector, y aun si existiera, el tiempo de computación no sería nada razonable. Afortunadamente existen métodos aproxima-dos para rápidamente estimar el eigenvector y así obtener valores numéricos de importancia “estructural” para las páginas Web. La lista de documentos seleccionados por las palabras clave de la consulta del usuario está entonces

ordenada según estos valores numéricos de importancia, comenzando con la página más importante seleccionada.

CONSEJOS PARA LOS USUARIOS

Tomando en cuenta la función de un motor de búsqueda, es posible ofrecer algunos consejos para asegurar que su página reciba la importancia que merece. Es esencial es-cribir texto claro y bien estructurado sobre los productos, servicios y otros temas relevantes de la empresa o insti-tución en cuestión. Las palabras utilizadas en los títulos

(las directivas <H1>, <H2> etcétera del lenguaje HTML)

pesan mucho en el análisis de la página por el motor de

búsqueda. Colocar texto únicamente en figuras e imágenes perjudica la visibilidad de la página en Google, porque ese texto pasará desapercibido por el análisis de contenido. Otro consejo, particularmente apto para optimizar la visi-bilidad en Google, se refiere a tratar de conseguir ligas que apunten a su página –la importancia de su página proviene de la importancia y la cantidad de las ligas que entran en esa página. Es importante colaborar con los clientes y proveedores, de tal manera que pongan ligas a los sitios de sus colaboradores. También la inclusión en diferentes tipos de directorios en línea puede ayudar a aumentar la importancia relativa de su página.

Para asegurarse de que un crawler visite su página, usted puede solicitarlo directamente a Google por la pá-gina http://www.google.com/addurl.html y ellos pro-gramarán una visita al sitio. Los crawlers visitan diferen-tes páginas con diferente frecuencia, buscando mantener las páginas más importantes mejor actualizadas en el almacén. Si su página tiene ligas entrantes desde alguna página que Google ya conoce, tarde o temprano un crawler encontrará su página por las ligas. También las visitas de los usuarios de la Web pueden informar a Google de la existencia de una página –muchos navegadores informan al buscador desde cuál página llegó el usuario a ver la pá-gina de Google. Los consejos para una persona que realiza búsquedas en la Web también se basan en función de los motores de búsqueda, como: poner las palabras clave más importantes primero en la consulta, pues esto ayuda a en-contrar las páginas más relevantes; utilizar palabras más específicas, lo que puede ayudar a limitar los resultados, si son demasiados. Palabras más generales suelen am-

pliar la gama de los resultados si originalmente fueron

escasos. Es recomendable evitar palabras que tienen

doble significado o que son altamente comunes.

La búsqueda de información, productos y servicios en línea es una parte importante de la vida diaria de una po-blación creciente. Encontrar y ser encontrado tienen un impacto socio-económico más allá de lo que podíamos haber esperado en los primeros años de la WWW.

Para más información:Una guía de uso de Google (en inglés) está disponible enhttp://www.googleguide.com/

Un artículo científico The Anatomy of a Large-Scale Hypertextual Web Search Engine sobre la arquitectura de Google, por los fundadores de la empresa, Sergey Brin y Lawrence Page, está disponible en línea, igual que varios otros artículos sobre el tema.

Para buscar publicaciones académicas, es mejor hacerlo en http://

scholar.google.com/ que, en vez de juzgar la importancia por ligas, orde-na resultados considerando referencias bibliográficas entre textos cientí-ficos, como una medida de importancia.

Entonces, ¿cuáles son las razones por las que México no avanza más rápidamente en la adopción de Internet? Entre las respuestas más socorridas, están dos: la falta de conectividad y la falta de confianza del usuario hacia los servicios de comercio y banca electrónica por razones de seguridad.

Con respecto a la primera: conectividad, aún hay mucho camino por recorrer, pues la penetración de Inter-net en zonas urbanas es de apenas el 36 por ciento, de modo que hay mucho por conquistar en zonas que cuen-tan con una robusta infraestructura de fibra óptica y tec-nologías inalámbricas. Más bien son otras las razones que frenan la penetración.

Ahora bien, la segunda razón, la de la confianza, es

quizá el problema más importante por atacar, ya que,

al resolverlo, se podría detonar la demanda de manera

importante. La llave para que esto suceda está del lado de las grandes corporaciones en México, los bancos, las em-presas de comercio detallista, las empresas de servicios y los medios de comunicación.

TRANSACCIONES MÁS ECONÓMICAS

Retomando el ejemplo de Banco por Internet, está com-probado que los costos de transacción son mucho más económicos por el canal de Internet que por canales tradi-cionales como una sucursal o vía telefónica. Por ejemplo, de acuerdo a un estudio publicado por Giga Information Group en 2005, resolver una consulta a través de una se-sión interactiva de Internet (vía chat) cuesta al banco la mitad que el hacerlo por teléfono. Más aún, si se atiende

mediante un sistema de autoservicio, el costo se reduce hasta un 20 por ciento. Sin embargo, la realidad es que muchas de las aclaraciones en México se tienen que re-solver en sucursal, con un costo para el banco mucho más alto aún que el teléfono.

Ahora bien, quizá el razonamiento del banco para no

invertir en robustecer su canal de Internet tiene que ver

con que sólo alcanzaría a un 12 ó 13 por ciento de la

población (si consideramos que menos de la mitad de los usuarios de Internet en México realizan transacciones ban-carias), por lo que la institución podría preferir focalizarse al grueso de sus clientes.

¿Cómo romper ese círculo vicioso? Alguien tiene que dar el primer paso, orientado a generar confianza entre los usuarios potenciales. Las corporaciones tienen mucho por ganar al adoptar mejores prácticas e integrar mejor su canal de Internet, al tiempo que cuidan más a los clientes que adoptan este medio. Entre los beneficios se cuentan: reducción de costos, incremento en la satisfacción del cliente, y reducción en el tiempo de introducción de pro-ductos en el mercado. Al hacerlo, además, contribuirían a una adopción más rápida de tecnologías de información en México y a cerrar la brecha digital.

¿Cómo hacerlo? Estableciendo los incentivos adecua-dos, como lo hizo mi ejecutivo de cuenta en la historia que compartí al principio; quien me hizo ver claramente por un lado que el no usar la tecnología me costaría más que sí hacerlo y, por otro lado, me capacitó adecuadamente. La zanahoria por delante y el látigo por detrás.

30y43.indd 1 26/02/2008 17:08:55

Page 46: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB44 CONOCIMIENTO TECNOLOGÍAS WEB 29

Google sabe todo. Si necesita un restaurante de comida italiana, el nombre de un libro que quie-re comprar, la hora de la función de cine, el hombre

moderno le pregunta a Google, el motor de búsqueda más popular del mundo. Prácticamente cada navegador de pá-

ginas web incorpora una barra de búsquedas para con-

sultar con Google sobre cualquier tema. Lo que interesa a cualquier proveedor o comerciante es cómo lograr que la página Web de su negocio salga primero en la lista de resultados que muestra el buscador.

Para asegurar un buen lugar en esta lista de resulta-dos, uno necesita saber cómo funcionan Google y sus com-petidores: cómo coleccionan los datos de los cuales eligen los resultados, en cada consulta, los millones de usuarios; cómo seleccionan las páginas para ofrecer al usuario y cómo ordenan esas páginas seleccionadas. En este artículo nos enfocamos más en Google, pero varios de estos aspec-tos se aplican también a otros buscadores de la Web.

NAVEGADO

RES AUTOMÁTICOS

La recolección de datos se basa en “navegadores au-

tomáticos” que recorren las páginas web. Esos navega-

dores automáticos se llaman crawler en inglés, un sus-tantivo que proviene del verbo crawl, lo que se podría traducir como “arrastrarse”. Un crawler comienza su recorrido desde una cierta página asignada y sigue las li-gas de esta página para llegar a más páginas. Una liga, también conocida como un enlace, es simplemente un tex-to anotado con la dirección de otra página para ofrecer al usuario la posibilidad de ver otra página aparte de la que actualmente está leyendo.

Las páginas visitadas, con toda su información, están guardadas en las computadoras de Google, y las ligas en-tre ellas están analizadas. Múltiples crawlers recorren la WWW simultáneamente, recopilando así una “imagen” de la estructura y el contenido de ella en un momento dado.

El procesamiento hecho a las páginas obtenidas en esta forma es complejo, y sus detalles cambian de un mo-tor de búsquedas a otro. Sin embargo, el proceso general tiene dos componentes principales e importantes de co-nocer: las palabras que aparecen en una página están pro-cesadas según su frecuencia y posición en el texto. Las pa-labras utilizadas en títulos se consideran más importantes que las palabras incorporadas en el texto y una palabra que se usa mucho es considerada la más representativa del documento que una que se usa unas pocas veces. En este proceso se toma en cuenta la frecuencia global de

las palabras en todas las páginas procesadas: si alguna palabra (como por ejemplo las preposiciones y otras pa-labras pequeñas) se usa mucho en todos los documentos, su presencia no se considera relevante para determinar el tema de la página. El procesamiento también cuenta con un diccionario de sinónimos para identificar conceptos en vez de limitarse a nivel de palabras.

IMPORTANCIA DE LAS PALABRAS

La selección entre todas las páginas guardadas en las

computadoras está basada en la consulta hecha por el

usuario; o sea, las palabras clave que utilizó el usuario

al lanzar la búsqueda. Es importante reconocer que la búsqueda está realizada en las copias almacenadas en las computadoras de Google, en vez de buscar de forma

Google, el motor más popular del mundo

El alma de un buscador de páginas WebElisa Schaeffer

Doctora Elisa SchaefferProfesor-InvestigadorFacultad de Ingeniería Mecánica y Eléctrica / UANLCandidata al Sistema Nacional de Investigadores

Dado el enorme tamaño del Internet, sería imposible encontrar páginas relevantes sin los “buscadores” de Internet, que se han vuelto artículo de primera

necesidad en el uso de la computadora. Sin embargo, los buscadores, basados todos en el uso de palabras clave, no manejan adecuadamente aspectos finos, tales como la exis-tencia de sinónimos, ni son capaces de entender de lo que se tratan las páginas web, por lo que los resultados reci-bidos por los usuarios incluyen mucha “basura”. En este artículo revisamos formas de superar estas deficiencias.

INTRODUCCIÓN

Internet es reconocido como una de las grandes revolu-ciones tecnológicas de nuestro tiempo; desde su origen en marzo de 1989, el Internet, o “web” en inglés, o WWW por “World Wide Web”, ha crecido exponencialmente, al-canzando algo así como 109 millones de sitios web1 [1] con al menos 20 miles de millones de páginas indexadas por los principales “buscadores” de Internet.

Dada esta enorme cantidad de documentos en Inter-net, no sería posible que los usuarios “conocieran” poco a poco o encontraran, así fuera tras horas de navegación en web, las páginas relevantes para lo que les interesa, si no fuera por la existencia de esas maravillas conocidas

como “buscadores” de Internet. Con el liderazgo pro-nunciado de Google, compañía creada por estudiantes de Stanford, dirigidos en un tiempo por el investigador de origen mexicano Héctor García Molina, la tecnología de los buscadores de Internet se ha consolidado. Otros buscado-res, como Yahoo, Microsoft Live, así como otras compa-ñías, tratan de alcanzar al líder Google, pero en general sin proponer tecnologías radicalmente distintas.

Hay que subrayar la excelencia tecnológica de los ac-tuales buscadores de Internet, que a pesar del crecimien-to explosivo de la cantidad de páginas existentes, llevan muchos años sin incrementar el tiempo en que realizan una búsqueda.

Más allá de los buscadores en InternetRamón Brena

Doctor Ramón BrenaProfesor Titular

Centro de Sistemas Inteligentes,

Tecnológico de Monterrey

Director de la Cátedra de Investigación en

Conocimiento Distribuido y Agentes

Inteligentesramon.brena@itesm.

mx

44y29.indd 1 26/02/2008 17:08:41

CONOCIMIENTOTECNOLOGÍAS WEB28 CONOCIMIENTO TECNOLOGÍAS WEB 45

MAMBO Y JOOMLA

Joomla surge como el resultado de una bifurcación o me-jora de Mambo, de la corporación Miro de Australia, que mantenía la marca del nombre Mambo en esa época y el grupo principal de desarrolladores. Joomla nace con esta división el 17 de agosto de 2005. La corporación Miro for-mó una organización sin ánimo de lucro, con el propósito inicial de fundar el proyecto y protegerlo de pleitos. El grupo de desarrollo reclamó que muchas de las cláusulas de la estructura de la fundación fueron acuerdos previos hechos por el comité directivo de Mambo, el que no tiene la consultoría necesaria de quienes mantienen el proyecto e incluye cláusulas que violan los valores principales del código abierto. El grupo de desarrollo creo un sitio Web

que se llamó OpenSourceMatters para distribuir infor-

mación a los usuarios, desarrolladores, diseñadores Web

y a la comunidad en general. En ese momento, el líder Andrew Eddie, conocido como “MasterChief”, escribió una carta abierta para la comunidad, que apareció en la se-cción de anuncios del foro público en mamboserver.com. Al siguiente día, miles de personas ingresaron al Sitio Web opensourcematters.org para expresar su apoyo y estímulo por las acciones ejecutadas por el grupo de desarrollo. El sitio Web recibió un aviso de temporalmente fuera de ser-vicio debido al excesivo tráfico. Este evento apareció en newsforge.com, eweek.com, y ZDnet.com.

PROYECTO FRAY SERVANDO

En el CECYTE,NL contamos con servidores que co-rren bajo Linux en su distribución Fedora y Ubuntu, en los cuales se monitorea y administra el proyecto educativo denominado Fray Servando, compuesto por una plataforma educativa, correo electrónico, bases de datos y enlaces dedicados hacia nuestros plan-

teles, los cuales permiten la realización de videoconferencias en tiempo real, con-ferencias magistrales y capacitación de docentes y alumnos.

Un ejemplo aplicado al código abierto es la página http://www.conocimientoen-linea.com, la cual está desarrollada con herramientas como Joomla y hospedada en servidores que utilizan Linux en su distribución Fedora.

En conclusión, creemos que los pro-

gramas open source desempeñan un im-

portantísimo papel en la Web. Gracias a

esto, muchas personas pueden publicar

sus páginas de una manera amigable

e interactiva y muy sencilla, ya que si hay algún problema para instalar un programa, ya sea Joomla o publicar un servidor con Apache, hay toda una comu-nidad presta para ayudar con cualquier problema que se pueda presentar, ya sea en blog o foros.

Precisamente, este artículo fue escrito en Open Office, corriendo sobre ubuntu 7.10.

Otra de las ventajas es que la comunidad de código libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera ordenada todos los artícu-los.

La WWW se ha vuelto parte integral de la vida de mil-

lones de personas, y no solamente en los países más

desarrollados, sino también en América Latina, donde la acción de hacer una búsqueda en Google es costumbre co-tidiana en el trabajo o en las ocupaciones personales. Tan acostumbrados estamos, que no nos damos cuenta de las limitaciones de dichas búsquedas.

Por ejemplo, si recurrimos a Web “bass” para buscar bajos eléctricos, en la página de resultados de Google vie-nen páginas sobre pesca, sobre zapatos, sobre cerveza, y sobre bajos. El problema aquí es que “bass” quiere decir muchas cosas, y Google no entiende a qué nos estamos refiriendo. Hasta se nos hace “natural” que Google no en-tienda, y nos contentamos con espulgar los resultados a-rrojados por Google hasta finalmente (a veces tras varias modificaciones a las consultas) llegar a un resultado que nos sirva.

Pero, ¿podría un buscador “entender” lo que le esta-mos preguntando?

MÁS ALLÁ DE LOS BUSCADORES ACTUALES

Las páginas Web son codificadas utilizando un lenguaje especial llamado “HTML” (HyperText Markup Language, [2]), que tiene comandos llamados “tags” para indicar la forma en que la información debe presentarse al usuario que la consulta.

El web semántico.- El problema de fondo con las pági-nas de Internet actuales es que su lenguaje, el HTML, está hecho para presentar información a un usuario humano, no para explicar a otro programa computacional de qué está hablando. Cuando el Internet fue inventado, la necesi-dad de que una máquina comprendiera la información de una página no era vista como algo importante, tal vez ni siquiera como algo posible.

Sin embargo, las cosas han cambiado en los últimos años. Por primera vez en la historia de la humanidad, la

información ha pasado de ser escasa a ser abundante, y

esta abundancia se ha convertido en un problema, pues

la información inunda a los usuarios en la forma de bu-

zones de correo electrónico, llenos de multitud de pági-

nas Web generalmente irrelevantes, etcétera.

Ahora bien, ¿cómo sería posible que un documento fuera comprensible para un programa computacional?

En primer lugar, existe la posibilidad de mejorar la forma en que los documentos describen su información. El mismo inventor del WWW (Sir Tim Berners-Lee) propuso hacer documentos web “autodescribibles”, que tuvieran su información codificada de forma tal que pudieran ser comprensibles para programas computacionales, y a esto se le llamó “Web semántico” [4]. En palabras del mismo Sir Tim Berners-Lee:

Tengo un sueño para el web, en el cual las computado-ras se vuelven capaces de analizar todos los datos en el web –el contenido, las ligas y las transacciones entre personas y computadoras. Un web semántico, que haría esto posible, aún está por surgir, pero cuando lo haga, los mecanismos para el intercambio día a día, la burocracia, y nuestras vidas diarias serán manejadas por máquinas hablando a máquinas.

Desde luego, a muchos lectores les erizará la piel la frase “nuestras vidas diarias serán manejadas por máqui-nas hablando a máquinas”, pero no vamos a discutir este aspecto aquí.

TECNOLOGÍAS ‘HABILITADORAS’

Para alcanzar estos sueños, se ha desarrollado una serie de tecnologías llamadas “habilitadoras”, tales, como XML, RDF, OWL y otras. XML [5] es un lenguaje parecido al HTML del web actual, pero extensible, para poder añadir “tags” especiales de acuerdo con la aplicación. Otras tecnologías de apoyo a XML son XML Schema, DTD, XML Namespaces, XSL/XSLT, CSS, XLink, XQuery, y muchas otras, en tal can-tidad que se hace difícil estar al corriente de todas ellas.

Han sido propuestos conjuntos de etiquetas específi-camente para representar información del Web semántico, y el conjunto más importante es el estándar RDF (Resource Description Framework [6]). Creado en 1999 por la asocia-ción global W3C, RDF permite definir propiedades de re-cursos en Web, afirmaciones sobre estas propiedades, así como clases de objetos, con subclases e incluso herencia de propiedades a las subclases.

Las declaraciones de RDF tienen la forma de tripletas

formadas por un recurso, una propiedad, y el valor de

dicha propiedad. Por ejemplo, para decir que el cielo es azul, hacemos una declaración en que el recurso es el cie-lo, la propiedad es el color, y el valor es el azul. Es fácil ver que esta estructura corresponde a la triada sujeto – verbo – complemento del idioma español (y del inglés y muchas otras lenguas); por esto la expresión de afirmaciones en RDF es muy natural. Actualmente ya existen una serie de aplicaciones de RDF en sistemas computacionales, tales como FOAF, SIOC, MusicBrainz y otros. Sin embargo, tal

Timothy John Berners-LeeTimothy “Tim” John Berners-Lee, OM,

KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Física en 1976 en el Queen’s College de la Universidad de Oxford. Es considerado como el padre de la Web. Básicamente, Tim, ante la necesidad de distribuir e intercam-biar información acerca de sus investigacio-nes de una manera más efectiva, desarrolló las ideas que forman parte de la Web. Tim y su grupo desarrollaron lo que por sus siglas en inglés se denominan: Lenguaje

HTML (HyperText Markup Language) o lenguaje de etíquetas de hipertex-to; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de local-ización de objetos en la web URL (Universal Resource Locator). Muchas de las ideas plasmadas por Berners-Lee podemos encontrarlas en el proyecto Xanadu que propuso Ted Nelson y el memex de Vannevar Bush.

28y45.indd 1 26/02/2008 17:08:23

Page 47: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB44 CONOCIMIENTO TECNOLOGÍAS WEB 29

Google sabe todo. Si necesita un restaurante de comida italiana, el nombre de un libro que quie-re comprar, la hora de la función de cine, el hombre

moderno le pregunta a Google, el motor de búsqueda más popular del mundo. Prácticamente cada navegador de pá-

ginas web incorpora una barra de búsquedas para con-

sultar con Google sobre cualquier tema. Lo que interesa a cualquier proveedor o comerciante es cómo lograr que la página Web de su negocio salga primero en la lista de resultados que muestra el buscador.

Para asegurar un buen lugar en esta lista de resulta-dos, uno necesita saber cómo funcionan Google y sus com-petidores: cómo coleccionan los datos de los cuales eligen los resultados, en cada consulta, los millones de usuarios; cómo seleccionan las páginas para ofrecer al usuario y cómo ordenan esas páginas seleccionadas. En este artículo nos enfocamos más en Google, pero varios de estos aspec-tos se aplican también a otros buscadores de la Web.

NAVEGADO

RES AUTOMÁTICOS

La recolección de datos se basa en “navegadores au-

tomáticos” que recorren las páginas web. Esos navega-

dores automáticos se llaman crawler en inglés, un sus-tantivo que proviene del verbo crawl, lo que se podría traducir como “arrastrarse”. Un crawler comienza su recorrido desde una cierta página asignada y sigue las li-gas de esta página para llegar a más páginas. Una liga, también conocida como un enlace, es simplemente un tex-to anotado con la dirección de otra página para ofrecer al usuario la posibilidad de ver otra página aparte de la que actualmente está leyendo.

Las páginas visitadas, con toda su información, están guardadas en las computadoras de Google, y las ligas en-tre ellas están analizadas. Múltiples crawlers recorren la WWW simultáneamente, recopilando así una “imagen” de la estructura y el contenido de ella en un momento dado.

El procesamiento hecho a las páginas obtenidas en esta forma es complejo, y sus detalles cambian de un mo-tor de búsquedas a otro. Sin embargo, el proceso general tiene dos componentes principales e importantes de co-nocer: las palabras que aparecen en una página están pro-cesadas según su frecuencia y posición en el texto. Las pa-labras utilizadas en títulos se consideran más importantes que las palabras incorporadas en el texto y una palabra que se usa mucho es considerada la más representativa del documento que una que se usa unas pocas veces. En este proceso se toma en cuenta la frecuencia global de

las palabras en todas las páginas procesadas: si alguna palabra (como por ejemplo las preposiciones y otras pa-labras pequeñas) se usa mucho en todos los documentos, su presencia no se considera relevante para determinar el tema de la página. El procesamiento también cuenta con un diccionario de sinónimos para identificar conceptos en vez de limitarse a nivel de palabras.

IMPORTANCIA DE LAS PALABRAS

La selección entre todas las páginas guardadas en las

computadoras está basada en la consulta hecha por el

usuario; o sea, las palabras clave que utilizó el usuario

al lanzar la búsqueda. Es importante reconocer que la búsqueda está realizada en las copias almacenadas en las computadoras de Google, en vez de buscar de forma

Google, el motor más popular del mundo

El alma de un buscador de páginas WebElisa Schaeffer

Doctora Elisa SchaefferProfesor-InvestigadorFacultad de Ingeniería Mecánica y Eléctrica / UANLCandidata al Sistema Nacional de Investigadores

Dado el enorme tamaño del Internet, sería imposible encontrar páginas relevantes sin los “buscadores” de Internet, que se han vuelto artículo de primera

necesidad en el uso de la computadora. Sin embargo, los buscadores, basados todos en el uso de palabras clave, no manejan adecuadamente aspectos finos, tales como la exis-tencia de sinónimos, ni son capaces de entender de lo que se tratan las páginas web, por lo que los resultados reci-bidos por los usuarios incluyen mucha “basura”. En este artículo revisamos formas de superar estas deficiencias.

INTRODUCCIÓN

Internet es reconocido como una de las grandes revolu-ciones tecnológicas de nuestro tiempo; desde su origen en marzo de 1989, el Internet, o “web” en inglés, o WWW por “World Wide Web”, ha crecido exponencialmente, al-canzando algo así como 109 millones de sitios web1 [1] con al menos 20 miles de millones de páginas indexadas por los principales “buscadores” de Internet.

Dada esta enorme cantidad de documentos en Inter-net, no sería posible que los usuarios “conocieran” poco a poco o encontraran, así fuera tras horas de navegación en web, las páginas relevantes para lo que les interesa, si no fuera por la existencia de esas maravillas conocidas

como “buscadores” de Internet. Con el liderazgo pro-nunciado de Google, compañía creada por estudiantes de Stanford, dirigidos en un tiempo por el investigador de origen mexicano Héctor García Molina, la tecnología de los buscadores de Internet se ha consolidado. Otros buscado-res, como Yahoo, Microsoft Live, así como otras compa-ñías, tratan de alcanzar al líder Google, pero en general sin proponer tecnologías radicalmente distintas.

Hay que subrayar la excelencia tecnológica de los ac-tuales buscadores de Internet, que a pesar del crecimien-to explosivo de la cantidad de páginas existentes, llevan muchos años sin incrementar el tiempo en que realizan una búsqueda.

Más allá de los buscadores en InternetRamón Brena

Doctor Ramón BrenaProfesor Titular

Centro de Sistemas Inteligentes,

Tecnológico de Monterrey

Director de la Cátedra de Investigación en

Conocimiento Distribuido y Agentes

Inteligentesramon.brena@itesm.

mx

44y29.indd 1 26/02/2008 17:08:41

CONOCIMIENTOTECNOLOGÍAS WEB28 CONOCIMIENTO TECNOLOGÍAS WEB 45

MAMBO Y JOOMLA

Joomla surge como el resultado de una bifurcación o me-jora de Mambo, de la corporación Miro de Australia, que mantenía la marca del nombre Mambo en esa época y el grupo principal de desarrolladores. Joomla nace con esta división el 17 de agosto de 2005. La corporación Miro for-mó una organización sin ánimo de lucro, con el propósito inicial de fundar el proyecto y protegerlo de pleitos. El grupo de desarrollo reclamó que muchas de las cláusulas de la estructura de la fundación fueron acuerdos previos hechos por el comité directivo de Mambo, el que no tiene la consultoría necesaria de quienes mantienen el proyecto e incluye cláusulas que violan los valores principales del código abierto. El grupo de desarrollo creo un sitio Web

que se llamó OpenSourceMatters para distribuir infor-

mación a los usuarios, desarrolladores, diseñadores Web

y a la comunidad en general. En ese momento, el líder Andrew Eddie, conocido como “MasterChief”, escribió una carta abierta para la comunidad, que apareció en la se-cción de anuncios del foro público en mamboserver.com. Al siguiente día, miles de personas ingresaron al Sitio Web opensourcematters.org para expresar su apoyo y estímulo por las acciones ejecutadas por el grupo de desarrollo. El sitio Web recibió un aviso de temporalmente fuera de ser-vicio debido al excesivo tráfico. Este evento apareció en newsforge.com, eweek.com, y ZDnet.com.

PROYECTO FRAY SERVANDO

En el CECYTE,NL contamos con servidores que co-rren bajo Linux en su distribución Fedora y Ubuntu, en los cuales se monitorea y administra el proyecto educativo denominado Fray Servando, compuesto por una plataforma educativa, correo electrónico, bases de datos y enlaces dedicados hacia nuestros plan-

teles, los cuales permiten la realización de videoconferencias en tiempo real, con-ferencias magistrales y capacitación de docentes y alumnos.

Un ejemplo aplicado al código abierto es la página http://www.conocimientoen-linea.com, la cual está desarrollada con herramientas como Joomla y hospedada en servidores que utilizan Linux en su distribución Fedora.

En conclusión, creemos que los pro-

gramas open source desempeñan un im-

portantísimo papel en la Web. Gracias a

esto, muchas personas pueden publicar

sus páginas de una manera amigable

e interactiva y muy sencilla, ya que si hay algún problema para instalar un programa, ya sea Joomla o publicar un servidor con Apache, hay toda una comu-nidad presta para ayudar con cualquier problema que se pueda presentar, ya sea en blog o foros.

Precisamente, este artículo fue escrito en Open Office, corriendo sobre ubuntu 7.10.

Otra de las ventajas es que la comunidad de código libre aporta temas, para cambiar el aspecto de éste, y así poder mostrar de una manera ordenada todos los artícu-los.

La WWW se ha vuelto parte integral de la vida de mil-

lones de personas, y no solamente en los países más

desarrollados, sino también en América Latina, donde la acción de hacer una búsqueda en Google es costumbre co-tidiana en el trabajo o en las ocupaciones personales. Tan acostumbrados estamos, que no nos damos cuenta de las limitaciones de dichas búsquedas.

Por ejemplo, si recurrimos a Web “bass” para buscar bajos eléctricos, en la página de resultados de Google vie-nen páginas sobre pesca, sobre zapatos, sobre cerveza, y sobre bajos. El problema aquí es que “bass” quiere decir muchas cosas, y Google no entiende a qué nos estamos refiriendo. Hasta se nos hace “natural” que Google no en-tienda, y nos contentamos con espulgar los resultados a-rrojados por Google hasta finalmente (a veces tras varias modificaciones a las consultas) llegar a un resultado que nos sirva.

Pero, ¿podría un buscador “entender” lo que le esta-mos preguntando?

MÁS ALLÁ DE LOS BUSCADORES ACTUALES

Las páginas Web son codificadas utilizando un lenguaje especial llamado “HTML” (HyperText Markup Language, [2]), que tiene comandos llamados “tags” para indicar la forma en que la información debe presentarse al usuario que la consulta.

El web semántico.- El problema de fondo con las pági-nas de Internet actuales es que su lenguaje, el HTML, está hecho para presentar información a un usuario humano, no para explicar a otro programa computacional de qué está hablando. Cuando el Internet fue inventado, la necesi-dad de que una máquina comprendiera la información de una página no era vista como algo importante, tal vez ni siquiera como algo posible.

Sin embargo, las cosas han cambiado en los últimos años. Por primera vez en la historia de la humanidad, la

información ha pasado de ser escasa a ser abundante, y

esta abundancia se ha convertido en un problema, pues

la información inunda a los usuarios en la forma de bu-

zones de correo electrónico, llenos de multitud de pági-

nas Web generalmente irrelevantes, etcétera.

Ahora bien, ¿cómo sería posible que un documento fuera comprensible para un programa computacional?

En primer lugar, existe la posibilidad de mejorar la forma en que los documentos describen su información. El mismo inventor del WWW (Sir Tim Berners-Lee) propuso hacer documentos web “autodescribibles”, que tuvieran su información codificada de forma tal que pudieran ser comprensibles para programas computacionales, y a esto se le llamó “Web semántico” [4]. En palabras del mismo Sir Tim Berners-Lee:

Tengo un sueño para el web, en el cual las computado-ras se vuelven capaces de analizar todos los datos en el web –el contenido, las ligas y las transacciones entre personas y computadoras. Un web semántico, que haría esto posible, aún está por surgir, pero cuando lo haga, los mecanismos para el intercambio día a día, la burocracia, y nuestras vidas diarias serán manejadas por máquinas hablando a máquinas.

Desde luego, a muchos lectores les erizará la piel la frase “nuestras vidas diarias serán manejadas por máqui-nas hablando a máquinas”, pero no vamos a discutir este aspecto aquí.

TECNOLOGÍAS ‘HABILITADORAS’

Para alcanzar estos sueños, se ha desarrollado una serie de tecnologías llamadas “habilitadoras”, tales, como XML, RDF, OWL y otras. XML [5] es un lenguaje parecido al HTML del web actual, pero extensible, para poder añadir “tags” especiales de acuerdo con la aplicación. Otras tecnologías de apoyo a XML son XML Schema, DTD, XML Namespaces, XSL/XSLT, CSS, XLink, XQuery, y muchas otras, en tal can-tidad que se hace difícil estar al corriente de todas ellas.

Han sido propuestos conjuntos de etiquetas específi-camente para representar información del Web semántico, y el conjunto más importante es el estándar RDF (Resource Description Framework [6]). Creado en 1999 por la asocia-ción global W3C, RDF permite definir propiedades de re-cursos en Web, afirmaciones sobre estas propiedades, así como clases de objetos, con subclases e incluso herencia de propiedades a las subclases.

Las declaraciones de RDF tienen la forma de tripletas

formadas por un recurso, una propiedad, y el valor de

dicha propiedad. Por ejemplo, para decir que el cielo es azul, hacemos una declaración en que el recurso es el cie-lo, la propiedad es el color, y el valor es el azul. Es fácil ver que esta estructura corresponde a la triada sujeto – verbo – complemento del idioma español (y del inglés y muchas otras lenguas); por esto la expresión de afirmaciones en RDF es muy natural. Actualmente ya existen una serie de aplicaciones de RDF en sistemas computacionales, tales como FOAF, SIOC, MusicBrainz y otros. Sin embargo, tal

Timothy John Berners-LeeTimothy “Tim” John Berners-Lee, OM,

KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Física en 1976 en el Queen’s College de la Universidad de Oxford. Es considerado como el padre de la Web. Básicamente, Tim, ante la necesidad de distribuir e intercam-biar información acerca de sus investigacio-nes de una manera más efectiva, desarrolló las ideas que forman parte de la Web. Tim y su grupo desarrollaron lo que por sus siglas en inglés se denominan: Lenguaje

HTML (HyperText Markup Language) o lenguaje de etíquetas de hipertex-to; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de local-ización de objetos en la web URL (Universal Resource Locator). Muchas de las ideas plasmadas por Berners-Lee podemos encontrarlas en el proyecto Xanadu que propuso Ted Nelson y el memex de Vannevar Bush.

28y45.indd 1 26/02/2008 17:08:23

Page 48: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB46 CONOCIMIENTO TECNOLOGÍAS WEB 27

error altamente configurables, bases de datos de autenti-cación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configu-ración.

Normalmente en internet busca uno información y ayuda para hacer tareas; escribe en blogs, busca música y demás. Pero, ¿se ha preguntado

usted alguna vez cómo funcionan esas páginas? La ma-yoría de los servidores en los que están publicadas estas tecnologías, usan programas open source. ¿Qué es open source?

El open source, -o programas de código abierto- hace referencia al software libre, adscrito a la licencia GPL que permite copiar, ver, modificar y distribuir el código fuente y, lo más importante, modificar el programa de acuerdo a las necesidades del usuario. Una de las ventajas es que toda una comunidad, de todos los rincones del mundo, comparte sus conocimientos y aporta modificaciones al programa, mejorando las funciones del mismo, y no hay que pagar por ello.

¿En qué plataforma se ejecutan estos programas?El sistema operativo en el que mayormente se usan

estos programas es en linux. Hay comunidades que rea-

lizan modificaciones, agregan programas, entornos

gráficos, lo preparan cd’s, y se les llama distribución. Algunas de las distribuciones más famosas son Ubuntu, Fedora, Suse, Mandrake, Red hat, Free BSD, entre otras.

CÓDIGO APACHE

Por ejemplo, el pro-grama de código abier-to que más se usa para publicar páginas Web es el Apache, el cual es un servidor HTTP para plataformas Unix (BSD, GNU/Linux, etcétera.),

Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 [1] y la noción de sitio virtual.

Cuando comenzó su desarrollo en 1995, se basó ini-

cialmente en código del popular NCSA HTTPd 1.3, pero

más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf lo eligió porque quería que tuviese la connotación de algo firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y “civilizasen” el paisaje que habían creado los primeros in-genieros de internet. Además, Apache consistía solamente en un conjunto de parches que aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor “parchado”).

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Entre otras características, Apache presenta mensajes de

La importanciadel open source en la Web

Ingeniero Jorge CárdenasTécnico Antonio López MagañaCoordinación de TecnologíasCECYTENL

Jorge CárdenasAntonio López Magaña

ACEPTACIÓN EN LA RED

Apache tuvo amplia aceptación en la red: en 2007; fue el servidor HTTP más usado, empleado en el 48 por ciento de los sitios Web en el mundo. Sin embargo, ha sufrido un descenso en su cuota de mercado en los últimos años.

Como alternativas de programación al codigo Asp y Asp.Net de Microsoft, en las cuales no sólo se crea una página Web en codigo html puro, fue desarrollado el len-guaje de programación PHP.

PHP es un acrónimo recursivo que significa “PHP Hy-pertext Pre-processor” (inicialmente PHP Tools, o, Personal Home Page Tools). Actualmente, también se puede utilizar para la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica, usando las bibliotecas Qt o GTK+.

El gran parecido que posee PHP con los lenguajes

más comunes de programación estructurada, como C y

Perl, permite a la mayoría de los programadores crear

aplicaciones complejas con una curva de aprendizaje

muy corta. También les permite involucrarse con apli-caciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones. PHP es un lenguaje de programación usado normalmente para la creación de páginas Web dinámicas. Existen programas ya listos para usarse bajo este código PHP, de los cuales podemos nom-brar a Mambo, Joomla y Drupal por citar algunos. Éstos son administradores de contenido dinámico, ya que toda la información se vacía en una base de datos por medio de una interfaz administrativa, y luego un solo archivo ordena todos los artículos, y cuando alguien quiere ver el contenido, o hace click en una liga, el resultado que se muestra es el que se encuentra en la base de datos ex-traído por el índice de la página Web.

vez la más importante aplicación actual de RDF es como base de otras tecnologías del web semántico, tales como OWL.

El Web Ontology Language, abreviado curiosamente

como “OWL”, es un lenguaje creado encima de RDF para

hacer conjuntos de declaraciones sobre clases, propie-

dades e instancias conocidas como “ontologías”. OWL es visto como una de las piezas clave en la realización del web semántico; permite la expresión de propiedades a un nivel conceptual más elevado que RDF, y se considera ade-cuado como lenguaje de representación de conocimiento. Como está basado en RDF, los documentos de OWL son de hecho código en RDF. También se ha definido un estándar de interrogación para el web semántico, llamado SPARQL, con el que en principio se puede utilizar el Internet como una enorme base de datos y conocimientos que se puede interrogar.

Existen algunas ontologías en OWL disponibles públi-camente, como por ejemplo en biomedicina [7]. Hay in-cluso un buscador de Internet (Swoogle) especializado en buscar documentos en RDF y OWL.

POTENCIAL DEL WEB SEMÁNTICO

El conjunto de tecnologías del web semántico es sin duda un desarrollo impresionante, pero cabe preguntarse cuál es en realidad su potencial en un futuro inmediato, en par-ticular para las búsquedas de Internet. Desde luego, para poder realizar búsquedas enriquecidas con información semántica, haría falta que las páginas buscadas contuvie-ran anotaciones en RDF o equivalente. Sin embargo, actual-mente menos del uno por ciento de las páginas de Internet tienen contenido en RDF, y esto no cambiará en un futuro próximo. Concluimos que, como opción para búsqueda enriquecida con capacidades semánticas, la propuesta del RDF es básicamente irrelevante.

Sin embargo, existen otras opciones, además del web semántico de Sir Tim Berners-Lee, para tomar en cuenta el significado de las páginas de Internet en las búsquedas, y dentro de ellas consideraremos en particular las propues-

tas de semántica cuantitativa.

LA SEMÁNTICA CUANTITATIVA

Aun cuando la información en Internet dista mucho de ser confiable, la

enorme cantidad de páginas existentes (ver datos al

inicio de este artí-culo) hacen

que, es-

tadísticamente hablando, la información de Internet sea confiable. Por ejemplo, si tratamos de saber si en inglés la forma usual de decir “vaso de agua” es “glass with water” o bien “glass of water”, lo que podemos hacer es realizar con cada una de estas dos opciones una consulta en un busca-dor. En particular, la primera opción entrega en Google unas 60,000 páginas, lo que es comparativamente poco, pues la segunda opción tiene ¡más de cuatro millones de páginas! Así, concluimos que la forma usual es “glass of water”. El punto aquí no es proponer una forma de corregir nuestro uso del inglés (aunque de hecho sí es buena idea hacerlo), sino poner de manifiesto el hecho de que unos cuantos erro-

res en Internet son fácilmente corregidos por un to-

rrente de datos correctos.

El aprovechamiento del enorme tamaño del Internet para medir estadísticamente el uso de las palabras en los distintos temas, áreas o tópicos puede ser llamado “semántica cuantitativa”, pues usa números para medir proximidad o lejanía de los temas existentes en Internet.2

Una idea, explorada hoy en día por muchos investi-gadores, es la de medir qué tan próxima es una página Web dada con respecto a un conjunto de referencias. Estas referencias pueden ser, por ejemplo, tópicos o temas ya establecidos con anterioridad. Por ejemplo, diríamos que cierta página web se relaciona en 0.7 con el tema de la música, y en 0.3 con el tema de la comida.

Tan sólo ubicar el tema de cada documento en web es extremadamente interesante y útil. Por ejemplo, consi-deremos el problema de hacer búsquedas en Internet con ayuda de buscadores. Aunque los buscadores son, desde luego, de extrema utilidad y forman parte de las vidas co-tidianas de millones de personas, también tienen grandes limitaciones (como comentamos en la introducción a este artículo), y nos obligan a “espulgar” manualmente los re-sultados que arrojan, muchas veces infructuosamente, para eventualmente encontrar lo que realmente quere-mos.

Por ejemplo, la interrogación palm pictures (sin comi-llas), arroja en Google resultados sobre muchos temas, tales como música, palmeras, fotos de dispositivos de cómputo portátiles, software para ver fotos en tales dis-positivos, playas en California, y muchos otros temas. El

usuario tiene que recorrer manualmente muchas pá-

ginas de resultados, o bien refinar su búsqueda, para

llegar a la información que quiere. Para refinar una búsqueda, hay dos enfoques posibles (que pueden ser combinados): aumentar palabras o suprimir palabras. Su-pongamos que el usuario quiere fotos del dispositivo de cómputo móvil, y que empieza eliminando las referencias a música o a palmeras, con la interrogación “palm pictures –music –plant” (sin comillas). Aun así se cuelan páginas que tratan sobre palmeras, pero que usan el término “tree” en vez de “plant”. En resumidas cuentas, el usuario tiene que torcer repetidamente su interrogación, o bien asumir el penoso proceso de espulgar manualmente los resulta-dos. Ambas alternativas requieren mucho esfuerzo, pero tal es el estado actual de los buscadores. Imaginemos aho-ra que un buscador le dice al usuario: “Encontré páginas

46y27.indd 1 26/02/2008 17:08:06

CONOCIMIENTOTECNOLOGÍAS WEB26 CONOCIMIENTO TECNOLOGÍAS WEB 47

espacio puedan intercambiar- o incluso desarrollar mutua-mente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emociona-les, ideas políticas, cultura, idiomas, música, negocio, arte, fotografías, literatura... todo puede ser compartido y di-seminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta.

Como la Web tiene un ámbito de influencia global, es incuestionable su contribución al entendimiento mutuo de las personas, por encima de fronteras físicas y/o ideológi-cas. Así fue como me interesé en el tema de los fractales. El término fractal lo acuñó Benoit Mandelbrot. Al hojear

un diccionario de latín de su hijo fusionó las palabras

fractus (roto) y fracture (fractura); y fue en el la IBM

donde se fraguó la teoría de la Geometría Fractal, cuya belleza usted puede admirar con sólo escribir la palabra “fractal” en su buscador habitual.

Nacida en la geometría y en la teoría del caos, la visión fractal está en todo: arte, ciencia, literatura, pintura, músi-ca, etcétera, y sólo la Web le permitirá disfrutar de la visión que, con todos sus recursos, no puede hacer la imprenta. Si usted quiere vivir una experiencia inolvidable, incluso iniciarse en la creación de fractales, tendrá que acudir a la Web.

Si usted no ha navegado por los fractales, sincera-

mente, se está perdiendo de utilizar la Web para vivir

una emoción especial, como es la de estar frente a un

fractal; es decir una forma geométrica que permanece

sin cambio, cualquiera sea el lente de aumento con el que se la observe.

LA TEORÍA DEL CAOS

Si cuando usted era estudiante de secundaria o de pre-paratoria no logró entender la Teoría del Caos, hoy sabrá con sencillez asombrosa que no podemos crear un orden perfecto; pero, si nos olvidamos de las limitaciones del pensamiento mecanicista, comprenderá la armonía del caos que nos rodea, y aprenderá a vivir en él, gracias a los fractales.

En la educación, especialmente en la asignatura de Geometría, son cada vez más los docentes que piensan que la Geometría Fractal, o al menos algunos elementos de ella, debieran integrarse entre los contenidos de Secunda-ria, en Matemáticas y/o en Informática.

Indagando con un aficionado de los fractales, me indica que los estudiantes pueden generar con suma facilidad

sus propios fractales, utilizando el programa fractint. Con este programa, asegura mi amigo, cualquier persona puede crear fractales, partiendo de una ecuación, que es la base para generar fractales; luego entra el gusto del autor, manipulando el fractal y moldeándolo como él desea. A quien le interese entrar en ese maravilloso mundo fractal, le recomiendo El mundo de los fractales, de Tim Wegner, Bert Tyler, editorial Anaya, que incluye el programa frac-

tint y un CD con los mejores fractales de gente de todo el mundo.

La teoría de fractales y la teoría del caos son parte de un mismo y novedoso paradigma emergente en la ciencia, lo mismo que la Teoría de Sistemas de Ludwig von Berta-lanffy y la Teoría de las catástrofes, de René Thom.

Como podrá darse cuenta, estimado lector, la Web y los Fractales forman una especie de binomio indisociable que usted puede desentrañar con sólo teclear la palabra fractal en su buscador.

Uso del programa Fractint.

Robert Cailliau

Ingeniero Industrial por la Universidad belga de Gante y Máster

en Ciencias de la Computación por la Universidad de Michigan

(EE.UU.), es uno de los creadores del World Wide Web junto

con Tim Berners-Lee. Se dice que Berners-Lee concibió la idea de

un proyecto de hipertexto global, en el cual podía adaptar un

programa que había creado para su uso particular, el ENQUIRE, a

las necesidades del CERN de disponer de un sistema para acceder a la enorme

y diversa cantidad de información que había en sus sistemas informáticos. Se

trataba de un sistema de hipertexto para compartir información basado en

Internet. Dicho sistema permitía incoporar multimedia e hipertextos en Internet,

almacenando piezas de información y enlazándolas entre ellas. ENQUIRE se

ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los

mismos datos. En 1989 Berners-Lee entregó su propuesta a varios científicos del

CERN pero no obtuvo respuesta. Fue Robert Cailliau quien acudió en su ayuda.

Una de las personas que creyó en el proyecto desde el principio fue el científico

belga. Reescribió la propuesta de Berners-Lee en términos que a él le pareció que

tendrían más efecto y buscó ayudantes estudiantes y becarios, dinero, máquinas

y espacio en oficinas para poder trabajar. En septiembre de 1990 recibieron el

visto bueno y los dos comenzaron a escribir el nuevo sistema de hipertexto,

dando origen a la Web como hoy la conocemos.

de los siguientes temas: Palmeras, Música, Dispositivos de cómputo móvil, Playas. ¿Cuál de ellos le interesa?” Desde luego, esto ahorraría al usuario muchos dolores de cabeza. Pero, ¿es esto posible? La res-puesta es afirmativa, y una solución viable radica en el uso de los métodos de semán-tica cuantitativa.3

Hay dos problemas que han recibido soluciones más o menos satisfactorias por los métodos de semántica cuan-titativa:

1.- Detectar los temas existentes en un corpus de

documentos.

2.- Medir la relevancia de un conjunto de temas pre-

existentes con respecto a un documento o interrogación

en particular.

De hecho el segundo problema es más simple y ha sido atacado por muchos métodos. Por ejemplo, uno de los más sencillos (Clasitex [8]) tiene una base hecha previa-mente por humanos, que asocia a cada palabra del idioma qué tanto tiene que ver con cada uno de los temas que se consideran importantes. Claro que esto es muchísimo trabajo, pero sólo se hace una vez, y ya terminada esta base, es muy fácil medir la pertenencia de un documento a cada tema: simplemente, para cada una de las palabras que lo componen, se calcula numéricamente su contribu-ción a la relevancia de cada tema, y así hasta terminar las palabras del documento. Al final se comparan los totales de cada tema, y se puede saber cuáles fueron los temas más relevantes.

TEMAS Y TÉRMINOS

Otro enfoque parecido, el de la “atribución latente de Dirichlet” [10], considera que cada documento es una “mezcla” de unos pocos temas, y cada uno de ellos con-tribuye con su composición de palabras a la composición del documento considerado. Por ejemplo, si un documento pertenece principalmente a los temas de música y cocina, van a abundar los términos de cada uno de estos dos tópi-cos, tales como melodía, ritmo, cocción, aceite, etcétera, pero claro que los términos de música no serán tan abun-dantes como si la página fuera únicamente de música. Para un documento en particular, se trata de encontrar la mezcla de documentos que lo componen, por lo que vemos que en intención es similar a Clasitex.El problema de encontrar en primer lugar los tópicos exis-tentes es más complejo, y existen básicamente dos en-foques: uno basado en el conocimiento, y el otro basado en algoritmos automáticos. En el primero encontramos a Clasitex y otros enfoques similares, que reposan en el trabajo humano, mientras que en el segundo están traba-jos como los Contextos Semánticos [11], proyecto en el que trabaja el autor de este artículo. Los enfoques basados en el trabajo humano tienen, aparte de la desventaja de requerir muchísimo trabajo, el problema de no adaptarse fácilmente a distintas colecciones de documentos.

Imagine el lector, por ejemplo, que necesitamos obte-ner los temas de los documentos en un repositorio de una empresa en particular; aquí, los temas generales calcula-dos para cualquier documento no serán necesariamente los más relevantes. En consecuencia, es mucho más pro-

1 Un sitio web es un conjunto de páginas interrelacionadas que en general son atendidas por una misma computadora que funge como “servidor”, a la que se conectan los “clientes”; por ejemplo, mi sitio web tiene la dirección http://homepages.mty.itesm.mx/rbrena, pero hay varias páginas en ese sitio, además de la página inicial.2 El término “semántica cuantitativa” no es estándar en la literatura, pero nos parece bastante adecuado.3 En el presente artículo no veremos el detalle de los métodos para hacer esto; remitimos al lector a referencias como [9].4 A estos catálogos de documentos, ordenados por palabra clave, se les llama “índices”.

Referencias1 Netcraft, February Netcraft web server survey, 2007.

2 XHTML2 Working Group Home Page, http://www.w3.org/MarkUp/3 F. Horibe, Managing Knowledge Workers: New Skills and Attitudes to Unlock the Intellectual Capital in Your Organization, John Wiley and Sons, 1999.4 Tim Berners-Lee, J. Hendler and O. Lassila, The Semantic Web, Scientific American Magazine, Mayo 2001.5 T. Bray y otros, Extensible Markup Language (XML) 1.0, W3C Recommendation, 2000.6 O. Lassila y otros, Resource Description Framework (RDF) Model and Syntax Specification, World Wide Web Consortium W3C, 1999.7 B. Smith y otros, The OBO Foundry: Coordinated evolution of ontologies to support biomedical data integration, NATURE BIOTECHNOLOGY, v25, n.11, 2007.8 J. Trinidad y otros, A Tool for Knowledge Discovery from Texts, Lecture Notes in Artificial Intelligence (1510). In Proc. of the PKDD-98, 1998.9 R. Brena, E. Ramirez, Semantic-Context Guided Internet Search, International Conference on WEB TECHNOLOGIES, APPLICATIONS, AND SERVICES (WTAS 2006), Alberta, Canada, 2006.10 D. Blei y otros, Latent Dirichlet allocation, Journal of Machine Learning Research v.3 n.5, 2003.11 E. Ramirez, R. Brena, Semantically Mapping the Web, Research on Computer Science, Vol 27, Número especial “Advances in Computer Science and Engineering, Proceedings from the 8th Conference on Computing (CORE 07)”, 2007.12 M. Blaschka y otros, BabelFish Project Report, Internal Report, FORWISS, Munich, Alemania, Enero 2000.13 A. Linden, J. Fenn, Understanding Gartner’s Hype Cycles, Gartner Group, 2003.

metedor el enfoque automático, aunque también requiere vencer varios retos técnicos para ser verdaderamente útil.

En primer lugar, está el problema de la eficiencia com-putacional. Dados los enormes números de documentos en Internet, pensar en hacer un catálogo de cada uno de ellos4 que además tenga la información semántica, es una tarea verdaderamente retadora; tan sólo hacer los catálo-

gos como los que hace Google es toda una proeza tec-

nológica: a pesar del explosivo crecimiento del Internet,

los tiempos de búsqueda de Google no se han incremen-

tado por años y años. Hacer esto mismo, pero ahora con la semántica cuantitativa, requerirá otra proeza al menos de similares proporciones.

CONCLUSIONES

El Web con capacidades semánticas es, sin lugar a du-

das, el futuro del Internet. Sin embargo, esta visión, en todo su potencial, no está a la vuelta de la esquina. Mu-chas veces los proponentes de una nueva tecnología exa-geran las promesas para llamar la atención, pero frecuen-temente el entusiasmo inicial es seguido de una etapa de desilusión, según han establecido los “ciclos” de la em-presa consultora Gartner [13]. Algunas tecnologías, tras un fuerte descenso en las expectativas, llegan a una etapa de estabilidad, en la que entregan al menos algunas de sus promesas. Pensamos que en unos años, pero no dos o tres, será el caso del web semántico, con el apoyo de la semántica cuantitativa.

26y47.indd 1 26/02/2008 17:07:51

Page 49: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB26 CONOCIMIENTO TECNOLOGÍAS WEB 47

espacio puedan intercambiar- o incluso desarrollar mutua-mente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emociona-les, ideas políticas, cultura, idiomas, música, negocio, arte, fotografías, literatura... todo puede ser compartido y di-seminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta.

Como la Web tiene un ámbito de influencia global, es incuestionable su contribución al entendimiento mutuo de las personas, por encima de fronteras físicas y/o ideológi-cas. Así fue como me interesé en el tema de los fractales. El término fractal lo acuñó Benoit Mandelbrot. Al hojear

un diccionario de latín de su hijo fusionó las palabras

fractus (roto) y fracture (fractura); y fue en el la IBM

donde se fraguó la teoría de la Geometría Fractal, cuya belleza usted puede admirar con sólo escribir la palabra “fractal” en su buscador habitual.

Nacida en la geometría y en la teoría del caos, la visión fractal está en todo: arte, ciencia, literatura, pintura, músi-ca, etcétera, y sólo la Web le permitirá disfrutar de la visión que, con todos sus recursos, no puede hacer la imprenta. Si usted quiere vivir una experiencia inolvidable, incluso iniciarse en la creación de fractales, tendrá que acudir a la Web.

Si usted no ha navegado por los fractales, sincera-

mente, se está perdiendo de utilizar la Web para vivir

una emoción especial, como es la de estar frente a un

fractal; es decir una forma geométrica que permanece

sin cambio, cualquiera sea el lente de aumento con el que se la observe.

LA TEORÍA DEL CAOS

Si cuando usted era estudiante de secundaria o de pre-paratoria no logró entender la Teoría del Caos, hoy sabrá con sencillez asombrosa que no podemos crear un orden perfecto; pero, si nos olvidamos de las limitaciones del pensamiento mecanicista, comprenderá la armonía del caos que nos rodea, y aprenderá a vivir en él, gracias a los fractales.

En la educación, especialmente en la asignatura de Geometría, son cada vez más los docentes que piensan que la Geometría Fractal, o al menos algunos elementos de ella, debieran integrarse entre los contenidos de Secunda-ria, en Matemáticas y/o en Informática.

Indagando con un aficionado de los fractales, me indica que los estudiantes pueden generar con suma facilidad

sus propios fractales, utilizando el programa fractint. Con este programa, asegura mi amigo, cualquier persona puede crear fractales, partiendo de una ecuación, que es la base para generar fractales; luego entra el gusto del autor, manipulando el fractal y moldeándolo como él desea. A quien le interese entrar en ese maravilloso mundo fractal, le recomiendo El mundo de los fractales, de Tim Wegner, Bert Tyler, editorial Anaya, que incluye el programa frac-

tint y un CD con los mejores fractales de gente de todo el mundo.

La teoría de fractales y la teoría del caos son parte de un mismo y novedoso paradigma emergente en la ciencia, lo mismo que la Teoría de Sistemas de Ludwig von Berta-lanffy y la Teoría de las catástrofes, de René Thom.

Como podrá darse cuenta, estimado lector, la Web y los Fractales forman una especie de binomio indisociable que usted puede desentrañar con sólo teclear la palabra fractal en su buscador.

Uso del programa Fractint.

Robert Cailliau

Ingeniero Industrial por la Universidad belga de Gante y Máster

en Ciencias de la Computación por la Universidad de Michigan

(EE.UU.), es uno de los creadores del World Wide Web junto

con Tim Berners-Lee. Se dice que Berners-Lee concibió la idea de

un proyecto de hipertexto global, en el cual podía adaptar un

programa que había creado para su uso particular, el ENQUIRE, a

las necesidades del CERN de disponer de un sistema para acceder a la enorme

y diversa cantidad de información que había en sus sistemas informáticos. Se

trataba de un sistema de hipertexto para compartir información basado en

Internet. Dicho sistema permitía incoporar multimedia e hipertextos en Internet,

almacenando piezas de información y enlazándolas entre ellas. ENQUIRE se

ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los

mismos datos. En 1989 Berners-Lee entregó su propuesta a varios científicos del

CERN pero no obtuvo respuesta. Fue Robert Cailliau quien acudió en su ayuda.

Una de las personas que creyó en el proyecto desde el principio fue el científico

belga. Reescribió la propuesta de Berners-Lee en términos que a él le pareció que

tendrían más efecto y buscó ayudantes estudiantes y becarios, dinero, máquinas

y espacio en oficinas para poder trabajar. En septiembre de 1990 recibieron el

visto bueno y los dos comenzaron a escribir el nuevo sistema de hipertexto,

dando origen a la Web como hoy la conocemos.

de los siguientes temas: Palmeras, Música, Dispositivos de cómputo móvil, Playas. ¿Cuál de ellos le interesa?” Desde luego, esto ahorraría al usuario muchos dolores de cabeza. Pero, ¿es esto posible? La res-puesta es afirmativa, y una solución viable radica en el uso de los métodos de semán-tica cuantitativa.3

Hay dos problemas que han recibido soluciones más o menos satisfactorias por los métodos de semántica cuan-titativa:

1.- Detectar los temas existentes en un corpus de

documentos.

2.- Medir la relevancia de un conjunto de temas pre-

existentes con respecto a un documento o interrogación

en particular.

De hecho el segundo problema es más simple y ha sido atacado por muchos métodos. Por ejemplo, uno de los más sencillos (Clasitex [8]) tiene una base hecha previa-mente por humanos, que asocia a cada palabra del idioma qué tanto tiene que ver con cada uno de los temas que se consideran importantes. Claro que esto es muchísimo trabajo, pero sólo se hace una vez, y ya terminada esta base, es muy fácil medir la pertenencia de un documento a cada tema: simplemente, para cada una de las palabras que lo componen, se calcula numéricamente su contribu-ción a la relevancia de cada tema, y así hasta terminar las palabras del documento. Al final se comparan los totales de cada tema, y se puede saber cuáles fueron los temas más relevantes.

TEMAS Y TÉRMINOS

Otro enfoque parecido, el de la “atribución latente de Dirichlet” [10], considera que cada documento es una “mezcla” de unos pocos temas, y cada uno de ellos con-tribuye con su composición de palabras a la composición del documento considerado. Por ejemplo, si un documento pertenece principalmente a los temas de música y cocina, van a abundar los términos de cada uno de estos dos tópi-cos, tales como melodía, ritmo, cocción, aceite, etcétera, pero claro que los términos de música no serán tan abun-dantes como si la página fuera únicamente de música. Para un documento en particular, se trata de encontrar la mezcla de documentos que lo componen, por lo que vemos que en intención es similar a Clasitex.El problema de encontrar en primer lugar los tópicos exis-tentes es más complejo, y existen básicamente dos en-foques: uno basado en el conocimiento, y el otro basado en algoritmos automáticos. En el primero encontramos a Clasitex y otros enfoques similares, que reposan en el trabajo humano, mientras que en el segundo están traba-jos como los Contextos Semánticos [11], proyecto en el que trabaja el autor de este artículo. Los enfoques basados en el trabajo humano tienen, aparte de la desventaja de requerir muchísimo trabajo, el problema de no adaptarse fácilmente a distintas colecciones de documentos.

Imagine el lector, por ejemplo, que necesitamos obte-ner los temas de los documentos en un repositorio de una empresa en particular; aquí, los temas generales calcula-dos para cualquier documento no serán necesariamente los más relevantes. En consecuencia, es mucho más pro-

1 Un sitio web es un conjunto de páginas interrelacionadas que en general son atendidas por una misma computadora que funge como “servidor”, a la que se conectan los “clientes”; por ejemplo, mi sitio web tiene la dirección http://homepages.mty.itesm.mx/rbrena, pero hay varias páginas en ese sitio, además de la página inicial.2 El término “semántica cuantitativa” no es estándar en la literatura, pero nos parece bastante adecuado.3 En el presente artículo no veremos el detalle de los métodos para hacer esto; remitimos al lector a referencias como [9].4 A estos catálogos de documentos, ordenados por palabra clave, se les llama “índices”.

Referencias1 Netcraft, February Netcraft web server survey, 2007.

2 XHTML2 Working Group Home Page, http://www.w3.org/MarkUp/3 F. Horibe, Managing Knowledge Workers: New Skills and Attitudes to Unlock the Intellectual Capital in Your Organization, John Wiley and Sons, 1999.4 Tim Berners-Lee, J. Hendler and O. Lassila, The Semantic Web, Scientific American Magazine, Mayo 2001.5 T. Bray y otros, Extensible Markup Language (XML) 1.0, W3C Recommendation, 2000.6 O. Lassila y otros, Resource Description Framework (RDF) Model and Syntax Specification, World Wide Web Consortium W3C, 1999.7 B. Smith y otros, The OBO Foundry: Coordinated evolution of ontologies to support biomedical data integration, NATURE BIOTECHNOLOGY, v25, n.11, 2007.8 J. Trinidad y otros, A Tool for Knowledge Discovery from Texts, Lecture Notes in Artificial Intelligence (1510). In Proc. of the PKDD-98, 1998.9 R. Brena, E. Ramirez, Semantic-Context Guided Internet Search, International Conference on WEB TECHNOLOGIES, APPLICATIONS, AND SERVICES (WTAS 2006), Alberta, Canada, 2006.10 D. Blei y otros, Latent Dirichlet allocation, Journal of Machine Learning Research v.3 n.5, 2003.11 E. Ramirez, R. Brena, Semantically Mapping the Web, Research on Computer Science, Vol 27, Número especial “Advances in Computer Science and Engineering, Proceedings from the 8th Conference on Computing (CORE 07)”, 2007.12 M. Blaschka y otros, BabelFish Project Report, Internal Report, FORWISS, Munich, Alemania, Enero 2000.13 A. Linden, J. Fenn, Understanding Gartner’s Hype Cycles, Gartner Group, 2003.

metedor el enfoque automático, aunque también requiere vencer varios retos técnicos para ser verdaderamente útil.

En primer lugar, está el problema de la eficiencia com-putacional. Dados los enormes números de documentos en Internet, pensar en hacer un catálogo de cada uno de ellos4 que además tenga la información semántica, es una tarea verdaderamente retadora; tan sólo hacer los catálo-

gos como los que hace Google es toda una proeza tec-

nológica: a pesar del explosivo crecimiento del Internet,

los tiempos de búsqueda de Google no se han incremen-

tado por años y años. Hacer esto mismo, pero ahora con la semántica cuantitativa, requerirá otra proeza al menos de similares proporciones.

CONCLUSIONES

El Web con capacidades semánticas es, sin lugar a du-

das, el futuro del Internet. Sin embargo, esta visión, en todo su potencial, no está a la vuelta de la esquina. Mu-chas veces los proponentes de una nueva tecnología exa-geran las promesas para llamar la atención, pero frecuen-temente el entusiasmo inicial es seguido de una etapa de desilusión, según han establecido los “ciclos” de la em-presa consultora Gartner [13]. Algunas tecnologías, tras un fuerte descenso en las expectativas, llegan a una etapa de estabilidad, en la que entregan al menos algunas de sus promesas. Pensamos que en unos años, pero no dos o tres, será el caso del web semántico, con el apoyo de la semántica cuantitativa.

26y47.indd 1 26/02/2008 17:07:51

Page 50: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB48 CONOCIMIENTO TECNOLOGÍAS WEB 25

Hoy en día, cualquier niño sabe que la World

Wide Web (o simplemente “Web”) es un siste-ma de documentos de hipertexto y/o hiperme-

dios enlazados y accesibles a través de Internet.

Miles de muchachos que no saben bailar el trompo, ni hacer un capirucho con el balero, son expertos navega-dores de la Web y surcan sus páginas surfeando diestra-mente entre textos, imágenes video y multimedia, utili-zando los hiperenlaces.

La Web y los Fractales

Profesor Ismael Vidales DelgadoDirector Académico Del [email protected]

Ismael Vidales Delgado

Yo no lo sabía, pero mi nieto que cursa el tercer año de secundaria, me enseñó que la Web fue creada alre-

dedor de 1990 por el inglés Tim Berners-Lee y el belga

Robert Cailliau; el inglés lograría más tarde unir hiper-

texto e Internet. La Web, tal y como la conocemos hoy día, propicia el flujo de comunicación global a una escala inimaginable.

COMUNICACIÓN INSTANTÁNEA

La Web permite que personas separadas en el tiempo y el

Estoy asustada. Por mi computadora deambula a sus anchas un “hacker”. ¿Qué son los “hackers”? Por lo general son una legión de jóvenes que no han de te-

ner otra meta en la vida que la de dedicar su valioso tiem-po a surfear por la Internet y entrar en cuanta base de da-tos encuentran en su camino, y cuyo gran desafío es poder accesar a cuanta computadora esté protegida, ya sea la de su vecino, la del Pentágono... y sigo preguntándome: “¿Por qué a la mía?”.

Hace poco, unos piratas informáticos entraron a la pá-gina Web del gobierno sueco, donde borraron información oficial e insertaron una serie de fotos pornográficas, según informó el periódico Aftonbladet, de Estocolmo. También otros piratas de la Red lograron entrar a un sitio de In-ternet del grupo militante musulmán Hamas y lograron redireccionar a los internautas que trataron de visitarlo, a una Web pornográfica.

Invasores en la Red

Ingeniera Claudia OrdazCatedrática del Departamento

de Comunicación / ITESM

[email protected]

Claudia Ordaz

ANARQUISTAS CIBERNÉTICOS

Imagínese: muchachos y muchachas de todo el mundo que dedican horas y trabajo mental a descubrir códigos secretos, claves de acceso y sistemas de encriptamiento de información para acceder a los datos y curiosear. ¿Qué? ¡Quién sabe! Son, como los llamo: unos anarquistas ciber-

néticos, usurpadores, voyeuristas a quienes les causa

placer asomarse a vidas ajenas o, si se les pega la gana,

depositarnos un virus. Travesuras de alto costo.

Claro que es de asustarse. Invaden tu intimidad, y te pueden borrar de un tirón información en la que has tra-bajado por años. Pero lo más angustiante es cuando abres el correo electrónico y lo encuentras infestado de sitios pornográficos. Y son tantos y tantos los correos del traba-jo o de las amistades devueltos a sus remitentes, porque la cuenta se encuentra saturada.

LUGAR NADA HONROSO

México ocupa el octavo lugar como país utilizado por los hackers para atacar sitios de Internet, según Hervert Hurtado, director general de Tráfico y Contrabando de la Policía Federal Preventiva. Nuestro país es un blanco per-

48y25.indd 1 26/02/2008 17:07:36

CONOCIMIENTOTECNOLOGÍAS WEB24 CONOCIMIENTO TECNOLOGÍAS WEB 49

Fig 2. Diagrama de pruebas en aplicaciones Web.

Se deben elaborar prototipos de la aplicación Web, para que el usuario visualice cómo se desarrollará.

Debe definirse la arquitectura donde se implemen-

tará la aplicación Web antes de empezar la programación, con el fin de asegurar su correcta instalación.

Es necesaria la aplicación de la administración y con-

trol de cambios.

Se ha de documentar el análisis (casos de uso) y el modelado (diagramas).

El diseño es esencial en este tipo de aplicaciones. Se ha comprobado que muchas personas evalúan una apli-cación Web sólo viendo el diseño estético inicial. Se deberá contar con diseñadores especializados que trabajen en el diseño arquitectónico, de contenido, de navegación y el estético.

Se debe generar la documentación de casos de prue-

ba necesaria, junto con el usuario, para asegurar su fun-cionalidad. Tenemos que pensar en pruebas de contenido, de navegación, de seguridad y de desempeño en alta con-currencia de usuarios; contar con la matriz de pruebas y asegurar que el usuario firma de aceptado cuando todas las pruebas son positivas. (Fig. 2)

El impacto que han tenido las Aplicaciones Web en los negocios ha hecho necesario un enfoque disciplinado como las Mejores Prácticas en el desarrollo de estas apli-caciones, para asegurar su calidad al usuario final y su permanencia de uso.

Es seguro que en el futuro la ingeniería del software se adaptará, sin importar la dimensión de los cambios en la tecnología; ésta nos llevará a nuevos procedimientos y metodologías; es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi-dad.

querimientos son vagos, inciertos, confusos o ambiguos. Es necesaria la participación y colaboración del usua-

rio en el análisis, diseño y pruebas de la aplicación

Web.

fecto para los proxenetas y terroristas que surcan con

osadía el ciberespacio. En la red, basta con teclear una dirección o escribir la palabra “sexo” y cientos de páginas sobre este rubro se despliegan a la velocidad de la luz.

La Internet es una revolucionaria herramienta de esta era tecnológica y de la globalización, y uno de sus mayo-res atractivos es que es abierta, por lo cual no tiene res-tricciones. Esto permite la libertad de darle un uso ya sea positivo o negativo. Existen investigaciones que han arro-jado los siguientes resultados: se ha encontrado que los

sitios que más visitas reciben en la Internet son los de

sexo y de pornografía. Una reciente encuesta realizada

en cibercafés en San Pedro Sula, Honduras, señaló que,

de cada diez accesos, siete son a sitios donde se ofrece

sexo y pornografía.

ALERTA A PATERFAMILIAS

¡Estén alertas! Sobre todo los padres de familia, ya que es natural pensar que la internet es una herramienta que facilita las tareas de sus hijos, lo cual es cierto. Pero hay “hackers”, esos cibernautas traviesos que se infiltran en-sus cuentas de correo para llenarlas de páginas porno. Según el New York Times, más de mil hackers alrededor

del mundo invaden la seguridad de las computadoras

para estos fines. Los hackers no eligen cualquier com-

putadora, sino aquéllas con conexión de alta velocidad

a Internet, para luego irlas cargando con software que les permita mandar websites con pornografía explícita.

La única manera de prevenir esto es una completa y abierta comunicación con los hijos, porque lo triste del asunto es que los adolescentes ya no tienen que ir a la tiendita de la esquina a comprar la revista o a la casa del amiguito precoz, que siempre los hay; sino que la pornografía está ahí, a la mano, en la pantalla de su computadora, con sólo presionar un botón y darle “clic” a la página que aparece ante la pila de correos recibidos.

Otra solución, tecnológica ésta, es la de proteger sus computadoras usando el famoso firewall; que evita la entrada de los hackers. El NYT cita a un experto en hackers, Stewart, que lleva ya años trabajando en com-pañías y que está desarrollando un programa llamado “migmaf” o “mafia migrante”, en el que colabora de manera conjunta con compañías para desarrollar de-fensas antivirus en contra de hackers, específicamente aquéllos que depositan direcciones pornográficas.

Y nosotros, ¿qué hemos hecho al respecto? ¿O qué podemos hacer? ¿Qué ha hecho nuestro país con res-pecto a dichas acciones que impactan en los campos sociológico, económico, político? Estamos hablando de una invasión a la privacidad y, sinceramente, el nue-vo orden social y económico en el que vivimos, este mundo globalizado que nos alberga, hace que la tarea resulte aún más difícil.

Se encarga de la Identificación y desarticulación de organizaciones dedicadas

al robo, lenocinio, tráfico y corrupción de menores, así como a la elaboración,

distribución y promoción de pornografía infantil, por cualquier medio.

Analiza y desarrolla investigaciones de campo sobre actividades de

organizaciones locales e internacionales de pedofília, así como de redes de

prostitución infantil.

Localiza y pone a disposición ante autoridades ministeriales a personas

dedicadas a cometer delitos utilizando computadoras.

Realiza operaciones de patrullaje anti-hacker, utilizando Internet como un

instrumento para detectar a delincuentes que cometen fraudes, intrusiones y

organizan sus actividades delictivas en la red.

Con el objeto de dar a conocer medidas preventivas para navegar por Internet

con mayor seguridad, la Dirección de la Policía Cibernética y Delitos Contra

Menores, ofrecen pláticas y conferencias a instituciones públicas y privadas que

así lo soliciten.

Para mayor información accesa a la siguiente página de Internet:

http://www.ssp.gob.mx/portalWebApp/appmanager/pcibernetica/desk?_

nfpb=true&_pageLabel=pcibernetica_page_2&nodo=99421&pbname=,pc_DC_Me

xico&displayPage=pcibernetica_page_

Policía Cibernética

24y49.indd 1 26/02/2008 17:07:21

Page 51: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB24 CONOCIMIENTO TECNOLOGÍAS WEB 49

Fig 2. Diagrama de pruebas en aplicaciones Web.

Se deben elaborar prototipos de la aplicación Web, para que el usuario visualice cómo se desarrollará.

Debe definirse la arquitectura donde se implemen-

tará la aplicación Web antes de empezar la programación, con el fin de asegurar su correcta instalación.

Es necesaria la aplicación de la administración y con-

trol de cambios.

Se ha de documentar el análisis (casos de uso) y el modelado (diagramas).

El diseño es esencial en este tipo de aplicaciones. Se ha comprobado que muchas personas evalúan una apli-cación Web sólo viendo el diseño estético inicial. Se deberá contar con diseñadores especializados que trabajen en el diseño arquitectónico, de contenido, de navegación y el estético.

Se debe generar la documentación de casos de prue-

ba necesaria, junto con el usuario, para asegurar su fun-cionalidad. Tenemos que pensar en pruebas de contenido, de navegación, de seguridad y de desempeño en alta con-currencia de usuarios; contar con la matriz de pruebas y asegurar que el usuario firma de aceptado cuando todas las pruebas son positivas. (Fig. 2)

El impacto que han tenido las Aplicaciones Web en los negocios ha hecho necesario un enfoque disciplinado como las Mejores Prácticas en el desarrollo de estas apli-caciones, para asegurar su calidad al usuario final y su permanencia de uso.

Es seguro que en el futuro la ingeniería del software se adaptará, sin importar la dimensión de los cambios en la tecnología; ésta nos llevará a nuevos procedimientos y metodologías; es decir, nos guiará a las mejores prácticas, para seguir desarrollando software con calidad y efectivi-dad.

querimientos son vagos, inciertos, confusos o ambiguos. Es necesaria la participación y colaboración del usua-

rio en el análisis, diseño y pruebas de la aplicación

Web.

fecto para los proxenetas y terroristas que surcan con

osadía el ciberespacio. En la red, basta con teclear una dirección o escribir la palabra “sexo” y cientos de páginas sobre este rubro se despliegan a la velocidad de la luz.

La Internet es una revolucionaria herramienta de esta era tecnológica y de la globalización, y uno de sus mayo-res atractivos es que es abierta, por lo cual no tiene res-tricciones. Esto permite la libertad de darle un uso ya sea positivo o negativo. Existen investigaciones que han arro-jado los siguientes resultados: se ha encontrado que los

sitios que más visitas reciben en la Internet son los de

sexo y de pornografía. Una reciente encuesta realizada

en cibercafés en San Pedro Sula, Honduras, señaló que,

de cada diez accesos, siete son a sitios donde se ofrece

sexo y pornografía.

ALERTA A PATERFAMILIAS

¡Estén alertas! Sobre todo los padres de familia, ya que es natural pensar que la internet es una herramienta que facilita las tareas de sus hijos, lo cual es cierto. Pero hay “hackers”, esos cibernautas traviesos que se infiltran en-sus cuentas de correo para llenarlas de páginas porno. Según el New York Times, más de mil hackers alrededor

del mundo invaden la seguridad de las computadoras

para estos fines. Los hackers no eligen cualquier com-

putadora, sino aquéllas con conexión de alta velocidad

a Internet, para luego irlas cargando con software que les permita mandar websites con pornografía explícita.

La única manera de prevenir esto es una completa y abierta comunicación con los hijos, porque lo triste del asunto es que los adolescentes ya no tienen que ir a la tiendita de la esquina a comprar la revista o a la casa del amiguito precoz, que siempre los hay; sino que la pornografía está ahí, a la mano, en la pantalla de su computadora, con sólo presionar un botón y darle “clic” a la página que aparece ante la pila de correos recibidos.

Otra solución, tecnológica ésta, es la de proteger sus computadoras usando el famoso firewall; que evita la entrada de los hackers. El NYT cita a un experto en hackers, Stewart, que lleva ya años trabajando en com-pañías y que está desarrollando un programa llamado “migmaf” o “mafia migrante”, en el que colabora de manera conjunta con compañías para desarrollar de-fensas antivirus en contra de hackers, específicamente aquéllos que depositan direcciones pornográficas.

Y nosotros, ¿qué hemos hecho al respecto? ¿O qué podemos hacer? ¿Qué ha hecho nuestro país con res-pecto a dichas acciones que impactan en los campos sociológico, económico, político? Estamos hablando de una invasión a la privacidad y, sinceramente, el nue-vo orden social y económico en el que vivimos, este mundo globalizado que nos alberga, hace que la tarea resulte aún más difícil.

Se encarga de la Identificación y desarticulación de organizaciones dedicadas

al robo, lenocinio, tráfico y corrupción de menores, así como a la elaboración,

distribución y promoción de pornografía infantil, por cualquier medio.

Analiza y desarrolla investigaciones de campo sobre actividades de

organizaciones locales e internacionales de pedofília, así como de redes de

prostitución infantil.

Localiza y pone a disposición ante autoridades ministeriales a personas

dedicadas a cometer delitos utilizando computadoras.

Realiza operaciones de patrullaje anti-hacker, utilizando Internet como un

instrumento para detectar a delincuentes que cometen fraudes, intrusiones y

organizan sus actividades delictivas en la red.

Con el objeto de dar a conocer medidas preventivas para navegar por Internet

con mayor seguridad, la Dirección de la Policía Cibernética y Delitos Contra

Menores, ofrecen pláticas y conferencias a instituciones públicas y privadas que

así lo soliciten.

Para mayor información accesa a la siguiente página de Internet:

http://www.ssp.gob.mx/portalWebApp/appmanager/pcibernetica/desk?_

nfpb=true&_pageLabel=pcibernetica_page_2&nodo=99421&pbname=,pc_DC_Me

xico&displayPage=pcibernetica_page_

Policía Cibernética

24y49.indd 1 26/02/2008 17:07:21

Page 52: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB50 CONOCIMIENTO TECNOLOGÍAS WEB 23

Internet permite brindar atención a los clientes durante 24 horas al día cada vez que éstos necesitan un bien o servicio. Los horarios y las fronteras pasan a un se-

gundo plano. Si una empresa desea tener éxito, debe ser mejor que las de su competencia, y sus aplicaciones en Internet deberán ofrecer buena imagen, facilidad de uso, seguridad, funcionalidad y tiempos de respuesta rápidos, aun en alta concurrencia; es decir, deberán ofrecer ex-celente calidad.

Se ha definido a las mejores prácticas como las tareas

que aseguran un excelente trabajo, integro y actualizado

en algún tema específico. Si seguimos los estándares de mejores prácticas en el desarrollo de aplicaciones Web, es-taremos ofreciendo a nuestros clientes los beneficios que la ingeniería de software nos marca respecto de las me-todologías y tecnologías más actuales. (Fig. 1)

MEJORES PRÁCTICAS PARA EL DESARROLLO

DE APLICACIONES WEB

Las mejores prácticas son tareas que seguir en proyectos reales y no hay que suponer que son trabajos meramente

Las mejores prácticas de ingenieríade software en los desarrollos Web

académicos que sólo se ven en aulas de clases. El equipo de trabajo debe comprender que la Ingenie-

ría de Software implica disciplina, y hay que aplicarla.Para seleccionar la metodología de desarrollo adecua-

da, si la aplicación por desarrollar se desea implementar en corto tiempo, se deberá utilizar un proceso ágil; si es una aplicación que, de acuerdo con sus características, se va a desarrollar en un período mayor, entonces se deberá utilizar un proceso incremental.

Se debe contar con todos los estándares de documen-

tación, diseño, programación, base de datos, etcétera, y asegurar que el equipo de trabajo los conoce y los sigue.

Se deberá desarrollar una buena planeación del tra-

bajo en detalle, en donde cada tarea, además del respon-sable y del tiempo asignado, debe tener un entregable definido. Es bien sabido que el seguimiento y control del proyecto se facilitarán si contamos con un buen plan.

Debe contarse con el documento de Administración

y Control de Riesgos. Se ha de trabajar para comprender y documentar

los requerimientos del usuario y no empezar si los re-

Fig. 1 Estructura de Proyectos de Desarrollo bajo ingeniería de Software

Rogelio J. Sepúlveda Guerrero

Maestro Rogelio J. Sepúlveda GuerreroCatedráticoSubdirector de Operaciones del Centro de Servicios en InformáticaFacultad de Ciencias Físico Matemáticas / UANL

Mucha gente piensa en el internet como un enorme repositorio de páginas para obtener información de diversos tipos. Sin embargo, desde sus inicios

el internet ha sido también un medio social, y lo es cada

vez más, hasta tal punto que ha surgido ya un área de investigación denominada social computing (computación social) que estudia la intersección del comportamiento so-cial y los sistemas computacionales.

El internet surge en 1969 a partir de una iniciativa del Departamento de la Defensa de los Estados Unidos, para facilitar el flujo de información entre investigadores por medio del intercambio de archivos y poco después por medio del correo electrónico, la primera aplicación con un fuerte impacto social. En 1980 se incorporan al internet los foros de discusión sobre diversos tópicos, otra apli-cación que permite socializar a distancia. Aunque estos fo-ros ya existían para redes locales de computadoras, cuan-do se incorporan al internet logran una expansión mun-dial, y alcanzan un incremento exponencial en la cantidad de información que se intercambia, desde 4.5 GB en 1995 hasta 3.7 Terabytes en abril de 2007 [1]. Y todo esto ocu-rrió antes de que se inventara la World Wide Web en 1990.

MUNDOS VIRTUALES

Aunque las primeras aplicaciones de la WWW se referían a buscar y consultar páginas de información, nuestra in-saciable tendencia a la socialización pronto se apoderó también de “la web”. Hoy en día existen ya decenas de

aplicaciones con un enfoque social; entre otras la men-

sajería instantánea, los wikis (sitios donde varias per-

sonas colaboran en la elaboración de documentos en

línea), los sitios para subir perfiles personales y formar

redes de amigos (social network sites como Facebook [2]), los blogs (diarios públicos en línea –hay ya unos 112 mi-llones de blogs); y los lugares para intercambiar comen-tarios sobre fotografías, libros, productos, videos, noticias etcétera. Y, por supuesto, hay muchos sitios para hacer ci-tas amorosas con otros internautas. Toda esta interacción social comienza a ocurrir en ambientes tri-dimensionales como los videojuegos y otros mundos virtuales en donde pueden interactuar simultáneamente varias personas de todo el mundo.

Aplicaciones y ambientes sociales del “espacio real” como la telefonía, las fiestas y las conferencias se trasladan a los espacios virtuales, y se transforman en telefonía y

Doctor José I. IcazaDirector del Centro

de Investigación en Tecnología

Educativa / ITESM

http://copernico.mty.itesm,mx

Computación socialJosé I. Icaza

Fiesta en el Salón Tropicana, de La Habana, tal como está modelado en el mundo virtual de Second Life (http://www.secondlife.com). Las figuras humanas son avatares, cada uno controlado por alguna persona real en algún lugar del mundo. Los avatares pueden comunicarse unos con otros en forma oral o escrita. Second Life cuenta con varios millones de miembros.

50y23.indd 1 26/02/2008 17:07:06

CONOCIMIENTOTECNOLOGÍAS WEB22 CONOCIMIENTO TECNOLOGÍAS WEB 51

Por ejemplo, los Google Maps escritos en Ajax permiten al usuario desplazarse en el mapa alrededor de la pantalla, sin necesidad de tener que esperar que la página se recar-gue en cada instante.

WEB SERVICES

GRID

Inició como un metacomputing (supercomputadoras liga-das) en Norteamérica a mediados de los 90. Los europeos propusieron que los servicios GRID se basaran en, AS “Web services”, así que la GRID podría convertirse en un servicio oblicuo. En esta avenida, existe mucho trabajo

desarrollado por la Next Generation Grid Expert Group

de la Comunidad Europea, la cual ha liderado mucha ac-tividad científica en servicios y sus especificaciones con metadatos.

MASHUPS

Los mashups combinan datos o servicios de múltiples si-tios Web en una sola experiencia con el usuario. Por ejem-plo, un mashup puede combinar los mapas de google con aplicaciones que generan datos en línea, en tiempo real o sitios de monitoreo de tráfico en carreteras.

Los mashups, típicamente operan vía un conjunto de

APIs publicados por proveedores del sitio Web. Los APIs le permiten al mashup tomar información de varios sitios y mezclar características de múltiples fuentes.

CONVERGENCIA

Finalmente, podemos concluir que el futuro de la WEB se basa primeramente en la convergencia de la Semantic Web, Web de confianza y la Web 2.0, seguido todo ello por la sintonización con GRIDs. Esto combina lo que lla-mamos e-infrastructure, la cual permite más o menos ac-ceso ilimitado a la información, procesamiento de nego-cio, entretenimiento, educación, investigación entre otras tecnologías.

El desarrollo de Web Services proporciona interfases de programación de aplicaciones (API), que permiten la pro-gramación de la Web, más que simple autoría o generación de contenido. Con la codificación XML de información, así como el trabajo colaborativo, incluyendo flujos de traba-jo, esto es posible. También es posible considerar la in-cursión de SOAP (Service-Oriented Architecture), la cual lleva a tiempos de desarrollo de aplicaciones más corto y mantenimientos más sencillos. Sin embargo, éste también permite la descripción de metadatos y el descubrimiento y uso de servicios y procesos de negocio. Existe una gran explosión en la oferta de metadatos en este dominio y la estandarización es necesaria, ver figura 7.

Figura 6. Modelo clásico de aplicaciónvs. modelo Ajax de aplicaciones Web.

Figura 7. Nuevo Paradigma de desarrollo para aplicaciones y Web Services que usan OWL-S

Referencias:

1.Bettina Berent , A Roadmap for Web Mining: From Web to Semantic Web.2.BBC News, The really simple future of the Web.3. ZDNet.co.uk. Web evolution by number4.Michalski, R. Bratko, I (eds), M.K: Machine Learning and Data Mining: methods and applications. Jhon Wiley and Sons, Chicherster (1998). 5 Kleinberg, J.M.: Authorative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632.

Figura 8. Web 2.0, hacia una

convergencia unificada

de la Web.

Cada día que transcurra, la sociedad y las empresas se moverán hacia una Web más inteligente e interactiva, basada en Web 2.0.

videoconferencias por internet y en reuniones sociales en mundos virtuales; y en el otro sentido, aplicaciones de internet apoyan la vida social real, como el sitio llamado Meetup [3] que se utiliza para planear por internet reunio-nes presenciales. Se comienza a hablar de Mixed Reality,

un término que incluye todas las aplicaciones que com-

binan elementos virtuales y reales.

CONOCIMIENTO Y DEMOCRATIZACIÓN

¿Cuál es el impacto de toda esta socialización virtual en la generación de conocimiento? Pues ésta se hace democráti-ca en varios sentidos: primero, al facilitar que cualquier persona con acceso a internet genere conocimiento; se-gundo, al facilitar que el conocimiento más valioso para la comunidad se haga más conocido por medio de los siste-mas de recomendaciones y de votaciones sobre produc-tos, servicios y las mismas recomendaciones; y tercero, al facilitar que grupos de personas generen conocimiento en forma colaborativa, como sucede en la famosa enciclope-dia gratuita, la Wikipedia.

A veces, las votaciones por los conocimientos más valio-sos son calculadas en forma transparente por la propia tecnología. Por ejemplo, considerando que cada liga a una página o cada cita a un artículo científico es una especie de voto a favor de la página o artículo correspondiente, los motores de búsqueda cuentan estos votos para deter-minar cuáles sitios o artículos son los más relevantes para la comunidad.

IMPACTO SOCIOECONÓMICO

Hablemos ahora del impacto social y económico de las aplicaciones sociales, por ejemplo entre los jóvenes. No cabe duda que la juventud de hoy se mueve con gran

facilidad entre el mundo virtual y el mundo real. danah boyd, quien se ha dedicado a entrevistar a jóvenes de todo Estados Unidos para investigar su uso de la tecnología so-cial, relata cómo una típica joven norteamericana adquiere su ropa hoy en día [4]:

Utilizando Google y una variedad de sitios para com-pras en línea, Mary investiga qué estilos le gustan y qué está de moda. Enseguida va con sus amigas al Mall con su cámara digital. Se prueban los vestidos y se sacan fotos. Re-gresando a casa, Mary sube sus fotos a Facebook y les pre-gunta a sus amigos y amigas virtuales cuál les gusta más. Entonces toma una decisión y en lugar de regresar al Mall, busca y compra el mismo vestido en línea, más barato, uti-lizando el nombre del fabricante y el número de producto que anotó cuando estaba en la tienda.

El impacto social de la tecnología es modulado por los programadores que desarrollan aplicaciones sociales y por las compañías de software que los contratan. La

misma danah boyd reporta [5] sobre lo que parecía un pequeño cambio que se hizo a la aplicación de MySpace, similar a Facebook. En este tipo de aplicaciones, la gente puede declarar públicamente quiénes son sus amigos. A los programadores de MySpace se les ocurrió proporcio-nar a los usuarios una facilidad adicional que les permitía identificar a sus ocho Top Friends –sus mejores amigos-, y además poner en orden esa lista de top friends. Pueden ustedes imaginarse las ofensas, discusiones, “cortes” y reconciliaciones que esto originó en la comunidad en me-nos de una semana –por los que no quedaban incluidos en la exclusiva lista o por el orden en que habían quedado: ¿Quée?!! ¿Yo soy tu tercera mejor amiga? ¡Yo te puse en primer lugar en mi lista!

Este detalle nos indica: primero, que las convencio-

nes sociales del mundo real cambian al trasladarse al

mundo virtual; y segundo, habla sobre el poder de los

programadores para influir en la cultura social de un

sitio.

Lawrence Lessig, en su libro Code [6], proporciona va-rios ejemplos sobre cómo las decisiones que se toman sobre la arquitectura de software del internet y la pro-gramación de las aplicaciones afectan de manera decisiva aspectos sociales tan importantes como la privacidad, la identidad y las amistades, entre otros. Los programadores futuros tendrán que estar preparados en psicología y so-ciología; no sólo en la programación de computadoras.

1.-Dato tomado de varias fuentes por los autores del artículo en Wikipedia sobre Usenet, http://en.wikipedia.org/wiki/Usenet2.- En un social network site tal como Facebook, MySpace y otros, los miembros de la comunidad del sitio pueden desarrollar páginas personales o “perfiles” que representan su identidad virtual e incluyen datos como nombre o pseudónimo, fotografía, intereses etcétera. En su perfil, pueden también incluir una lista pública de sus amigos, y contactar a los amigos de sus amigos, formando extensas redes sociales. Los amigos pueden enterarse de cualquier modificación al perfil, y enviarse mensajes que se reciben en la misma página del perfil.3.- En Meetup (http://www.meetup.com) se pueden anunciar y buscar reuniones presenciales que ocurren en cualquier ciudad del mundo y que se organizan alrededor de tópicos de interés. 4.- danah boyd está terminando su doctorado en redes sociales virtuales en la Universidad de Berkeley. Ese comentario aparece en su blog, http://www.zephoria.org/thoughts/archives/2008/01/10/technology_and.html5.- danah boyd. Friends, friendsters, and top 8: Writing community into being on social network sites. First Monday, volume 11, number 12 (December 2006) http://firstmonday.org/issues/issue11_12/boyd/index.html6.- Lessig, Lawrence. Code. Basic Books 1999. La palabra code es una referencia a “código fuente”, que es como los programadores nombran al conjunto de instrucciones de un programa de computadora

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP

22y51.indd 1 26/02/2008 17:06:49

Page 53: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB50 CONOCIMIENTO TECNOLOGÍAS WEB 23

Internet permite brindar atención a los clientes durante 24 horas al día cada vez que éstos necesitan un bien o servicio. Los horarios y las fronteras pasan a un se-

gundo plano. Si una empresa desea tener éxito, debe ser mejor que las de su competencia, y sus aplicaciones en Internet deberán ofrecer buena imagen, facilidad de uso, seguridad, funcionalidad y tiempos de respuesta rápidos, aun en alta concurrencia; es decir, deberán ofrecer ex-celente calidad.

Se ha definido a las mejores prácticas como las tareas

que aseguran un excelente trabajo, integro y actualizado

en algún tema específico. Si seguimos los estándares de mejores prácticas en el desarrollo de aplicaciones Web, es-taremos ofreciendo a nuestros clientes los beneficios que la ingeniería de software nos marca respecto de las me-todologías y tecnologías más actuales. (Fig. 1)

MEJORES PRÁCTICAS PARA EL DESARROLLO

DE APLICACIONES WEB

Las mejores prácticas son tareas que seguir en proyectos reales y no hay que suponer que son trabajos meramente

Las mejores prácticas de ingenieríade software en los desarrollos Web

académicos que sólo se ven en aulas de clases. El equipo de trabajo debe comprender que la Ingenie-

ría de Software implica disciplina, y hay que aplicarla.Para seleccionar la metodología de desarrollo adecua-

da, si la aplicación por desarrollar se desea implementar en corto tiempo, se deberá utilizar un proceso ágil; si es una aplicación que, de acuerdo con sus características, se va a desarrollar en un período mayor, entonces se deberá utilizar un proceso incremental.

Se debe contar con todos los estándares de documen-

tación, diseño, programación, base de datos, etcétera, y asegurar que el equipo de trabajo los conoce y los sigue.

Se deberá desarrollar una buena planeación del tra-

bajo en detalle, en donde cada tarea, además del respon-sable y del tiempo asignado, debe tener un entregable definido. Es bien sabido que el seguimiento y control del proyecto se facilitarán si contamos con un buen plan.

Debe contarse con el documento de Administración

y Control de Riesgos. Se ha de trabajar para comprender y documentar

los requerimientos del usuario y no empezar si los re-

Fig. 1 Estructura de Proyectos de Desarrollo bajo ingeniería de Software

Rogelio J. Sepúlveda Guerrero

Maestro Rogelio J. Sepúlveda GuerreroCatedráticoSubdirector de Operaciones del Centro de Servicios en InformáticaFacultad de Ciencias Físico Matemáticas / UANL

Mucha gente piensa en el internet como un enorme repositorio de páginas para obtener información de diversos tipos. Sin embargo, desde sus inicios

el internet ha sido también un medio social, y lo es cada

vez más, hasta tal punto que ha surgido ya un área de investigación denominada social computing (computación social) que estudia la intersección del comportamiento so-cial y los sistemas computacionales.

El internet surge en 1969 a partir de una iniciativa del Departamento de la Defensa de los Estados Unidos, para facilitar el flujo de información entre investigadores por medio del intercambio de archivos y poco después por medio del correo electrónico, la primera aplicación con un fuerte impacto social. En 1980 se incorporan al internet los foros de discusión sobre diversos tópicos, otra apli-cación que permite socializar a distancia. Aunque estos fo-ros ya existían para redes locales de computadoras, cuan-do se incorporan al internet logran una expansión mun-dial, y alcanzan un incremento exponencial en la cantidad de información que se intercambia, desde 4.5 GB en 1995 hasta 3.7 Terabytes en abril de 2007 [1]. Y todo esto ocu-rrió antes de que se inventara la World Wide Web en 1990.

MUNDOS VIRTUALES

Aunque las primeras aplicaciones de la WWW se referían a buscar y consultar páginas de información, nuestra in-saciable tendencia a la socialización pronto se apoderó también de “la web”. Hoy en día existen ya decenas de

aplicaciones con un enfoque social; entre otras la men-

sajería instantánea, los wikis (sitios donde varias per-

sonas colaboran en la elaboración de documentos en

línea), los sitios para subir perfiles personales y formar

redes de amigos (social network sites como Facebook [2]), los blogs (diarios públicos en línea –hay ya unos 112 mi-llones de blogs); y los lugares para intercambiar comen-tarios sobre fotografías, libros, productos, videos, noticias etcétera. Y, por supuesto, hay muchos sitios para hacer ci-tas amorosas con otros internautas. Toda esta interacción social comienza a ocurrir en ambientes tri-dimensionales como los videojuegos y otros mundos virtuales en donde pueden interactuar simultáneamente varias personas de todo el mundo.

Aplicaciones y ambientes sociales del “espacio real” como la telefonía, las fiestas y las conferencias se trasladan a los espacios virtuales, y se transforman en telefonía y

Doctor José I. IcazaDirector del Centro

de Investigación en Tecnología

Educativa / ITESM

http://copernico.mty.itesm,mx

Computación socialJosé I. Icaza

Fiesta en el Salón Tropicana, de La Habana, tal como está modelado en el mundo virtual de Second Life (http://www.secondlife.com). Las figuras humanas son avatares, cada uno controlado por alguna persona real en algún lugar del mundo. Los avatares pueden comunicarse unos con otros en forma oral o escrita. Second Life cuenta con varios millones de miembros.

50y23.indd 1 26/02/2008 17:07:06

CONOCIMIENTOTECNOLOGÍAS WEB22 CONOCIMIENTO TECNOLOGÍAS WEB 51

Por ejemplo, los Google Maps escritos en Ajax permiten al usuario desplazarse en el mapa alrededor de la pantalla, sin necesidad de tener que esperar que la página se recar-gue en cada instante.

WEB SERVICES

GRID

Inició como un metacomputing (supercomputadoras liga-das) en Norteamérica a mediados de los 90. Los europeos propusieron que los servicios GRID se basaran en, AS “Web services”, así que la GRID podría convertirse en un servicio oblicuo. En esta avenida, existe mucho trabajo

desarrollado por la Next Generation Grid Expert Group

de la Comunidad Europea, la cual ha liderado mucha ac-tividad científica en servicios y sus especificaciones con metadatos.

MASHUPS

Los mashups combinan datos o servicios de múltiples si-tios Web en una sola experiencia con el usuario. Por ejem-plo, un mashup puede combinar los mapas de google con aplicaciones que generan datos en línea, en tiempo real o sitios de monitoreo de tráfico en carreteras.

Los mashups, típicamente operan vía un conjunto de

APIs publicados por proveedores del sitio Web. Los APIs le permiten al mashup tomar información de varios sitios y mezclar características de múltiples fuentes.

CONVERGENCIA

Finalmente, podemos concluir que el futuro de la WEB se basa primeramente en la convergencia de la Semantic Web, Web de confianza y la Web 2.0, seguido todo ello por la sintonización con GRIDs. Esto combina lo que lla-mamos e-infrastructure, la cual permite más o menos ac-ceso ilimitado a la información, procesamiento de nego-cio, entretenimiento, educación, investigación entre otras tecnologías.

El desarrollo de Web Services proporciona interfases de programación de aplicaciones (API), que permiten la pro-gramación de la Web, más que simple autoría o generación de contenido. Con la codificación XML de información, así como el trabajo colaborativo, incluyendo flujos de traba-jo, esto es posible. También es posible considerar la in-cursión de SOAP (Service-Oriented Architecture), la cual lleva a tiempos de desarrollo de aplicaciones más corto y mantenimientos más sencillos. Sin embargo, éste también permite la descripción de metadatos y el descubrimiento y uso de servicios y procesos de negocio. Existe una gran explosión en la oferta de metadatos en este dominio y la estandarización es necesaria, ver figura 7.

Figura 6. Modelo clásico de aplicaciónvs. modelo Ajax de aplicaciones Web.

Figura 7. Nuevo Paradigma de desarrollo para aplicaciones y Web Services que usan OWL-S

Referencias:

1.Bettina Berent , A Roadmap for Web Mining: From Web to Semantic Web.2.BBC News, The really simple future of the Web.3. ZDNet.co.uk. Web evolution by number4.Michalski, R. Bratko, I (eds), M.K: Machine Learning and Data Mining: methods and applications. Jhon Wiley and Sons, Chicherster (1998). 5 Kleinberg, J.M.: Authorative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632.

Figura 8. Web 2.0, hacia una

convergencia unificada

de la Web.

Cada día que transcurra, la sociedad y las empresas se moverán hacia una Web más inteligente e interactiva, basada en Web 2.0.

videoconferencias por internet y en reuniones sociales en mundos virtuales; y en el otro sentido, aplicaciones de internet apoyan la vida social real, como el sitio llamado Meetup [3] que se utiliza para planear por internet reunio-nes presenciales. Se comienza a hablar de Mixed Reality,

un término que incluye todas las aplicaciones que com-

binan elementos virtuales y reales.

CONOCIMIENTO Y DEMOCRATIZACIÓN

¿Cuál es el impacto de toda esta socialización virtual en la generación de conocimiento? Pues ésta se hace democráti-ca en varios sentidos: primero, al facilitar que cualquier persona con acceso a internet genere conocimiento; se-gundo, al facilitar que el conocimiento más valioso para la comunidad se haga más conocido por medio de los siste-mas de recomendaciones y de votaciones sobre produc-tos, servicios y las mismas recomendaciones; y tercero, al facilitar que grupos de personas generen conocimiento en forma colaborativa, como sucede en la famosa enciclope-dia gratuita, la Wikipedia.

A veces, las votaciones por los conocimientos más valio-sos son calculadas en forma transparente por la propia tecnología. Por ejemplo, considerando que cada liga a una página o cada cita a un artículo científico es una especie de voto a favor de la página o artículo correspondiente, los motores de búsqueda cuentan estos votos para deter-minar cuáles sitios o artículos son los más relevantes para la comunidad.

IMPACTO SOCIOECONÓMICO

Hablemos ahora del impacto social y económico de las aplicaciones sociales, por ejemplo entre los jóvenes. No cabe duda que la juventud de hoy se mueve con gran

facilidad entre el mundo virtual y el mundo real. danah boyd, quien se ha dedicado a entrevistar a jóvenes de todo Estados Unidos para investigar su uso de la tecnología so-cial, relata cómo una típica joven norteamericana adquiere su ropa hoy en día [4]:

Utilizando Google y una variedad de sitios para com-pras en línea, Mary investiga qué estilos le gustan y qué está de moda. Enseguida va con sus amigas al Mall con su cámara digital. Se prueban los vestidos y se sacan fotos. Re-gresando a casa, Mary sube sus fotos a Facebook y les pre-gunta a sus amigos y amigas virtuales cuál les gusta más. Entonces toma una decisión y en lugar de regresar al Mall, busca y compra el mismo vestido en línea, más barato, uti-lizando el nombre del fabricante y el número de producto que anotó cuando estaba en la tienda.

El impacto social de la tecnología es modulado por los programadores que desarrollan aplicaciones sociales y por las compañías de software que los contratan. La

misma danah boyd reporta [5] sobre lo que parecía un pequeño cambio que se hizo a la aplicación de MySpace, similar a Facebook. En este tipo de aplicaciones, la gente puede declarar públicamente quiénes son sus amigos. A los programadores de MySpace se les ocurrió proporcio-nar a los usuarios una facilidad adicional que les permitía identificar a sus ocho Top Friends –sus mejores amigos-, y además poner en orden esa lista de top friends. Pueden ustedes imaginarse las ofensas, discusiones, “cortes” y reconciliaciones que esto originó en la comunidad en me-nos de una semana –por los que no quedaban incluidos en la exclusiva lista o por el orden en que habían quedado: ¿Quée?!! ¿Yo soy tu tercera mejor amiga? ¡Yo te puse en primer lugar en mi lista!

Este detalle nos indica: primero, que las convencio-

nes sociales del mundo real cambian al trasladarse al

mundo virtual; y segundo, habla sobre el poder de los

programadores para influir en la cultura social de un

sitio.

Lawrence Lessig, en su libro Code [6], proporciona va-rios ejemplos sobre cómo las decisiones que se toman sobre la arquitectura de software del internet y la pro-gramación de las aplicaciones afectan de manera decisiva aspectos sociales tan importantes como la privacidad, la identidad y las amistades, entre otros. Los programadores futuros tendrán que estar preparados en psicología y so-ciología; no sólo en la programación de computadoras.

1.-Dato tomado de varias fuentes por los autores del artículo en Wikipedia sobre Usenet, http://en.wikipedia.org/wiki/Usenet2.- En un social network site tal como Facebook, MySpace y otros, los miembros de la comunidad del sitio pueden desarrollar páginas personales o “perfiles” que representan su identidad virtual e incluyen datos como nombre o pseudónimo, fotografía, intereses etcétera. En su perfil, pueden también incluir una lista pública de sus amigos, y contactar a los amigos de sus amigos, formando extensas redes sociales. Los amigos pueden enterarse de cualquier modificación al perfil, y enviarse mensajes que se reciben en la misma página del perfil.3.- En Meetup (http://www.meetup.com) se pueden anunciar y buscar reuniones presenciales que ocurren en cualquier ciudad del mundo y que se organizan alrededor de tópicos de interés. 4.- danah boyd está terminando su doctorado en redes sociales virtuales en la Universidad de Berkeley. Ese comentario aparece en su blog, http://www.zephoria.org/thoughts/archives/2008/01/10/technology_and.html5.- danah boyd. Friends, friendsters, and top 8: Writing community into being on social network sites. First Monday, volume 11, number 12 (December 2006) http://firstmonday.org/issues/issue11_12/boyd/index.html6.- Lessig, Lawrence. Code. Basic Books 1999. La palabra code es una referencia a “código fuente”, que es como los programadores nombran al conjunto de instrucciones de un programa de computadora

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP

22y51.indd 1 26/02/2008 17:06:49

Page 54: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB52 CONOCIMIENTO TECNOLOGÍAS WEB 21

y OIL llevaron a la recomendación de OWL para la cons-trucción de ontologías que puedan ser usadas en asistir las interoperaciones (o para validar una entrada, mejorar un query y responder una explicación). Hay todavía mucho camino por recorrer, pero los problemas semánticos son

gradualmente administrables en el ambiente Web, (ver figura 3).

La Semantic Web es una iniciativa reciente inspirada por Tim Bernes-Lee, para hacer de la Web un sistema dis-tribuido que facilite la representación de conocimiento. El objetivo de la Semantic Web es no solamente soportar el acceso a la información en la Web a través de ligas o mo-tores de búsqueda, sino que también soporten su uso y utilidad, facilitando la búsqueda de documentos que em-paten con las palabras clave; esto se puede lograr a través de combinar información para contestar preguntas tales como: Dame un plan para viajar a Hawai.

de súper alta calidad y audio de salida. Esto ha empujado a la tecnología a proveer de dispositivos inteligentes con respecto a los objetivos y demandas de los usuarios.

WEB 2.0

El potencial de la Web como una plataforma para la in-teracción y cooperación está emergiendo con las ideas del llamado Web 2.0. Esto incluye no solamente el uso de servicios, sino también la participación de los usuarios individualmente y colectivamente (inteligencia colectiva). Esto puede ocurrir, por ejemplo, a través de los blogs y Wikis con etiquetas, carga rápida de páginas e interaccio-nes, usando tecnología AJAX, acceso a múltiples fuentes de información y su integración a través de “mashups”, conectividad peer-to-peer y el agresivo incremento de tec-

MOBILE WEB

El incremento en la capacidad de los dispositivos “hand-held” y las redes ha dado lugar a la demanda de acceso a la Web en los dispositivos móviles. Las posibilidades incluyen entrada de datos de dispositivos adjuntos (video), videos

Figura 3. Arquitectura tecnológica para WEB Semantic

Figura 4. Aprovechamiento de la inteligencia colectiva a través de dispositivos móviles.

nologías inteligentes (ver figura 5). El Web 2.0 es básica-

mente un nuevo camino para explotar las tecnologías

de Internet, tales como XML y Javascript, facilitando la

participación, interacción y colaboración entre: usuari-

os, proveedores de contenido y negocios, en compara-ción con el concepto tradicional de páginas Web estáticas.Hoy en día las aplicaciones del Web 2.0 son abiertamente accesibles y generadas dinámicamente. Esto las hace más interesantes, pero con mayor riesgo en la seguridad. Los hackers pueden agregar contenido malicioso o explotar la vulnerabilidad en los sitios Web 2.0.

AJAX

Ajax (asyncronous Javascrip and XML) es una técnica de programación, para la creación de aplicaciones de Internet ricas e interactivas, que actúan como aplicaciones de escri-torio. Ajax utiliza Javascript asíncrono, una tecnología

de plataforma cruzada en donde una página HTML pu-

ede acceder a un documento XML a través de llamadas

asíncronas al servidor del cual fue cargado. Esta capaci-dad permite que una aplicación haga una llamada al servi-dor, traiga nuevos datos y de manera simultánea actualice la página Web sin necesidad de recargar el contenido, todo mientras el usuario continúa interactuando con la apli-cación (ver figura 6).

Figura 5. Mapa mental de la WEB 2.0

El nuevo arte y ciencia de la WIKINÓMICA, -acu-ñando esta palabra en el español moderno o pos-moderno (WIKINOMICS, en inglés)-, está basado

en cuatro nuevas y poderosas ideas: apertura (openess en inglés), trabajo entre iguales (peering), compartir (shar-

ing) y globalidad (acting globally), nos dicen Don Tap-scott y Anthony D. Williams en su muy interesante libro titulado: WIKINOMICS: How Mass Collaboration Changes Everything, Portafolio, USA, 2006.

En este breve artículo no intentaré hacer una reseña completa del libro, porque requeriría mucho más espacio,

WIKINÓMICA:

Juan Lauro Aguirre Villafaña

aunque me gustaría hacerlo. Sin embargo, trataré de es-clarecer la importancia de esta nueva área de reflexión, pero sobre todo de acción; de un nuevo tipo de acción, realizada colectivamente por miles, quizá millones y hasta miles de millones de personas, a través del Internet.

COMUNIDADES VIRTUALES

A principios de este siglo, lo cual ocurrió hace solamente poco más de ocho años, se pensaba que las comunidades virtuales nunca podrían tener la capacidad para la crea-ción de valor que tienen las comunidades reales.

Pero, sólo en los últimos pocos años, la colaboración tradicional –en una sala de juntas, dentro de una confe-rencia, aun dentro de un centro de convenciones– ha sido superada por una colaboración en escala astronómica, nos dicen esos autores en la solapa del libro.

La revolución participativa que está ocurriendo ac-tualmente abre nuevas posibilidades para que billones de personas jueguen roles activos en sus lugares de trabajo, comunidades, democracias nacionales, y en la economía global en gran escala. Esto tiene profundos beneficios socia-les, incluyendo la oportunidad de hacer que los gobiernos sean más transparentes y responsables (accountable) y pue-dan sacar de la pobreza a millones de personas, aseguran los autores.

Volvamos a los cuatro pilares de la WIKONÓMICA, para tratar de entender este fenómeno, que muy posiblemente, dentro de 20 años, haga que estos primeros años del Siglo XXI sean considerados como un punto de inflexión en la historia económica y social de la humanidad.

APERTURA

En 1999, Rob McEwen, director general (CEO, por sus si-glas en inglés) de la compañía minera Canadiense Gold-corp, Inc, en una reunión con todos sus geólogos, quienes estaban en espera de las peores noticias, porque las evi-dencias indicaban que las reservas de oro en sus minas estaban a punto de agotarse, les dijo:

Quiero que saquemos toda nuestra geología, todos los datos que hemos acumulado desde 1948, que los pongamos en un archivo y que los compartamos con todo el mundo, y luego agregó: le preguntaremos a todo el mundo en dónde vamos a encontrar los próximos seis millones de onzas de oro.

Cuando trabajé para el Grupo Vitro como gerente de la Unidad de Desarrollo de Materias Primas, en años de la década de 1980, fui responsable de coordinar el tra-

Doctor Juan Lauro Aguirre Villafaña

Director de Prospectiva Científica

y Tecnológica / CECyTENL

[email protected]

52y21.indd 1 26/02/2008 17:06:34

CONOCIMIENTOTECNOLOGÍAS WEB20 CONOCIMIENTO TECNOLOGÍAS WEB 53

Es imposible imaginar la vida moderna sin la Web. Esta tecnología ha venido a ser simple y elegante, y se ha posicionado en nuestra actividad diaria, al

punto de ser la fábrica central de información hoy en día (ver figura 1). Es difícil reconocer que en las dos últimas

décadas una herramienta de laboratorio, se haya posi-

cionado estratégicamente en la actividad diaria de los

humanos, al grado se llegar a ser tan indispensable para todos en casi todos los ámbitos de actividad productiva de las personas y las organizaciones.

te-servidor, lo cual produjo que el modelo cliente-servidor fuera desplazado por un nuevo modelo de tres niveles de arquitectura.

Los Web services con XML permiten en la actualidad la transferencia de datos e incrementan la capacidad de flujo de datos en las organizaciones. El acceso Web a través de

dispositivos móviles viene a ser posible y las iniciativas

de “Mobile Web” han sido promovidas y reforzadas por

las actividades realizadas por el W3C (World Wide Web

Consortium), que proporciona foros para consulta entre sus miembros, y promueve recomendaciones y estándares que hagan más efectiva la Web.

Algunas de las iniciativas mundiales que continuarán revolucionando la Web en el futuro cercano son:

WEB BASADA EN LA CONFIANZA

Con conocimientos en PICS (Platform for Internet Content Selection), un grupo de investigadores ha desarrollado sistemas para confianza y seguridad en el ambiente Web. La definición del formato de documento estándar (usando XML) ha permitido el intercambio de información acerca de compañías, productos y servicios. Asimismo, el proveer de SLAs (service level agreement) ha permitido basar e incre-mentar el nivel de confianza en la Web. El encriptamiento del contenido de las páginas codificación/decodificación ha sido uno de los mayores esfuerzos en la seguridad. El tema de privacidad se ha direccionado a través técnicas de autentificación (también la restricción) de usuarios a métodos para autorizar accesos, (ver figura 2).

Hacia un futuro evolutivo de la Web

Durante los primeros días de la Web, la comunidad Web trabajó aspectos como: integración de bases de datos Web (desatando la explosión de e-business), especialmente el modelo del B2C (Business to Customer), así como las hojas de estilo para asistir las presentaciones consistentes.

Conforme el tiempo ha avanzado, la Web ha venido progresando en sus problemas de accesibilidad. Se han desarrollado recomendaciones en las temáticas de gráfi-cas, tales como PNG y SVG. La sincronización multimedia también fue desarrollada (SMIL). Los equipos de investiga-dores alrededor del mundo estuvieron trabajando sobre los temas de: confianza, seguridad y los metadatos, para describir páginas WEB, enfatizando en una Web de con-fianza y la Web semántica.

NIVELES DE ARQUITECTURA

El desarrollo de Java permitió la producción de applets y servlets, enfocados principalmente a los ambientes clien-

Figura 1. La Web, el gran repositorio mundial.

Figura 2. Arquitectura de la información en la Web basada en la confianza

SEMANTIC WEB

El Desarrollo de Resource Description Framework (RFD), esencialmente como una representación binaria, ha per-mitido mayor expresividad a ser codificada en aplicacio-nes Web. Los lenguajes para ontologías tales como: DAML

José Aldo Díaz Prado

Doctor José AldoDíaz Prado

Dirección de Competitividad

TecnológicaDirección de

Investigación y Posgrado

ITESM Campus Monterrey

bajo de un grupo de 12 magníficos geólogos. De todos nuestros yacimientos en operación y de muchos otros en exploración teníamos toneladas de datos químicos y físico-químicos geo-referenciados; o sea, conocíamos, o creíamos conocer cada porción de nuestros yacimientos hasta profundidades de más de cien metros, mucho antes

de explotarlos. Esos datos eran considerados nuestro te-

soro más preciado, aunque solamente se trataba de arena silica, feldespatos y otros minerales industriales. No de

oro.

Imaginen ustedes la reacción de los geólogos de la Goldcorp en el momento en que su director les dijo que había que abrir sus bases de datos a todo el mundo, en una especie de concurso global, para encontrar el oro

oculto en sus propios yacimientos.

¿Qué sucedió después? Que el concurso se llevó a cabo, que los concursantes, por supuesto geólogos y matemáti-cos localizados en cualquier parte del mundo, identifi-caron 110 lugares en la mina Red Lake, 50 por ciento de los cuales no habían sido previamente identificados por la compañía. Del 80 por ciento de ellos se obtuvieron canti-dades considerables de oro que hicieron que la compañía, en lugar de perder cien millones de dólares, ganara nueve mil millones. ¡Qué belleza! Creo que con esto entendemos bien el significado de la palabra apertura. Lo que crees

que es tu máximo tesoro y por ello lo escondes… ábrelo

a todo el mundo.

ACTIVIDAD ENTRE IGUALES

A través de toda la historia de la humanidad, las jerar-quías, de una forma u otra, han sido los motores primarios para la generación de riqueza y han sido el modelo para instituciones tales como la iglesia, la milicia y el gobierno. Tan impregnados estamos del modelo jerárquico, que la mayoría de las personas suponen que no existen alterna-tivas viables… Aunque es improbable que las jerarquías desaparezcan dentro de un futuro previsible, una nueva forma horizontal de organización está emergiendo… esta nueva forma de organización se denomina actividad entre

iguales (peering).

El ejemplo por excelencia de la actividad entre iguales es el desarrollo del lenguaje de computación llamado Linux.

Hace más de 15 años conduje un seminario titulado: “Colaborar y Pensar: En ese orden”. Aún recuerdo cuando un participante se acercó y me dijo: “a mí me gusta que otros colaboren conmigo, pero reconozco que no me gusta mucho colaborar con otros”. Las actividades entre iguales son la base de la auto-organización, de la cual nadie sabe

cuáles son sus alcances, pero todos están buscando al-

canzarlos.

COMPARTIR

Ya en los ejemplos exitosos anteriores vimos que tanto la

La historia de Linux, según Tapscott

y Williams, en pocas palabras, es

la siguiente: En 1991, antes de que

fuera inventada la Internet (World Wide

Web, en inglés), un joven programador

de Helsinki, llamado Linus Torvalds, creó

una versión simple del sistema operativo

Unix. Lo llamó Linus y lo compartió con

otros programadores a través de un

tablero de mensajes en línea. De los diez

programadores con los que se comunicó,

cinco le hicieron cambios sustanciales.

Torvalds decidió después licenciar el sistema

operativo a través de una licencia general

pública, de forma que cualquiera lo pudiera usar en forma gratuita, con la

condición de hacer públicos los cambios realizados… Dado que es muy confiable

y gratuito, el Linux ha llegado a ser un útil sistema operativo para computadoras

que hospedan servidores de Internet y bases de datos, y en la actualidad muchas

compañías consideran a Linux como una pieza clave de su software.

Linux es la denominación de un sistema operativo tipo Unix (también conocido

como GNU/Linux) y el nombre de un núcleo. Es uno de los ejemplos más

prominentes del software libre y del desarrollo del código abierto, cuyo

código fuente está disponible públicamente, para que cualquier persona

pueda libremente usarlo, estudiarlo, redistribuirlo, comercializarlo y, con los

conocimientos informáticos adecuados, modificarlo.

Las variantes de los sistemas Linux de denominan “distribuciones” (distro) y su

objetivo es ofrecer una edición que cumpla con las necesidades de determinado

grupo de usuarios, de esta forma existen distribuciones para hogares, empresas

y servidores. Algunas son gratuitas y otras de pago, algunas insertan software

no libre y otras contienen solo software libre.

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades

de sistema y bibliotecas del proyecto GNU con el núcleo Linux, creado por

Linus Torvalds, con la colaboración de cientos de co-desarrolladores y que se

distribuye bajo la Licencia Pública General de GNU. Desde finales del 2000 se

ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como

IBM, Sun Microsystems, Hewlett-Packard, y Novell. Algunos de ellos (como Dell,

Hewlett-Packard, Lenovo y Acer) lo incluyen pre-instalado en algunos modelos

de computadoras portátiles y de escritorio para el usuario final. El respaldo

de las compañías de software también está presente, ya que -entre otras

aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe

Flash, RealPlayer, Silverlight y Yahoo! Messenger están disponibles para Linux.

Linux puede instalarse en computadores de escritorio (PCs x86 y x86-64 así

como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares,

portátiles, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3,

PlayStation Portable, Dreamcast, GP2X...) y otros, sin embargo su mayor

desarrollo se ha llevado a cabo en los servidores y supercomputadores.

La marca registrada Linux (Número de serie: 1916230) pertenece a Linus

Torvalds y se define como “un sistema operativo para computadoras que

facilita su uso y operación”. Existen grupos de usuarios del sistema Linux en

casi todas las áreas del planeta.

Linux

20y53.indd 1 26/02/2008 17:06:13

Page 55: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB52 CONOCIMIENTO TECNOLOGÍAS WEB 21

y OIL llevaron a la recomendación de OWL para la cons-trucción de ontologías que puedan ser usadas en asistir las interoperaciones (o para validar una entrada, mejorar un query y responder una explicación). Hay todavía mucho camino por recorrer, pero los problemas semánticos son

gradualmente administrables en el ambiente Web, (ver figura 3).

La Semantic Web es una iniciativa reciente inspirada por Tim Bernes-Lee, para hacer de la Web un sistema dis-tribuido que facilite la representación de conocimiento. El objetivo de la Semantic Web es no solamente soportar el acceso a la información en la Web a través de ligas o mo-tores de búsqueda, sino que también soporten su uso y utilidad, facilitando la búsqueda de documentos que em-paten con las palabras clave; esto se puede lograr a través de combinar información para contestar preguntas tales como: Dame un plan para viajar a Hawai.

de súper alta calidad y audio de salida. Esto ha empujado a la tecnología a proveer de dispositivos inteligentes con respecto a los objetivos y demandas de los usuarios.

WEB 2.0

El potencial de la Web como una plataforma para la in-teracción y cooperación está emergiendo con las ideas del llamado Web 2.0. Esto incluye no solamente el uso de servicios, sino también la participación de los usuarios individualmente y colectivamente (inteligencia colectiva). Esto puede ocurrir, por ejemplo, a través de los blogs y Wikis con etiquetas, carga rápida de páginas e interaccio-nes, usando tecnología AJAX, acceso a múltiples fuentes de información y su integración a través de “mashups”, conectividad peer-to-peer y el agresivo incremento de tec-

MOBILE WEB

El incremento en la capacidad de los dispositivos “hand-held” y las redes ha dado lugar a la demanda de acceso a la Web en los dispositivos móviles. Las posibilidades incluyen entrada de datos de dispositivos adjuntos (video), videos

Figura 3. Arquitectura tecnológica para WEB Semantic

Figura 4. Aprovechamiento de la inteligencia colectiva a través de dispositivos móviles.

nologías inteligentes (ver figura 5). El Web 2.0 es básica-

mente un nuevo camino para explotar las tecnologías

de Internet, tales como XML y Javascript, facilitando la

participación, interacción y colaboración entre: usuari-

os, proveedores de contenido y negocios, en compara-ción con el concepto tradicional de páginas Web estáticas.Hoy en día las aplicaciones del Web 2.0 son abiertamente accesibles y generadas dinámicamente. Esto las hace más interesantes, pero con mayor riesgo en la seguridad. Los hackers pueden agregar contenido malicioso o explotar la vulnerabilidad en los sitios Web 2.0.

AJAX

Ajax (asyncronous Javascrip and XML) es una técnica de programación, para la creación de aplicaciones de Internet ricas e interactivas, que actúan como aplicaciones de escri-torio. Ajax utiliza Javascript asíncrono, una tecnología

de plataforma cruzada en donde una página HTML pu-

ede acceder a un documento XML a través de llamadas

asíncronas al servidor del cual fue cargado. Esta capaci-dad permite que una aplicación haga una llamada al servi-dor, traiga nuevos datos y de manera simultánea actualice la página Web sin necesidad de recargar el contenido, todo mientras el usuario continúa interactuando con la apli-cación (ver figura 6).

Figura 5. Mapa mental de la WEB 2.0

El nuevo arte y ciencia de la WIKINÓMICA, -acu-ñando esta palabra en el español moderno o pos-moderno (WIKINOMICS, en inglés)-, está basado

en cuatro nuevas y poderosas ideas: apertura (openess en inglés), trabajo entre iguales (peering), compartir (shar-

ing) y globalidad (acting globally), nos dicen Don Tap-scott y Anthony D. Williams en su muy interesante libro titulado: WIKINOMICS: How Mass Collaboration Changes Everything, Portafolio, USA, 2006.

En este breve artículo no intentaré hacer una reseña completa del libro, porque requeriría mucho más espacio,

WIKINÓMICA:

Juan Lauro Aguirre Villafaña

aunque me gustaría hacerlo. Sin embargo, trataré de es-clarecer la importancia de esta nueva área de reflexión, pero sobre todo de acción; de un nuevo tipo de acción, realizada colectivamente por miles, quizá millones y hasta miles de millones de personas, a través del Internet.

COMUNIDADES VIRTUALES

A principios de este siglo, lo cual ocurrió hace solamente poco más de ocho años, se pensaba que las comunidades virtuales nunca podrían tener la capacidad para la crea-ción de valor que tienen las comunidades reales.

Pero, sólo en los últimos pocos años, la colaboración tradicional –en una sala de juntas, dentro de una confe-rencia, aun dentro de un centro de convenciones– ha sido superada por una colaboración en escala astronómica, nos dicen esos autores en la solapa del libro.

La revolución participativa que está ocurriendo ac-tualmente abre nuevas posibilidades para que billones de personas jueguen roles activos en sus lugares de trabajo, comunidades, democracias nacionales, y en la economía global en gran escala. Esto tiene profundos beneficios socia-les, incluyendo la oportunidad de hacer que los gobiernos sean más transparentes y responsables (accountable) y pue-dan sacar de la pobreza a millones de personas, aseguran los autores.

Volvamos a los cuatro pilares de la WIKONÓMICA, para tratar de entender este fenómeno, que muy posiblemente, dentro de 20 años, haga que estos primeros años del Siglo XXI sean considerados como un punto de inflexión en la historia económica y social de la humanidad.

APERTURA

En 1999, Rob McEwen, director general (CEO, por sus si-glas en inglés) de la compañía minera Canadiense Gold-corp, Inc, en una reunión con todos sus geólogos, quienes estaban en espera de las peores noticias, porque las evi-dencias indicaban que las reservas de oro en sus minas estaban a punto de agotarse, les dijo:

Quiero que saquemos toda nuestra geología, todos los datos que hemos acumulado desde 1948, que los pongamos en un archivo y que los compartamos con todo el mundo, y luego agregó: le preguntaremos a todo el mundo en dónde vamos a encontrar los próximos seis millones de onzas de oro.

Cuando trabajé para el Grupo Vitro como gerente de la Unidad de Desarrollo de Materias Primas, en años de la década de 1980, fui responsable de coordinar el tra-

Doctor Juan Lauro Aguirre Villafaña

Director de Prospectiva Científica

y Tecnológica / CECyTENL

[email protected]

52y21.indd 1 26/02/2008 17:06:34

CONOCIMIENTOTECNOLOGÍAS WEB20 CONOCIMIENTO TECNOLOGÍAS WEB 53

Es imposible imaginar la vida moderna sin la Web. Esta tecnología ha venido a ser simple y elegante, y se ha posicionado en nuestra actividad diaria, al

punto de ser la fábrica central de información hoy en día (ver figura 1). Es difícil reconocer que en las dos últimas

décadas una herramienta de laboratorio, se haya posi-

cionado estratégicamente en la actividad diaria de los

humanos, al grado se llegar a ser tan indispensable para todos en casi todos los ámbitos de actividad productiva de las personas y las organizaciones.

te-servidor, lo cual produjo que el modelo cliente-servidor fuera desplazado por un nuevo modelo de tres niveles de arquitectura.

Los Web services con XML permiten en la actualidad la transferencia de datos e incrementan la capacidad de flujo de datos en las organizaciones. El acceso Web a través de

dispositivos móviles viene a ser posible y las iniciativas

de “Mobile Web” han sido promovidas y reforzadas por

las actividades realizadas por el W3C (World Wide Web

Consortium), que proporciona foros para consulta entre sus miembros, y promueve recomendaciones y estándares que hagan más efectiva la Web.

Algunas de las iniciativas mundiales que continuarán revolucionando la Web en el futuro cercano son:

WEB BASADA EN LA CONFIANZA

Con conocimientos en PICS (Platform for Internet Content Selection), un grupo de investigadores ha desarrollado sistemas para confianza y seguridad en el ambiente Web. La definición del formato de documento estándar (usando XML) ha permitido el intercambio de información acerca de compañías, productos y servicios. Asimismo, el proveer de SLAs (service level agreement) ha permitido basar e incre-mentar el nivel de confianza en la Web. El encriptamiento del contenido de las páginas codificación/decodificación ha sido uno de los mayores esfuerzos en la seguridad. El tema de privacidad se ha direccionado a través técnicas de autentificación (también la restricción) de usuarios a métodos para autorizar accesos, (ver figura 2).

Hacia un futuro evolutivo de la Web

Durante los primeros días de la Web, la comunidad Web trabajó aspectos como: integración de bases de datos Web (desatando la explosión de e-business), especialmente el modelo del B2C (Business to Customer), así como las hojas de estilo para asistir las presentaciones consistentes.

Conforme el tiempo ha avanzado, la Web ha venido progresando en sus problemas de accesibilidad. Se han desarrollado recomendaciones en las temáticas de gráfi-cas, tales como PNG y SVG. La sincronización multimedia también fue desarrollada (SMIL). Los equipos de investiga-dores alrededor del mundo estuvieron trabajando sobre los temas de: confianza, seguridad y los metadatos, para describir páginas WEB, enfatizando en una Web de con-fianza y la Web semántica.

NIVELES DE ARQUITECTURA

El desarrollo de Java permitió la producción de applets y servlets, enfocados principalmente a los ambientes clien-

Figura 1. La Web, el gran repositorio mundial.

Figura 2. Arquitectura de la información en la Web basada en la confianza

SEMANTIC WEB

El Desarrollo de Resource Description Framework (RFD), esencialmente como una representación binaria, ha per-mitido mayor expresividad a ser codificada en aplicacio-nes Web. Los lenguajes para ontologías tales como: DAML

José Aldo Díaz Prado

Doctor José AldoDíaz Prado

Dirección de Competitividad

TecnológicaDirección de

Investigación y Posgrado

ITESM Campus Monterrey

bajo de un grupo de 12 magníficos geólogos. De todos nuestros yacimientos en operación y de muchos otros en exploración teníamos toneladas de datos químicos y físico-químicos geo-referenciados; o sea, conocíamos, o creíamos conocer cada porción de nuestros yacimientos hasta profundidades de más de cien metros, mucho antes

de explotarlos. Esos datos eran considerados nuestro te-

soro más preciado, aunque solamente se trataba de arena silica, feldespatos y otros minerales industriales. No de

oro.

Imaginen ustedes la reacción de los geólogos de la Goldcorp en el momento en que su director les dijo que había que abrir sus bases de datos a todo el mundo, en una especie de concurso global, para encontrar el oro

oculto en sus propios yacimientos.

¿Qué sucedió después? Que el concurso se llevó a cabo, que los concursantes, por supuesto geólogos y matemáti-cos localizados en cualquier parte del mundo, identifi-caron 110 lugares en la mina Red Lake, 50 por ciento de los cuales no habían sido previamente identificados por la compañía. Del 80 por ciento de ellos se obtuvieron canti-dades considerables de oro que hicieron que la compañía, en lugar de perder cien millones de dólares, ganara nueve mil millones. ¡Qué belleza! Creo que con esto entendemos bien el significado de la palabra apertura. Lo que crees

que es tu máximo tesoro y por ello lo escondes… ábrelo

a todo el mundo.

ACTIVIDAD ENTRE IGUALES

A través de toda la historia de la humanidad, las jerar-quías, de una forma u otra, han sido los motores primarios para la generación de riqueza y han sido el modelo para instituciones tales como la iglesia, la milicia y el gobierno. Tan impregnados estamos del modelo jerárquico, que la mayoría de las personas suponen que no existen alterna-tivas viables… Aunque es improbable que las jerarquías desaparezcan dentro de un futuro previsible, una nueva forma horizontal de organización está emergiendo… esta nueva forma de organización se denomina actividad entre

iguales (peering).

El ejemplo por excelencia de la actividad entre iguales es el desarrollo del lenguaje de computación llamado Linux.

Hace más de 15 años conduje un seminario titulado: “Colaborar y Pensar: En ese orden”. Aún recuerdo cuando un participante se acercó y me dijo: “a mí me gusta que otros colaboren conmigo, pero reconozco que no me gusta mucho colaborar con otros”. Las actividades entre iguales son la base de la auto-organización, de la cual nadie sabe

cuáles son sus alcances, pero todos están buscando al-

canzarlos.

COMPARTIR

Ya en los ejemplos exitosos anteriores vimos que tanto la

La historia de Linux, según Tapscott

y Williams, en pocas palabras, es

la siguiente: En 1991, antes de que

fuera inventada la Internet (World Wide

Web, en inglés), un joven programador

de Helsinki, llamado Linus Torvalds, creó

una versión simple del sistema operativo

Unix. Lo llamó Linus y lo compartió con

otros programadores a través de un

tablero de mensajes en línea. De los diez

programadores con los que se comunicó,

cinco le hicieron cambios sustanciales.

Torvalds decidió después licenciar el sistema

operativo a través de una licencia general

pública, de forma que cualquiera lo pudiera usar en forma gratuita, con la

condición de hacer públicos los cambios realizados… Dado que es muy confiable

y gratuito, el Linux ha llegado a ser un útil sistema operativo para computadoras

que hospedan servidores de Internet y bases de datos, y en la actualidad muchas

compañías consideran a Linux como una pieza clave de su software.

Linux es la denominación de un sistema operativo tipo Unix (también conocido

como GNU/Linux) y el nombre de un núcleo. Es uno de los ejemplos más

prominentes del software libre y del desarrollo del código abierto, cuyo

código fuente está disponible públicamente, para que cualquier persona

pueda libremente usarlo, estudiarlo, redistribuirlo, comercializarlo y, con los

conocimientos informáticos adecuados, modificarlo.

Las variantes de los sistemas Linux de denominan “distribuciones” (distro) y su

objetivo es ofrecer una edición que cumpla con las necesidades de determinado

grupo de usuarios, de esta forma existen distribuciones para hogares, empresas

y servidores. Algunas son gratuitas y otras de pago, algunas insertan software

no libre y otras contienen solo software libre.

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades

de sistema y bibliotecas del proyecto GNU con el núcleo Linux, creado por

Linus Torvalds, con la colaboración de cientos de co-desarrolladores y que se

distribuye bajo la Licencia Pública General de GNU. Desde finales del 2000 se

ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como

IBM, Sun Microsystems, Hewlett-Packard, y Novell. Algunos de ellos (como Dell,

Hewlett-Packard, Lenovo y Acer) lo incluyen pre-instalado en algunos modelos

de computadoras portátiles y de escritorio para el usuario final. El respaldo

de las compañías de software también está presente, ya que -entre otras

aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe

Flash, RealPlayer, Silverlight y Yahoo! Messenger están disponibles para Linux.

Linux puede instalarse en computadores de escritorio (PCs x86 y x86-64 así

como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares,

portátiles, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3,

PlayStation Portable, Dreamcast, GP2X...) y otros, sin embargo su mayor

desarrollo se ha llevado a cabo en los servidores y supercomputadores.

La marca registrada Linux (Número de serie: 1916230) pertenece a Linus

Torvalds y se define como “un sistema operativo para computadoras que

facilita su uso y operación”. Existen grupos de usuarios del sistema Linux en

casi todas las áreas del planeta.

Linux

20y53.indd 1 26/02/2008 17:06:13

Page 56: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB54 CONOCIMIENTO TECNOLOGÍAS WEB 19

feliz cuando la mayor parte de sus miembros son pobres y desdichados”.

En realidad, no queremos que existan Leviatanes monopólicos y que solamente exista una verdad universal, sino que el libre juego de la oferta y la demanda hagan su

papel conjuntamente con cada uno de nosotros como usua-

rios, que no solamente somos pasivos, sino activos en la

transformación de los negocios sustentados en Web.

Los datos del Banco Mundial nos dicen que cada tec-nología es sinónimo de desarrollo económico, y a lo largo de la historia la adopción rápida o lenta de determinada tecnología, por cada país, se traduce en su crecimiento como nación.

Aunado a esto, y como lo comenta el Economist en su artículo de Of the internet cafés and power cuts, donde se remarca el estudio del Banco Mundial en el reporte “Global de Prospectos 2008”, se analiza la adopción de una tecnología al 80 por ciento en un determinado país, y podemos observar que de 1750 a 1900, al teléfono le tomó 150 años; al radio, de 1900 en adelante le tomó 60 años; a las computadoras personales, 20 años entre 1950 y 1975 y, por último, a los teléfonos celulares, entre 1975 y 2000, solamente 16 años.

Siguiendo lo antes dicho, podemos concluir diciendo que la convergencia en el modelo de negocios Web, vi-

endo en prospectiva, será el potenciar las característi-

cas de los smartphones, para que se conviertan en las

nuevas computadoras portátiles y se establezcan plata-formas perso-nalizadas de productos y servicios para las necesidades de cada individuo.

Además, se premiará a los emprendedores, a los crea-tivos y a los que estén dispuestos a crear mercados dis-ruptivos sin seguir modelos tradicionales de negocio, sino que se arriesguen a unir la innovación con la imaginación y desafiar a los gigantes, como David a Goliath. Todo lo que se necesita es una computadora y un buen acceso a Internet.

El límite será la tasa de procesamiento neuronal, pues la tasa computacional no tiene límites (aparentemente).

REFERENCIAS

Anderson, Chris; Why $0.00 is the Future Business, Wired Magazine, March 2008.

Briefing Technology in emerging economies, Of in-ternet cafés and power cuts, The Economist, Febru-ary 9th 2008.

www.wikipedia.org

apertura como las actividades entre iguales tienen mucha relación con el hecho de compartir, pero conviene ponerlo como un pilar separado por su efecto de convertir la com-

petencia en colaboración.

Así como en el ejemplo de Goldcorp, que decidió abrir

el tesoro de sus datos geológicos, muchas compañías están decidiendo compartir el tesoro de su propiedad intelec-tual, o sea de sus patentes y secretos industriales. Hoy en día, prevalece una nueva economía de la propiedad intelec-tual. Cada vez más compañías, hasta un grado paradójico, en las áreas electrónica, biotecnológica y otros campos, se dan cuenta de que mantener y defender un sistema propio de propiedad intelectual, a menudo debilita su habilidad para generar valor.

Por ejemplo, a partir de 1999, más de una docena de empresas farmacéuticas decidieron compartir sus proyec-tos de investigación basados en sus propias patentes y secretos para apoyar consorcios de colaboración abierta, tales como el Consorcio SNP y la Alianza para Señalamien-to Celular.

GLOBALIDAD

Thomas Friedman, en su libro El Mundo es Plano (The World is Flat) hizo entendible para el gran público el sig-nificado de la nueva globalización. Sin embargo, la veloci-dad con la que está avanzado en relación a la innovación

y la creación de riqueza todavía no nos permite entender todos sus alcances y consecuencias.

En los últimos 20 años de globalización, hemos visto la liberalización económica de China y la India, y el colapso, y los intentos de resurgimiento, de la Nueva Unión Sovié-tica, así como la primera etapa de la revolución mundial de las tecnologías de la información. Los próximos 20 años de globalización seguramente ayudarán al sostenimiento de la economía mundial, al aumento de los estándares de vida, y aumentará sustancialmente la interdependencia global.

Ralph Szygenda, director de Informática (CIO, por sus siglas en inglés) de General Motors, dice: La mayoría de las grandes corporaciones son multinacionales, pero no son globales, y en forma creciente eso representa un gran problema.

Por definición, una compañía verdaderamente global

no tiene fronteras físicas o regionales. Construye eco-

sistemas planetarios para diseñar, para proveerse de in-

sumos, para ensamblar y distribuir sus productos sobre

una base global.

El mundo está repleto de posibilidades para la edu-cación, el trabajo, y la empresarialidad –lo único que se requiere son habilidades, motivación, la capacidad para aprender durante toda la vida, y un nivel básico de ingreso para conectarse.

ALGUNOS CASOS DE ÉXITO DE LA WIKINÓMICA

Seguramente algunos nombres de los que se mencionan a continuación le resulten familiares. Se trata de empresas de éxito en los años recientes, gracias

a la Wikinómica:

Wikipedia

A estos casos se pueden sumar muchos otros, menos conocidos, más los que se acumulen en las próximas semanas. Si no sabe usted de qué se trata en

cada uno de ellos, ya es hora de que los busque en Internet. Después de todo, ya es hora de que los Mexicanos le entremos de frente a la Wikinómica.

MySpace Flickr

Second Life YouTube InnoCentive Human Genome Project

54y19.indd 1 26/02/2008 17:05:57

CONOCIMIENTOTECNOLOGÍAS WEB18 CONOCIMIENTO TECNOLOGÍAS WEB 55

SECOND LIFE

Vivimos también dentro de espacios vir-tua-les, como es el caso de Second Life, mejor conocido como “SL”, que es un mundo virtual que permite a los usuarios recrearse o tener una segunda vida en este lugar. Se basa en que cada uno de los usu-arios o “residentes” crean su avatar (repre-sentación del usuario, de su otro yo, en un

modelo computacional tridimensional) para comenzar a vivir en este mundo virtual.

Es interesante observar que SL tiene su propia

economía y moneda que son los dólares Linden, conoci-

dos como $L y todos los residentes pueden hacer nego-

cio entre sí. De acuerdo con Spencer Reiss, Virtual Econo-mics calculó que tan sólo en el mes de septiembre de 2005, la economía de Second Life generó en transacciones alre-dedor de tres millones 596 mil 674 dólares. Esto, toman-do un tipo de cambio de 252 Linden dólar, equivalente a un dólar americano.

Pero todavía nos falta tratar un tema muy interesante en el modelo de negocios Web, y esto es lo que Chris An-dersen trata en su artículo “Why $0.00 is the Future of Busi-ness” en Wired, donde se analiza la ciencia de lo gratis. Veamos la taxonomía de lo gratis, de acuerdo con Ander-sen:

a) Freemium. Lo gratis aquí es el software y servicios, así como algo de contenido. La idea básica en Web es lo que llaman la regla del uno por ciento sobre el 99 por cien-to. Esto indica que el uno por ciento de los usuarios que paga por un servicio o software puede mantener al 99 por ciento que tiene la versión gratis.

b) Advertising. Aquí son gratis el contenido, el soft-ware, los servicios y más. Se basa en el principio de que los ofrecimientos gratis crean audiencias con distintos intere-ses, y de que, expresando sus necesidades, los mercadólo-gos pagarán por conocerlos y llegar a ellos.

c) Cross-subsidies. Se pone un producto gratis que pue-de enganchar a los usuarios para que compren otro.

d) Labor Exchange. Lo gratis son los sitios de Internet y los servicios. Al usar el servicio Web, se crea un valor, ya sea para mejorar el servicio o acumulando información que puede ser útil en otro lugar.

e) Zero Marginal Cost. Productos que se distribuyen sin algún costo apreciable para los consumidores. Un ejemplo claro es cuando los artistas ponen su música en línea gratis y de esa forma pueden poner en el mercado otros productos.

f) Gift Economy. Todo lo denominado open source o el contenido generado por los usuarios. El ejemplo más claro es la tradicional Wikipedia.

NEGOCIOS DEL FUTURO

Otra de las vertientes en los negocios del futuro son aqué-llos como CBS, que planea ofrecer publicidad basada en la localización de la persona por medio de su teléfono móvil; es decir, analizando los gustos y preferencias de los con-sumidores, la publicidad será personalizada, indicándoles a los usuarios dónde pueden encontrar un producto o ser-vicio de su preferencia.

Google va más allá, y ya trabaja en un buscador de voz para los celulares. Me imagino que uno, como usua-rio, puede realizar una búsqueda, pero de voz, para que no sólo se nos diga el lugar donde se encuentra el satisfactor que buscamos, sino que también por medio de “Google maps” se nos lleve de la mano, con GPS, sumado con las coordenadas de nuestro teléfono, al lugar donde podemos adquirir ese producto o servicio.

Según el artículo de Chris Andersen en Wired y los da-tos de Jingle Networks, Linguistic Data Consortium, Opus Research, el ingreso esperado para Google aunado a este servicio de búsqueda en los celulares será de 2.5 mil mil-lones de dólares en el año 2012.

Pero el verdadero beneficio de los modelos de nego-cios basados en Web es su búsqueda por democratizar la economía, por darles poder a los consumidores y eliminar el que ostentan las corporaciones, así como buscan comul-gar con lo que ha dicho el padre escocés de la economía, Adam Smith: “No puede haber una sociedad floreciente y

co. Dicha evaluación analiza los Sitios Web del gobierno en función de cinco elementos: información, interacción, transacción, integración y participación. Esta evaluación se actualizó recientemente, y fue publicada por la revista Política Digital (Sandoval & Gil-García, 2006)

Estas evaluaciones han logrado que las autoridades pongan especial atención al desarrollo de sus portales, pero sin incluir explícitamente aspectos de usabilidad y de accesibilidad de la Web.

Por otro lado, el Centro de Investigación de la Web,

de la Universidad de Chile, indica que la usabilidad se

encuentra en una etapa de introducción en Iberoaméri-

ca. De acuerdo con lo anterior, se puede concluir que uno de los principales problemas en el rezago del área de la usabilidad ha sido su propia difusión (Baeza-Yates, Rivera & Velasco, 2004).

Ahora bien, ¿qué propone el Manifiesto de Usabi-

lidad y Accesibilidad para Portales Gubernamentales

Mexicanos?

El manifiesto

expresa los siguientes

puntos (UAWEB, 2007): 1. Asegurar el acceso

democrático, inclusive a

personas con discapacidad,

a los portales gubernamen-

tales, cumpliendo con los estándares del W3C.2. Facilitar la creación, el archivo y la administración del contenido utilizando sistemas accesibles. 3. Asegurar que el conteni-

do y los servicios sean fáciles de encontrar, descubrir

y usar según las mejores prácticas de diseño y desarrollo web.4. Garantizar la transparencia de la información, específi-camente en el uso de recursos públicos.

Actualmente, muchos gobiernos en el mundo están fortaleciendo sus estrategias en la web, donde el objetivo principal va más allá de ofrecer información

en línea. Ahora, el objetivo es ofrecer un portal ciudadano con herramientas y servicios personalizados, donde cada miembro de la sociedad tenga un papel más activo dentro de su gobierno y su propia comunidad.

En julio de 2007 se llevó a cabo en Monterrey, México el Seminario Internacional de Usabilidad y Accesibilidad para la Web. Este evento reunió a cerca de 250 asistentes, entre los que se encontraban administradores de portales gubernamentales de 23 de los 32 estados de la República Mexicana. A la conclusión del encuentro, se firmó el Mani-fiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos.

¿POR QUÉ UN MANIFIESTO?

Un manifiesto es un documento con una exposición o declaración pública de principios o motivos de un sec-tor gubernamental o social a través del cual reflejan sus creencias.

Este manifiesto expresa el compromiso que los tres diferentes niveles de gobierno (federal, estatal, local) seguirán en México para garantizar que la sociedad pueda aprovechar los beneficios de un portal gubernamental.

El manifiesto espera lograr dos objetivos: por un lado, expresa la intención de realizar esfuerzos concertados para mejorar la comunicación e interacción gobierno-so-ciedad; por otro lado, apoya el tercer artículo de la decla-ratoria realizada en el marco del Día Mundial de la Usabi-lidad (World Usability Day Charter, 2006), relacionado con el gobierno.

GOBIERNO ELECTRÓNICO EN MÉXICO

Existen diferentes rankings que evalúan los avances y logros de los países en cuanto al desarrollo de Gobierno Electrónico. En prácticamente todos ellos, México está

fuera de los primeros diez lugares.

En México se han empezado a medir los portales gu-

bernamentales estatales. A principios de 2006 se publicó

la Primera Evaluación de Portales Web Estatales en Méxi-

El Manifiestode Usabilidad y Accesibilidad para Portales Gubernamentales Mexicanos Luis Carlos Aceves Gutiérrez

Ingeniero Luis Carlos Aceves Gutiérrez Profesor del Departamento de Ciencias Computacionales Universidad de [email protected].

18y55.indd 1 26/02/2008 17:05:43

Page 57: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB18 CONOCIMIENTO TECNOLOGÍAS WEB 55

SECOND LIFE

Vivimos también dentro de espacios vir-tua-les, como es el caso de Second Life, mejor conocido como “SL”, que es un mundo virtual que permite a los usuarios recrearse o tener una segunda vida en este lugar. Se basa en que cada uno de los usu-arios o “residentes” crean su avatar (repre-sentación del usuario, de su otro yo, en un

modelo computacional tridimensional) para comenzar a vivir en este mundo virtual.

Es interesante observar que SL tiene su propia

economía y moneda que son los dólares Linden, conoci-

dos como $L y todos los residentes pueden hacer nego-

cio entre sí. De acuerdo con Spencer Reiss, Virtual Econo-mics calculó que tan sólo en el mes de septiembre de 2005, la economía de Second Life generó en transacciones alre-dedor de tres millones 596 mil 674 dólares. Esto, toman-do un tipo de cambio de 252 Linden dólar, equivalente a un dólar americano.

Pero todavía nos falta tratar un tema muy interesante en el modelo de negocios Web, y esto es lo que Chris An-dersen trata en su artículo “Why $0.00 is the Future of Busi-ness” en Wired, donde se analiza la ciencia de lo gratis. Veamos la taxonomía de lo gratis, de acuerdo con Ander-sen:

a) Freemium. Lo gratis aquí es el software y servicios, así como algo de contenido. La idea básica en Web es lo que llaman la regla del uno por ciento sobre el 99 por cien-to. Esto indica que el uno por ciento de los usuarios que paga por un servicio o software puede mantener al 99 por ciento que tiene la versión gratis.

b) Advertising. Aquí son gratis el contenido, el soft-ware, los servicios y más. Se basa en el principio de que los ofrecimientos gratis crean audiencias con distintos intere-ses, y de que, expresando sus necesidades, los mercadólo-gos pagarán por conocerlos y llegar a ellos.

c) Cross-subsidies. Se pone un producto gratis que pue-de enganchar a los usuarios para que compren otro.

d) Labor Exchange. Lo gratis son los sitios de Internet y los servicios. Al usar el servicio Web, se crea un valor, ya sea para mejorar el servicio o acumulando información que puede ser útil en otro lugar.

e) Zero Marginal Cost. Productos que se distribuyen sin algún costo apreciable para los consumidores. Un ejemplo claro es cuando los artistas ponen su música en línea gratis y de esa forma pueden poner en el mercado otros productos.

f) Gift Economy. Todo lo denominado open source o el contenido generado por los usuarios. El ejemplo más claro es la tradicional Wikipedia.

NEGOCIOS DEL FUTURO

Otra de las vertientes en los negocios del futuro son aqué-llos como CBS, que planea ofrecer publicidad basada en la localización de la persona por medio de su teléfono móvil; es decir, analizando los gustos y preferencias de los con-sumidores, la publicidad será personalizada, indicándoles a los usuarios dónde pueden encontrar un producto o ser-vicio de su preferencia.

Google va más allá, y ya trabaja en un buscador de voz para los celulares. Me imagino que uno, como usua-rio, puede realizar una búsqueda, pero de voz, para que no sólo se nos diga el lugar donde se encuentra el satisfactor que buscamos, sino que también por medio de “Google maps” se nos lleve de la mano, con GPS, sumado con las coordenadas de nuestro teléfono, al lugar donde podemos adquirir ese producto o servicio.

Según el artículo de Chris Andersen en Wired y los da-tos de Jingle Networks, Linguistic Data Consortium, Opus Research, el ingreso esperado para Google aunado a este servicio de búsqueda en los celulares será de 2.5 mil mil-lones de dólares en el año 2012.

Pero el verdadero beneficio de los modelos de nego-cios basados en Web es su búsqueda por democratizar la economía, por darles poder a los consumidores y eliminar el que ostentan las corporaciones, así como buscan comul-gar con lo que ha dicho el padre escocés de la economía, Adam Smith: “No puede haber una sociedad floreciente y

co. Dicha evaluación analiza los Sitios Web del gobierno en función de cinco elementos: información, interacción, transacción, integración y participación. Esta evaluación se actualizó recientemente, y fue publicada por la revista Política Digital (Sandoval & Gil-García, 2006)

Estas evaluaciones han logrado que las autoridades pongan especial atención al desarrollo de sus portales, pero sin incluir explícitamente aspectos de usabilidad y de accesibilidad de la Web.

Por otro lado, el Centro de Investigación de la Web,

de la Universidad de Chile, indica que la usabilidad se

encuentra en una etapa de introducción en Iberoaméri-

ca. De acuerdo con lo anterior, se puede concluir que uno de los principales problemas en el rezago del área de la usabilidad ha sido su propia difusión (Baeza-Yates, Rivera & Velasco, 2004).

Ahora bien, ¿qué propone el Manifiesto de Usabi-

lidad y Accesibilidad para Portales Gubernamentales

Mexicanos?

El manifiesto

expresa los siguientes

puntos (UAWEB, 2007): 1. Asegurar el acceso

democrático, inclusive a

personas con discapacidad,

a los portales gubernamen-

tales, cumpliendo con los estándares del W3C.2. Facilitar la creación, el archivo y la administración del contenido utilizando sistemas accesibles. 3. Asegurar que el conteni-

do y los servicios sean fáciles de encontrar, descubrir

y usar según las mejores prácticas de diseño y desarrollo web.4. Garantizar la transparencia de la información, específi-camente en el uso de recursos públicos.

Actualmente, muchos gobiernos en el mundo están fortaleciendo sus estrategias en la web, donde el objetivo principal va más allá de ofrecer información

en línea. Ahora, el objetivo es ofrecer un portal ciudadano con herramientas y servicios personalizados, donde cada miembro de la sociedad tenga un papel más activo dentro de su gobierno y su propia comunidad.

En julio de 2007 se llevó a cabo en Monterrey, México el Seminario Internacional de Usabilidad y Accesibilidad para la Web. Este evento reunió a cerca de 250 asistentes, entre los que se encontraban administradores de portales gubernamentales de 23 de los 32 estados de la República Mexicana. A la conclusión del encuentro, se firmó el Mani-fiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos.

¿POR QUÉ UN MANIFIESTO?

Un manifiesto es un documento con una exposición o declaración pública de principios o motivos de un sec-tor gubernamental o social a través del cual reflejan sus creencias.

Este manifiesto expresa el compromiso que los tres diferentes niveles de gobierno (federal, estatal, local) seguirán en México para garantizar que la sociedad pueda aprovechar los beneficios de un portal gubernamental.

El manifiesto espera lograr dos objetivos: por un lado, expresa la intención de realizar esfuerzos concertados para mejorar la comunicación e interacción gobierno-so-ciedad; por otro lado, apoya el tercer artículo de la decla-ratoria realizada en el marco del Día Mundial de la Usabi-lidad (World Usability Day Charter, 2006), relacionado con el gobierno.

GOBIERNO ELECTRÓNICO EN MÉXICO

Existen diferentes rankings que evalúan los avances y logros de los países en cuanto al desarrollo de Gobierno Electrónico. En prácticamente todos ellos, México está

fuera de los primeros diez lugares.

En México se han empezado a medir los portales gu-

bernamentales estatales. A principios de 2006 se publicó

la Primera Evaluación de Portales Web Estatales en Méxi-

El Manifiestode Usabilidad y Accesibilidad para Portales Gubernamentales Mexicanos Luis Carlos Aceves Gutiérrez

Ingeniero Luis Carlos Aceves Gutiérrez Profesor del Departamento de Ciencias Computacionales Universidad de [email protected].

18y55.indd 1 26/02/2008 17:05:43

Page 58: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB56 CONOCIMIENTO TECNOLOGÍAS WEB 17

Sumergido en sus pensamientos emprendedores, Alex Tew trataba de hallar la forma de conseguir dinero para cubrir su educación en la Universidad de Not-

tingham; sin embargo, no lograba ningún momento “Eu-reka” que lo convenciera. Pero, entre las múltiples ideas, y viendo que no tenía nada que perder, se le ocurrió crear un sitio Web, con la idea de vender un millón de “pixeles” (acrónimo del inglés picture element; es decir, “elemento de la imagen”).

Esta idea de negocio parecía no tener sentido alguno; sin embargo, de acuerdo con datos de Wikipedia, el sitio (http://www.milliondollarhomepage.com) fue lanzado el 26 de agosto de 2005, y para el 11 de enero de 2006 se vendieron los últimos mil pixeles en una subasta. Por in-creíble que parezca, Tew logró la grandiosa suma de un millón 37 mil cien dólares americanos, y lo mejor fue que esto ocurrió en tan sólo poco más de cuatro meses.

Es impresionante observar cómo, en este caso, el po-

der de la economía descansa en personas y no en cor-

poraciones; en emprendedores que logran descifrar la

psicología de compra del ser humano.

Lo anterior no es un caso aislado; todos los días siguen

Hacia una democratización de la economía

Modelos de negocios Web

MaestroRodrigo SotoConsultor Economía de las [email protected]

Rodrigo Soto

prosperando los modelos de negocios basados en la Web, y podemos mencionar diversos ejemplos al respecto.

EL CASO DE FACEBOOK Y SU CREADOR

Vivimos en la economía de Mark Zuckerberg, creador de la red social de Facebook (www.facebook.com), a la cual

Microsoft, según datos del New York Times, recientemente compró la insignificante cantidad del 1.6 por ciento, por un monto de 240 millones de dólares. ¿Qué está comp-rando Microsoft en este caso? ¿Lealtad de consumidores? ¿Exposición de su marca?

Los datos de Wikipedia arrojan algunas estadísticas in teresantes sobre Facebook:Usuarios activos: Sobrepasa los 60 millones

Usuarios al día: 250 mil

Búsquedas: Sobrepasa 500 millones al mes

Fotos: 1.7 mil millones

Sin embargo, lo más interesante de este modelo Web es que los usuarios se pueden inscribir de forma gratuita en el sitio, con el objetivo de establecer su red social de amigos para el intercambio de ideas, sentimientos, fechas, actividades, relaciones y, por supuesto, fotos, entre mu-chas cosas más.

Aquí también es importante preguntarse por qué em-presas como Coca Cola, entre otras, se han preocupado de anunciarse en esta red social, así como por aumentar su número de afiliados a su página.

Simplemente, al afiliarse a estos sitios, las empresas

han encontrado laboratorios de análisis, exposición de

marca y lealtad de consumidores. Coca Cola sabe que

la exposición en este tipo de medios actúa como un

mecanismo de retroalimentación sobre los productos y

servicios que ofrece. Además, se pueden comunicar con grupos compactos de usuarios que comparten ideas y per-cepciones en común hacia la marca en particular, y con-tinuar siendo una imagen mística como marca.

Universidad de Brown (2005)

Universidad de Brown (2006 y 2007)

UNPAN Web Measure Index (2005)

Universidad de Wasaeda (2007)

1 Taiwán Corea del Sur Estados Unidos Estados Unidos

2 Singapur Singapur Reino Unido Singapur

3 Estados Unidos Taiwán Singapur Canadá

4 Hong Kong Estados Unidos Corea del Sur Japón

5 China Reino Unido Dinamarca Corea del Sur

6 Canadá Canadá Chile Australia

7 Alemania Portugal Australia Finlandia

8 Australia Australia Canadá Taiwán

9 Irlanda Turquía Suecia Reino Unido

10 Vaticano Alemania Alemania Suecia

11 Reino Unido Irlanda Finlandia Alemania

12 Bahamas Suiza México Francia

13 Chile Brasil Japón Hong Kong

14 Macedonia Dominica Nueva Zelanda Italia

15 Chad Bahrein Noruega Malasia

16 Estonia Liechtenstein Malta Nueva Zelanda

17 Finlandia Guinea Ecuatorial Brasil Tailandia

18 Guinea Ecuatorial Andorra Austria Holanda

19 Holanda Nueva Zelanda Filipinas Noruega

20 Suiza Italia Holanda Bélgica

21 Belice España Israel España

22 Israel Hong Kong Bélgica Chile

23 Irán Finlandia Irlanda Filipinas

24 Nueva Zelanda Vaticano Hungría México

25 Qatar Malasia Estonia Brasil

26 Emiratos Árabes Unidos Holanda China

27 Siria República Checa Brunei

28 Dinamarca Brunei Sudáfrica

29 México Chipre Perú

30 Benin Liberia Indonesia

31 Austria Vietnam

32 Azerbaiján Rusia

5. Facilitar y promover la participación ciudadana en

los temas gubernamentales, así como la colaboración entre gobiernos.6. Promover la convergencia de sistemas gubernamen-

tales en los niveles federal, estatal y municipal para una interacción sin barreras.7. Aprovechar el potencial de las tecnologías de infor-mación para mejorar la atención a los ciudadanos.8. Asegurar que el contenido sea entendido fácilmente

por todas las personas siguiendo las recomendaciones de Lenguaje Ciudadano.9. Promover los ideales y los conceptos expresados en este manifiesto.10. Mejorar constantemente las metodologías referidas en este documento.

¿QUIÉNES LO RESPALDAN?

El manifiesto está respaldado por 22 estados y el Distrito Federal. Fue enriquecido por un consejo consultivo for-mado con los conferencistas del Seminario: Louis Rosen-feld (Estados Unidos), Paulo Saavedra (Chile), Sarah Swi-erenga (Estados Unidos), Marcelo Barbosa (Brasil), Salomé Flores (México), Javier Velasco (Chile), Luis Carlos Aceves (México) y Sharron Rush (Estados Unidos). El documento fue atestiguado por organizaciones de diversa naturale-za como la Asociación Mexicana de Internet (AMIPCI), el Sistema Internet de la Presidencia (SIP) y la Universidad de Monterrey (UDEM).

El seguimiento y resguardo de los principios del mani-fiesto están a cargo de UA Web (Usabilidad y Accesibili-dad para la Web A.C.), asociación que cuenta con la par-ticipación del consejo consultivo del Manifiesto y de otros promotores regionales, nacionales e internacionales.

PRÓXIMOS PASOS

Este manifiesto será el documento que guiará los gobiernos de los estados mexicanos para que con-tar con portales centrados en los ciudadanos. Hasta el día de hoy, no existe un precedente similar donde el gobierno exprese públicamente su intención de mejorar continuamente su oferta a través de Internet.

Por otro lado, el manifiesto es el preámbulo ideal para promover la promulgación de una ley de usabilidad y acce-sibilidad en sitios web mexicanos en lo general.

Conforme se divulgue y aplique este manifiesto, crecerá la posibilidad de convertirlo en una iniciativa lati-noamericana e inclusive iberoamericana.

REFERENCIAS

Baeza-Yates R, Rivera C. & Velasco J. (2004) Arquitectura de la información y usabilidad en la web. El Profesional de la Información. pp 168-178. EspañaSandoval R. & Gil-García J. R. (2006) A examen, los portales .gob estatales. Política Digital. Ed. Nexos, pp 30-32. MéxicoUAWEB. (2007) Manifiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos. Disponible en: http://www.uaweb.org.mx/content/view/61/79/lang,es/United Nations [UN], (2005) UN Global E-government Readiness Report. Publicado en línea en: http://www.unpan.org/dpepa-egovernment%20readiness%20report.aspWorld Usability Day Charter. (2006) Word Usability Day. Usability Professionals’ Association. Disponible en: http://www.worldusabilityday.org/charter/?lang=eng

56y17.indd 1 26/02/2008 17:05:29

CONOCIMIENTOTECNOLOGÍAS WEB16 CONOCIMIENTO TECNOLOGÍAS WEB 57

Jacques Le Goff

Jacques Le Goff (Toulon, 1924) es un historia-dor que ha vinculado su carrera docente a la

Escuela de Altos Estudios Sociales de París. Rep-resentante destacado de la Nouvelle Histoire, de la tercera generación de la Escuela de los Annales, en su obra ha abordado los temas fundamentales del medievo combinando historia, antropología, sociología y la historia de la cultura y de los sistemas económicos.

Entre sus obras destacan: Los intelectuales en la edad media” (1957), La civilización del Occidente medieval (1962), El nacimiento del Purga-torio (1981), La bolsa y la vida (1986), El hombre medieval (1989), Lo maravilloso y lo cotidiano en el Occidente medieval (1986), Mercaderes y banqueros de la Edad Media (1991), El orden de la memoria: el tiempo como imaginario (1991), Pensar la historia: modernidad, presente, pro-greso (2005), La Edad Media explicada a los jóvenes (2007).

lizan sofisticado software para la localización de redes criminales que hoy operan también digitalmente, uti-lizando el fraude cibernético o la pornografía infantil.

‘INFO-RICOS’ - ‘INFO-POBRES’

Ante esta realidad, la comunidad internacional se cuestio-na filosófica y no virtualmente -con una reflexión tardía-, cómo hacer para afrontar los excesos informativos de

la red y la desigualdad potencial que se vive ya entre

aquéllos que son “info-ricos” e “info-pobres”. Los efectos positivos de estas nuevas tecnologías en la salud, la educación, los negocios, sólo pueden ahondarse si esta sociedad, la informatizada, se sustenta en una au-téntica democracia, donde todos estemos conscientes de las consecuencias y la responsabilidad de esta era, porque hablar de economía, educación o información digital no es poca cosa. Todo ello impacta nuestras ideas, valores, hábi-tos y costumbres colectivas y nuestras formas y modos de interrelacionarnos. Frente a este panorama, es necesario entender que la mundialización del mercado reclama tam-bién nuevas leyes.

Urgen acuerdos internacionales en cuestiones básicas como la regularización del comercio electrónico, el control y responsabilidad sobre contenidos, derechos de autor y el freno a los monopolios que ya de hecho se tienen. El 85

por ciento del negocio de las telecomunicaciones se con-

centra en Estados Unidos, la Unión Europea y Japón.

La concentración de este poder a escala multinacional, en unas pocas manos que tienen dinero, tecnología, y con ello definen los contenidos en los medios de comunicación ma-siva en informaciones y entretenimiento en el mundo oc-cidental, trajo un nuevo orden internacional, y es fecha en que aún no dilucidamos cuáles serán sus consecuencias. Es claro que no será el mercado, sino el Estado el que acep-tará la carga de impulsar el desarrollo de redes, incluso con inversiones públicas, para garantizar la igualdad de acceso de todos los ciudadanos, y con ello evitar nuevas discriminaciones entre éstos; es decir, entre “info-ricos e info-pobres” que existen en cada nación y que se evidencia aún más cuando se comparan las brechas educativas, de

salud, información e ingreso entre los países desarrol-

lados y aquéllos que están en vías de serlo.

DESAFÍO DE HOY

La democratización de la red es el desafío mundial. El im-pulso a la calidad de información que circula por mi-llones para activar la tolerancia y el diálogo que, en pa-labras de Jacques Le Goff, director de la Escuela de Altos Estudios Sociales de París, equivaldría a “no reducir a unidad la diversidad, sino a lograr una diversidad convergente”. Ésa es, en pocas palabras, una responsabilidad de todos.

Actualmente el portal en Internet del Gobierno del Estado de Nuevo León cuenta ya con más del 90 por ciento de su contenido accesible para todos

los usuarios, incluso para aquéllos que presentan defi-ciencias visuales. Además, existen secciones de la página

que cuentan con la certificación de la Iniciativa de Ac-

cesibilidad Web (WAI por sus siglas en inglés) que otor-

ga el Consorcio World Wide Web (W3C) a los sitios que cumplen con un conjunto de lineamientos en cuestión de accesibilidad.

La propuesta de llevar a cabo esta acción fue hecha por el Observatorio Ciudadano, organismo que desde 2005 emite recomendaciones al gobernador para mejorar el desempeño y utilidad del portal. José Ignacio Suárez García, presidente del observatorio, explicó que no se trata de hacer una sección o una página nueva, sino de tener el contenido del portal par a todos los usuarios, incluyendo a personas con capacidades diferentes.

CERTIFICACIÓN DE ACCESIBILIDAD

“No consiste en crear o convertir el portal, o hacer uno para personas con discapacidad, sino simplemente hacer-lo accesible, como debe ser y como la ley lo dice en materia de edificios públicos, acceso a la información y otros as-pectos de la accesibilidad. Aquí lo que estamos hablando es del contenido que se genera en el portal del Gobierno del Estado, y hacerlo accesible, para lo cual se logró una certificación de accesibilidad, lo que implica que el portal es accesible a personas con discapacidad visual”, detalló.

Para ofrecer este tipo de accesibilidad, se tienen que

cumplir aspectos muy diversos, como la etiquetación de

gráficos, y asegurar la compatibilidad con programas de

lectores de pantalla que ayudan a las personas a acceder

a la información de otra manera.

“Una persona con discapacidad visual que acceda al portal mediante un lector de pantalla, que es una apli-cación de software, va a poder acceder a todos los con-tenidos del portal.

TECNOLOGÍA ADAPTADA

Una persona ciega entra al portal y en vez de leerlo con la vista, un software lee literalmente todo lo que está en la pantalla a través de voz, y para que ese software no tenga problemas en la interpretación de la información al usua-rio, se cuenta con esta certificación que le dice a la per-sona con discapacidad visual o a los usuarios en general que el portal es accesible y que puede ser leído con tec-nología adaptada”.Destaca que actualmente sólo la página principal y la sección de temas cuentan con la certificación

WAI. Casi todo el contenido de la página es accesible y se buscará que todo cuente con el certificado. Suárez Gar-cía mencionó que es muy difícil tener una perspectiva del impacto que este servicio ha tenido en la comunidad por la naturaleza diversa en los usuarios que acceden al sitio; sin embargo, dijo que en la práctica, personas allegadas al observatorio y a la Asociación Mexicana de la Retinitis Pigmentosa y Enfermedades de la Retina que también pre-side, han manifestado que la accesibilidad representa un gran beneficio en el uso del portal, principalmente en la realización de trámites y obtención de información en la parte de atención ciudadana.

Agregó que entre los trabajos ya realizados existen

otras acciones, como la de poner a disposición del usua-

rio las leyes y reglamentos del Estado en formatos de

audio para que puedan ser descargados en una versión

diferente al texto. “Este proyecto aún está en marcha. El objetivo es hacer que todas las leyes y reglamentos se puedan descargar en formatos de audio y ya están en la página. Actualmente hay nueve o diez leyes, incluida la Constitución del Estado de Nuevo León y algunas otras leyes que seleccionamos como prioritarias”.

Suárez García concluyó que entre los trabajos a futuro del Observatorio Ciudadano, se continuará trabajando en temas de accesibilidad en cuestión de transparencia, además de que se realizará una evaluación ciudadana para emitir recomendaciones en las áreas de atención ciudada-na y trámites y servicios.

Accesible para ciegos el Portal Internet del Gobierno del Estado

José Ignacio Suárez García.

16y57.indd 1 26/02/2008 17:05:13

Page 59: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB56 CONOCIMIENTO TECNOLOGÍAS WEB 17

Sumergido en sus pensamientos emprendedores, Alex Tew trataba de hallar la forma de conseguir dinero para cubrir su educación en la Universidad de Not-

tingham; sin embargo, no lograba ningún momento “Eu-reka” que lo convenciera. Pero, entre las múltiples ideas, y viendo que no tenía nada que perder, se le ocurrió crear un sitio Web, con la idea de vender un millón de “pixeles” (acrónimo del inglés picture element; es decir, “elemento de la imagen”).

Esta idea de negocio parecía no tener sentido alguno; sin embargo, de acuerdo con datos de Wikipedia, el sitio (http://www.milliondollarhomepage.com) fue lanzado el 26 de agosto de 2005, y para el 11 de enero de 2006 se vendieron los últimos mil pixeles en una subasta. Por in-creíble que parezca, Tew logró la grandiosa suma de un millón 37 mil cien dólares americanos, y lo mejor fue que esto ocurrió en tan sólo poco más de cuatro meses.

Es impresionante observar cómo, en este caso, el po-

der de la economía descansa en personas y no en cor-

poraciones; en emprendedores que logran descifrar la

psicología de compra del ser humano.

Lo anterior no es un caso aislado; todos los días siguen

Hacia una democratización de la economía

Modelos de negocios Web

MaestroRodrigo SotoConsultor Economía de las [email protected]

Rodrigo Soto

prosperando los modelos de negocios basados en la Web, y podemos mencionar diversos ejemplos al respecto.

EL CASO DE FACEBOOK Y SU CREADOR

Vivimos en la economía de Mark Zuckerberg, creador de la red social de Facebook (www.facebook.com), a la cual

Microsoft, según datos del New York Times, recientemente compró la insignificante cantidad del 1.6 por ciento, por un monto de 240 millones de dólares. ¿Qué está comp-rando Microsoft en este caso? ¿Lealtad de consumidores? ¿Exposición de su marca?

Los datos de Wikipedia arrojan algunas estadísticas in teresantes sobre Facebook:Usuarios activos: Sobrepasa los 60 millones

Usuarios al día: 250 mil

Búsquedas: Sobrepasa 500 millones al mes

Fotos: 1.7 mil millones

Sin embargo, lo más interesante de este modelo Web es que los usuarios se pueden inscribir de forma gratuita en el sitio, con el objetivo de establecer su red social de amigos para el intercambio de ideas, sentimientos, fechas, actividades, relaciones y, por supuesto, fotos, entre mu-chas cosas más.

Aquí también es importante preguntarse por qué em-presas como Coca Cola, entre otras, se han preocupado de anunciarse en esta red social, así como por aumentar su número de afiliados a su página.

Simplemente, al afiliarse a estos sitios, las empresas

han encontrado laboratorios de análisis, exposición de

marca y lealtad de consumidores. Coca Cola sabe que

la exposición en este tipo de medios actúa como un

mecanismo de retroalimentación sobre los productos y

servicios que ofrece. Además, se pueden comunicar con grupos compactos de usuarios que comparten ideas y per-cepciones en común hacia la marca en particular, y con-tinuar siendo una imagen mística como marca.

Universidad de Brown (2005)

Universidad de Brown (2006 y 2007)

UNPAN Web Measure Index (2005)

Universidad de Wasaeda (2007)

1 Taiwán Corea del Sur Estados Unidos Estados Unidos

2 Singapur Singapur Reino Unido Singapur

3 Estados Unidos Taiwán Singapur Canadá

4 Hong Kong Estados Unidos Corea del Sur Japón

5 China Reino Unido Dinamarca Corea del Sur

6 Canadá Canadá Chile Australia

7 Alemania Portugal Australia Finlandia

8 Australia Australia Canadá Taiwán

9 Irlanda Turquía Suecia Reino Unido

10 Vaticano Alemania Alemania Suecia

11 Reino Unido Irlanda Finlandia Alemania

12 Bahamas Suiza México Francia

13 Chile Brasil Japón Hong Kong

14 Macedonia Dominica Nueva Zelanda Italia

15 Chad Bahrein Noruega Malasia

16 Estonia Liechtenstein Malta Nueva Zelanda

17 Finlandia Guinea Ecuatorial Brasil Tailandia

18 Guinea Ecuatorial Andorra Austria Holanda

19 Holanda Nueva Zelanda Filipinas Noruega

20 Suiza Italia Holanda Bélgica

21 Belice España Israel España

22 Israel Hong Kong Bélgica Chile

23 Irán Finlandia Irlanda Filipinas

24 Nueva Zelanda Vaticano Hungría México

25 Qatar Malasia Estonia Brasil

26 Emiratos Árabes Unidos Holanda China

27 Siria República Checa Brunei

28 Dinamarca Brunei Sudáfrica

29 México Chipre Perú

30 Benin Liberia Indonesia

31 Austria Vietnam

32 Azerbaiján Rusia

5. Facilitar y promover la participación ciudadana en

los temas gubernamentales, así como la colaboración entre gobiernos.6. Promover la convergencia de sistemas gubernamen-

tales en los niveles federal, estatal y municipal para una interacción sin barreras.7. Aprovechar el potencial de las tecnologías de infor-mación para mejorar la atención a los ciudadanos.8. Asegurar que el contenido sea entendido fácilmente

por todas las personas siguiendo las recomendaciones de Lenguaje Ciudadano.9. Promover los ideales y los conceptos expresados en este manifiesto.10. Mejorar constantemente las metodologías referidas en este documento.

¿QUIÉNES LO RESPALDAN?

El manifiesto está respaldado por 22 estados y el Distrito Federal. Fue enriquecido por un consejo consultivo for-mado con los conferencistas del Seminario: Louis Rosen-feld (Estados Unidos), Paulo Saavedra (Chile), Sarah Swi-erenga (Estados Unidos), Marcelo Barbosa (Brasil), Salomé Flores (México), Javier Velasco (Chile), Luis Carlos Aceves (México) y Sharron Rush (Estados Unidos). El documento fue atestiguado por organizaciones de diversa naturale-za como la Asociación Mexicana de Internet (AMIPCI), el Sistema Internet de la Presidencia (SIP) y la Universidad de Monterrey (UDEM).

El seguimiento y resguardo de los principios del mani-fiesto están a cargo de UA Web (Usabilidad y Accesibili-dad para la Web A.C.), asociación que cuenta con la par-ticipación del consejo consultivo del Manifiesto y de otros promotores regionales, nacionales e internacionales.

PRÓXIMOS PASOS

Este manifiesto será el documento que guiará los gobiernos de los estados mexicanos para que con-tar con portales centrados en los ciudadanos. Hasta el día de hoy, no existe un precedente similar donde el gobierno exprese públicamente su intención de mejorar continuamente su oferta a través de Internet.

Por otro lado, el manifiesto es el preámbulo ideal para promover la promulgación de una ley de usabilidad y acce-sibilidad en sitios web mexicanos en lo general.

Conforme se divulgue y aplique este manifiesto, crecerá la posibilidad de convertirlo en una iniciativa lati-noamericana e inclusive iberoamericana.

REFERENCIAS

Baeza-Yates R, Rivera C. & Velasco J. (2004) Arquitectura de la información y usabilidad en la web. El Profesional de la Información. pp 168-178. EspañaSandoval R. & Gil-García J. R. (2006) A examen, los portales .gob estatales. Política Digital. Ed. Nexos, pp 30-32. MéxicoUAWEB. (2007) Manifiesto Nuevo León sobre Usabilidad y Accesibilidad para los Portales Gubernamentales Mexicanos. Disponible en: http://www.uaweb.org.mx/content/view/61/79/lang,es/United Nations [UN], (2005) UN Global E-government Readiness Report. Publicado en línea en: http://www.unpan.org/dpepa-egovernment%20readiness%20report.aspWorld Usability Day Charter. (2006) Word Usability Day. Usability Professionals’ Association. Disponible en: http://www.worldusabilityday.org/charter/?lang=eng

56y17.indd 1 26/02/2008 17:05:29

CONOCIMIENTOTECNOLOGÍAS WEB16 CONOCIMIENTO TECNOLOGÍAS WEB 57

Jacques Le Goff

Jacques Le Goff (Toulon, 1924) es un historia-dor que ha vinculado su carrera docente a la

Escuela de Altos Estudios Sociales de París. Rep-resentante destacado de la Nouvelle Histoire, de la tercera generación de la Escuela de los Annales, en su obra ha abordado los temas fundamentales del medievo combinando historia, antropología, sociología y la historia de la cultura y de los sistemas económicos.

Entre sus obras destacan: Los intelectuales en la edad media” (1957), La civilización del Occidente medieval (1962), El nacimiento del Purga-torio (1981), La bolsa y la vida (1986), El hombre medieval (1989), Lo maravilloso y lo cotidiano en el Occidente medieval (1986), Mercaderes y banqueros de la Edad Media (1991), El orden de la memoria: el tiempo como imaginario (1991), Pensar la historia: modernidad, presente, pro-greso (2005), La Edad Media explicada a los jóvenes (2007).

lizan sofisticado software para la localización de redes criminales que hoy operan también digitalmente, uti-lizando el fraude cibernético o la pornografía infantil.

‘INFO-RICOS’ - ‘INFO-POBRES’

Ante esta realidad, la comunidad internacional se cuestio-na filosófica y no virtualmente -con una reflexión tardía-, cómo hacer para afrontar los excesos informativos de

la red y la desigualdad potencial que se vive ya entre

aquéllos que son “info-ricos” e “info-pobres”. Los efectos positivos de estas nuevas tecnologías en la salud, la educación, los negocios, sólo pueden ahondarse si esta sociedad, la informatizada, se sustenta en una au-téntica democracia, donde todos estemos conscientes de las consecuencias y la responsabilidad de esta era, porque hablar de economía, educación o información digital no es poca cosa. Todo ello impacta nuestras ideas, valores, hábi-tos y costumbres colectivas y nuestras formas y modos de interrelacionarnos. Frente a este panorama, es necesario entender que la mundialización del mercado reclama tam-bién nuevas leyes.

Urgen acuerdos internacionales en cuestiones básicas como la regularización del comercio electrónico, el control y responsabilidad sobre contenidos, derechos de autor y el freno a los monopolios que ya de hecho se tienen. El 85

por ciento del negocio de las telecomunicaciones se con-

centra en Estados Unidos, la Unión Europea y Japón.

La concentración de este poder a escala multinacional, en unas pocas manos que tienen dinero, tecnología, y con ello definen los contenidos en los medios de comunicación ma-siva en informaciones y entretenimiento en el mundo oc-cidental, trajo un nuevo orden internacional, y es fecha en que aún no dilucidamos cuáles serán sus consecuencias. Es claro que no será el mercado, sino el Estado el que acep-tará la carga de impulsar el desarrollo de redes, incluso con inversiones públicas, para garantizar la igualdad de acceso de todos los ciudadanos, y con ello evitar nuevas discriminaciones entre éstos; es decir, entre “info-ricos e info-pobres” que existen en cada nación y que se evidencia aún más cuando se comparan las brechas educativas, de

salud, información e ingreso entre los países desarrol-

lados y aquéllos que están en vías de serlo.

DESAFÍO DE HOY

La democratización de la red es el desafío mundial. El im-pulso a la calidad de información que circula por mi-llones para activar la tolerancia y el diálogo que, en pa-labras de Jacques Le Goff, director de la Escuela de Altos Estudios Sociales de París, equivaldría a “no reducir a unidad la diversidad, sino a lograr una diversidad convergente”. Ésa es, en pocas palabras, una responsabilidad de todos.

Actualmente el portal en Internet del Gobierno del Estado de Nuevo León cuenta ya con más del 90 por ciento de su contenido accesible para todos

los usuarios, incluso para aquéllos que presentan defi-ciencias visuales. Además, existen secciones de la página

que cuentan con la certificación de la Iniciativa de Ac-

cesibilidad Web (WAI por sus siglas en inglés) que otor-

ga el Consorcio World Wide Web (W3C) a los sitios que cumplen con un conjunto de lineamientos en cuestión de accesibilidad.

La propuesta de llevar a cabo esta acción fue hecha por el Observatorio Ciudadano, organismo que desde 2005 emite recomendaciones al gobernador para mejorar el desempeño y utilidad del portal. José Ignacio Suárez García, presidente del observatorio, explicó que no se trata de hacer una sección o una página nueva, sino de tener el contenido del portal par a todos los usuarios, incluyendo a personas con capacidades diferentes.

CERTIFICACIÓN DE ACCESIBILIDAD

“No consiste en crear o convertir el portal, o hacer uno para personas con discapacidad, sino simplemente hacer-lo accesible, como debe ser y como la ley lo dice en materia de edificios públicos, acceso a la información y otros as-pectos de la accesibilidad. Aquí lo que estamos hablando es del contenido que se genera en el portal del Gobierno del Estado, y hacerlo accesible, para lo cual se logró una certificación de accesibilidad, lo que implica que el portal es accesible a personas con discapacidad visual”, detalló.

Para ofrecer este tipo de accesibilidad, se tienen que

cumplir aspectos muy diversos, como la etiquetación de

gráficos, y asegurar la compatibilidad con programas de

lectores de pantalla que ayudan a las personas a acceder

a la información de otra manera.

“Una persona con discapacidad visual que acceda al portal mediante un lector de pantalla, que es una apli-cación de software, va a poder acceder a todos los con-tenidos del portal.

TECNOLOGÍA ADAPTADA

Una persona ciega entra al portal y en vez de leerlo con la vista, un software lee literalmente todo lo que está en la pantalla a través de voz, y para que ese software no tenga problemas en la interpretación de la información al usua-rio, se cuenta con esta certificación que le dice a la per-sona con discapacidad visual o a los usuarios en general que el portal es accesible y que puede ser leído con tec-nología adaptada”.Destaca que actualmente sólo la página principal y la sección de temas cuentan con la certificación

WAI. Casi todo el contenido de la página es accesible y se buscará que todo cuente con el certificado. Suárez Gar-cía mencionó que es muy difícil tener una perspectiva del impacto que este servicio ha tenido en la comunidad por la naturaleza diversa en los usuarios que acceden al sitio; sin embargo, dijo que en la práctica, personas allegadas al observatorio y a la Asociación Mexicana de la Retinitis Pigmentosa y Enfermedades de la Retina que también pre-side, han manifestado que la accesibilidad representa un gran beneficio en el uso del portal, principalmente en la realización de trámites y obtención de información en la parte de atención ciudadana.

Agregó que entre los trabajos ya realizados existen

otras acciones, como la de poner a disposición del usua-

rio las leyes y reglamentos del Estado en formatos de

audio para que puedan ser descargados en una versión

diferente al texto. “Este proyecto aún está en marcha. El objetivo es hacer que todas las leyes y reglamentos se puedan descargar en formatos de audio y ya están en la página. Actualmente hay nueve o diez leyes, incluida la Constitución del Estado de Nuevo León y algunas otras leyes que seleccionamos como prioritarias”.

Suárez García concluyó que entre los trabajos a futuro del Observatorio Ciudadano, se continuará trabajando en temas de accesibilidad en cuestión de transparencia, además de que se realizará una evaluación ciudadana para emitir recomendaciones en las áreas de atención ciudada-na y trámites y servicios.

Accesible para ciegos el Portal Internet del Gobierno del Estado

José Ignacio Suárez García.

16y57.indd 1 26/02/2008 17:05:13

Page 60: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB58 CONOCIMIENTO TECNOLOGÍAS WEB 15

Es un camino repleto de luces y sombras. Las tec-nologías Web, suscritas en las autopistas de la in-formación global, son utilizadas por millones de

personas que, en medio de un entramado de cables, sa-télites, redes, computadoras, televisores, decodificadores e impulsos eléctricos, se integran a la infraestructura del ciber-espacio.

Desde ahí se mueven millones de dólares o euros en las bolsas de valores; expedientes clínicos de pacientes; los últimos avances de la llamada educación a distancia y hasta cartas de amor. Con las tecnologías World Wide

Web, los ciudadanos digitalmente ilustrados realizan com-pras; leen el periódico; escriben y reciben textos oficiales, y hasta se enamoran y casan; se educan e instruyen con lecciones enviadas a través del ordenador por sus mae-stros o con discusiones de grupo organizadas por cate-dráticos virtuales.

ECONOMÍA DIGITAL

Vivimos en medio de lo que ya se conoce como “econo-

La democratización de la Web, un reto mundial

Doctora Patricia Liliana Cerda Pérez Coordinadora del Centro de Investigaciones FCC / [email protected]

mía digital”, en la cual -aseguran los miembros del famoso Club de Roma, al que están adheridos políticos, científicos e intelectuales de 38 países del orbe-, sólo sobrevivirán aquéllos que estén preparados para manejar y asumir la velocidad y los cambios que tales tecnologías comportan cada año.

El mundo de la educación se ha revolucionado con es-

tas tecnologías; la medicina, la ciencia, las relaciones

interpersonales y las comunitarias han sido impacta-

das desde la época de los 90 con esta sociedad de “la

información”, llena de ambivalencias. En ella, la riqueza global del conocimiento se duplica cada cinco años y se torna un factor fundamental para la producción. Empero, las autopistas de la información bien pueden ser califica-das como de “peaje”, porque el acceso a estos bienes no es para nada gratuito. Existe educación virtual, ocio, entretenimiento y hasta sexo virtual en estas “infopistas”; a través de estas mismas redes, los estados difunden leyes y programas; uti

Patricia Liliana Cerda Pérez

Para gestionar la visa

La burocracia electrónica

Son las 6:15 de una fría mañana decembrina en el centro de Londres. Fuera de la Alta Comisión de la India, 109 somnolientas personas esperan que abra

la Sección de Visas. David Robb y su amigo, acurrucados en bolsas de dormir, son los primeros en la fila, y van a gestionar su visa para unas vacaciones proyectadas en Goa. Casi todos los que están en la fila han reservado sus vuelos de avión y casi todas sus vacaciones a través de Internet, mediante pago con tarjeta de crédito.

Estas señales electrónicas procesan información casi a la velocidad de la luz, billones de veces más rápido que los tiritantes humanos en la fila de visas. “¿En este día y época? Terrible”, es el conciso comentario de Robb sobre el sistema hindú de visas.

Y no es sólo porque el pasaporte y su dueño deban estar físicamente presentes. El pago de 30 libras esterlinas debe hacerse en efectivo, la forma de la visa debe llenarse a mano, autenticada con una foto y una firma. El proce-dimiento es prácticamente el mismo desde hace 60 años.

Comparemos esto con otra fila que se forma en Gros-venor Square. Los procedimientos en la Embajada Nortea-mericana son aún más estrictos, y se requiere la presencia de todos los solicitantes, sin opción de usar el correo. Em-

pero, aquí se tiene el uso inteligente de la electrónica.

Las solicitudes deben hacerse en línea, mediante un

pago electrónico no reembolsable. A su vez, el solicitante recibe

una confirmación por correo electrónico, que incluye un código de

barras con información de la forma completa.

Quienes confían en el potencial de la tecnología en la adminis-

tración pública, hablan con frecuencia del e-gobierno o de transfor-mación. Los detalles prácticos a veces resultan vagos, pero el gran cuadro es claro: el gobierno no sólo pone sus servicios en línea,

sino que, al hacerlo, cambia la forma en que funcionan.

En estos tiempos, los gobiernos de los países avanzados ponen en línea prácticamente todos los documentos destinados al público. Esto brinda al ciudadano-consumidor todo lo que puede desear, así como muchas otras cosas que tal vez no desee.

Esto no quiere decir, de ninguna manera, que el solo hecho de proporcionar información sea garantía de buen gobierno (el poder descargar una forma no significa que la embajada vaya a ser eficiente; esto es, que el solicitante vaya a obtener necesariamente su visa. Pese a todo, esto marca un gran cambio. Así como la escasez favorece la corrupción, el conocimiento acarrea poder.

Los países avanzados

58y15.indd 1 26/02/2008 17:04:53

CONOCIMIENTOTECNOLOGÍAS WEB14 CONOCIMIENTO TECNOLOGÍAS WEB 59

Cada diez minutos, SAPHIRE recibe casos de salas de urgencias, descripciones de pacientes y los síntomas que presentan, y de registros clínicos de ocho hospitales de la zona. Las tecnologías semánticas integran esta información en una sola visión de las condiciones de salud y sanitarias en el área de Houston. SAPHIRE fue usado efectivamente para detectar y contrarrestar epidemias gastrointestina-les, respiratorias y de conjuntivitis en los desplazados por el Huracán Catrina. La aplicación fue configurada para rea-lizar esta función en menos de ocho horas, a partir de que abrieron los refugios. Este caso demostró una de las bon-

dades de los sistemas de la era de la Web Semántica:

“una vez que se configuran para resolver un problema

general, pueden ser adaptados rápidamente para resol-

ver múltiples problemas en la misma área” [3].

EL FUTURO DE LA WEB SEMÁNTICA

Expertos de Project10x [4] vislumbran las tendencias tec-nológicas y de mercado para la Web Semántica para los próximos años. En cuanto a los avances tecnológicos de la Web Semántica se espera un mayor desarrollo en las siguientes áreas:

1. Interfaces de usuario inteligentes que incrementen la productividad y satisfacción del usuario; por ejemplo, a través de la identificación y modelación del usuario y

especificación del contexto.2. Sistemas colectivos de conocimiento donde los usua-

rios colaboren agregando contenido, semántica, modelos y comportamientos.

3. Aplicaciones semánticas que permitan pasar de da-tos contenidos en documentos a conocimiento, convertir procesos fijos en procesos autónomos, y finalmente dar el salto de buscar a conocer y tomar decisiones a partir de procesos de inferencia más robustos.

4. La solución de problemas de escalamiento, comple-jidad y seguridad en bases de conocimiento que provean una infraestructura robusta para el despliegue de aplica-ciones semánticas.

5. Herramientas para modelación semántica que re-duzca tiempo, riesgos y costos en el desarrollo de aplica-ciones.

A partir de un análisis realizado el año pasado [4], es-tos expertos estiman que los mercados para tecnologías

semánticas en el sector de Tecnologías de Información

y Comunicaciones superarán los 50 mil millones de

dólares en 2010.

Como puede observarse, la plataforma está casi lista, las instituciones y compañías están adoptando los nuevos estándares a gran velocidad y empiezan a verse en la prác-tica aplicaciones con un alto valor agregado. Sin embargo, lo que hasta ahora hemos presenciado es sólo la punta del iceberg. Lo mejor está por venir.

REFERENCIAS

[1] Tim Berners-Lee. Semantic Web - XML2000.

http: //www.w3.org/2000/Talks/1206-xml2k-tbl/

[2] Tim Berners-Lee, James Hendler and Ora Lassila.

The Semantics Web, Scientific American, Mayo 2001.

[3] Lee Feigenbaum, Ivan Herman, Tonya Hongser

meier, Eric Neumann, and Susie Stephens. The Se-

mantics Web in action. Scientific American, 297(6), pp.

90-97, Diciembre, 2007.

[4] Mills Davis. Semantic Wave 2008 Report: Industry

Roadmap to Web 3.0 & Multibillion Dollar Market Op

portunities. Project10X’s. Febrero 2008

Ligas de interés

http://www.w3.org/2001/sw/. W3C Semantic Web Ac

tivity

http://protege.stanford.edu/. The Protegé Ontology

Editor and Knowledge Acquisition System.

http://jena.sourceforge.net/. Jena Semantic Web

Framework

http://www.sts.tu-harburg.de/~r.f.moeller/racer/. Rac

er: Renamed ABox and

Concept Expression Reasoner.

http://dbpedia.org/About. DBPedia

M. C. Héctor G. Ceballos

Actual estudiante del Doctorado

en Tecnologías de Información y Comunicaciones con especialidad

en Sistemas Inteligentes.

Ha publicado artículos en

revistas y conferencias

internacionales sobre Ontologías,

Agentes Intelligentes,

Sistemas Multiagentes,

Administración de Conocimiento y

Modelos Causales Probabilísticos.

Además ha coordinado

varios proyectos Web entre los

que destaca la Memoria

Corporativa de Investigación

y Posgrado del Tecnológico de

Monterrey.

La figura muestra las áreas en las que las tecnologías semánticas están recibiendo fondos internacionales para investigación y desarrollo, y cuyo monto estimado para 2010 será de dos mil millones de dólares.

Para ver cuán frustrante puede ser un mal e-gobierno, consideremos el proyecto gubernamental más importante de Inglate-rra: Seleccione y reserve, programa Conexión para la Salud, el programa computarizado de un gobierno no militar más grande del mundo. El objetivo es osado e inspirador: permitir a los pacientes del Servicio Nacio-nal de Salud de Inglaterra, desde luego con la asesoría de sus doctores, seleccionar el tipo de tratamiento que quieren, y reservar una cita para cuando ellos quieran.

Tras tres años de este programa, la realidad se muestra bastante diferente de lo que se pretendía. La Asociación Médica Británica, el organismo que congrega a la mayor parte de los médicos ingleses, le ha llamado un “truco de relaciones públicas”. A la mayor parte de los doctores no les agrada.

En el Grupo de Práctica de Lavender Hill, en el suroeste de Londres, la doctora Helen Lucas está batallando con un bebé que padece una anomalía potencialmente

grave. Aquí, la mayor parte de los pacien-tes son atendidos de inmediato. A quienes requieren la atención de un especialista, se les transfiere, de modo que la práctica es, al mismo tiempo, proveedora de un servi-cio y administradora de escasos recursos. En otros países, el acceso a un especialista depende del costo y de las compañías ase-guradoras. En Inglaterra, el paciente elige… al menos en teoría.

El software de la práctica funciona bien, pero el trámite para seleccionar y reservar

es penosamente lento. El menú de enfer-medades, desde Alergia hasta Urología, no incluye nada que pueda ser de utilidad para este paciente, aun cuando el doctor supiera cuál es el especialista indicado. Anteriormente, le hubiera enviado a éste una carta para explicarle detalladamente el problema, y el paciente hubiera recibi-do atención. Este sistema no era perfecto, pero funcionaba.

Ahora, la pantalla del programa Selec-cione y Reserve muestra una larga lista de especialidades médicas, de modo que es posible seleccionar un médico o un hos-pital. Empero, se presenta tal lista de op-ciones, que más bien causa problemas en lugar de resolverlos. Por ejemplo, se ofre-cen servicios de psiquiatría, pero no se pue-den programar citas en línea.

En otros casos, aunque las citas se reserven como “urgentes” o como “de rutina”, el resultado es exactamente el mismo. A veces, la computadora dice que se desconoce el tiempo de espera, lo que significa que el paciente tendrá que llamar directamente al hospital.

Una fabulosa cantidad de dinero se ha invertido en todo el mundo a fin de poner en línea los servicios del gobierno; sin embargo, es difícil evaluar los resultados, los cuales algunas

veces son desalentadores.Empero, la gran ventaja de la nueva tecnología es que puede dar

un vuelco completo a la burocracia. Por ejemplo, los negocios bien administrados no ven como una molestia las quejas de sus clientes; por lo contrario, utilizan todos los datos recopilados en sitios web y de centros de llamadas para mejorar los productos y servicios que ofrecen.

Los gobiernos podrían hacer lo mismo. Así como las empresas no esperan que los clientes traten por separado con finanzas, logística y departamentos de ventas, así alguien que registra a un niño recién nacido no debería preocuparse por la forma en que podrían usar la información las autoridades hacendarias, la administración de la seguridad social, los servicios de salud, el sistema educativo, los departamentos censales y el gobierno local. Un buen esquema de

gobierno en línea empieza desde el punto de vista del ciudadano,

no del burócrata.

Vuelco a la burocracia

Tomado de The Economist | Traducción de Félix Ramos Gamiño

Servicio Nacional de Salud en Inglaterra

Experiencia médica con el programa Seleccione y Reserve, %

Muy positiva

Bastante positiva

Ni positiva ni negativa

Negativa

Muy negativa

Fuente: Asociación Médica Británica Muestra de 7,641

0 10 20 30 40

No gracias

14y59.indd 1 26/02/2008 17:04:33

Page 61: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB58 CONOCIMIENTO TECNOLOGÍAS WEB 15

Es un camino repleto de luces y sombras. Las tec-nologías Web, suscritas en las autopistas de la in-formación global, son utilizadas por millones de

personas que, en medio de un entramado de cables, sa-télites, redes, computadoras, televisores, decodificadores e impulsos eléctricos, se integran a la infraestructura del ciber-espacio.

Desde ahí se mueven millones de dólares o euros en las bolsas de valores; expedientes clínicos de pacientes; los últimos avances de la llamada educación a distancia y hasta cartas de amor. Con las tecnologías World Wide

Web, los ciudadanos digitalmente ilustrados realizan com-pras; leen el periódico; escriben y reciben textos oficiales, y hasta se enamoran y casan; se educan e instruyen con lecciones enviadas a través del ordenador por sus mae-stros o con discusiones de grupo organizadas por cate-dráticos virtuales.

ECONOMÍA DIGITAL

Vivimos en medio de lo que ya se conoce como “econo-

La democratización de la Web, un reto mundial

Doctora Patricia Liliana Cerda Pérez Coordinadora del Centro de Investigaciones FCC / [email protected]

mía digital”, en la cual -aseguran los miembros del famoso Club de Roma, al que están adheridos políticos, científicos e intelectuales de 38 países del orbe-, sólo sobrevivirán aquéllos que estén preparados para manejar y asumir la velocidad y los cambios que tales tecnologías comportan cada año.

El mundo de la educación se ha revolucionado con es-

tas tecnologías; la medicina, la ciencia, las relaciones

interpersonales y las comunitarias han sido impacta-

das desde la época de los 90 con esta sociedad de “la

información”, llena de ambivalencias. En ella, la riqueza global del conocimiento se duplica cada cinco años y se torna un factor fundamental para la producción. Empero, las autopistas de la información bien pueden ser califica-das como de “peaje”, porque el acceso a estos bienes no es para nada gratuito. Existe educación virtual, ocio, entretenimiento y hasta sexo virtual en estas “infopistas”; a través de estas mismas redes, los estados difunden leyes y programas; uti

Patricia Liliana Cerda Pérez

Para gestionar la visa

La burocracia electrónica

Son las 6:15 de una fría mañana decembrina en el centro de Londres. Fuera de la Alta Comisión de la India, 109 somnolientas personas esperan que abra

la Sección de Visas. David Robb y su amigo, acurrucados en bolsas de dormir, son los primeros en la fila, y van a gestionar su visa para unas vacaciones proyectadas en Goa. Casi todos los que están en la fila han reservado sus vuelos de avión y casi todas sus vacaciones a través de Internet, mediante pago con tarjeta de crédito.

Estas señales electrónicas procesan información casi a la velocidad de la luz, billones de veces más rápido que los tiritantes humanos en la fila de visas. “¿En este día y época? Terrible”, es el conciso comentario de Robb sobre el sistema hindú de visas.

Y no es sólo porque el pasaporte y su dueño deban estar físicamente presentes. El pago de 30 libras esterlinas debe hacerse en efectivo, la forma de la visa debe llenarse a mano, autenticada con una foto y una firma. El proce-dimiento es prácticamente el mismo desde hace 60 años.

Comparemos esto con otra fila que se forma en Gros-venor Square. Los procedimientos en la Embajada Nortea-mericana son aún más estrictos, y se requiere la presencia de todos los solicitantes, sin opción de usar el correo. Em-

pero, aquí se tiene el uso inteligente de la electrónica.

Las solicitudes deben hacerse en línea, mediante un

pago electrónico no reembolsable. A su vez, el solicitante recibe

una confirmación por correo electrónico, que incluye un código de

barras con información de la forma completa.

Quienes confían en el potencial de la tecnología en la adminis-

tración pública, hablan con frecuencia del e-gobierno o de transfor-mación. Los detalles prácticos a veces resultan vagos, pero el gran cuadro es claro: el gobierno no sólo pone sus servicios en línea,

sino que, al hacerlo, cambia la forma en que funcionan.

En estos tiempos, los gobiernos de los países avanzados ponen en línea prácticamente todos los documentos destinados al público. Esto brinda al ciudadano-consumidor todo lo que puede desear, así como muchas otras cosas que tal vez no desee.

Esto no quiere decir, de ninguna manera, que el solo hecho de proporcionar información sea garantía de buen gobierno (el poder descargar una forma no significa que la embajada vaya a ser eficiente; esto es, que el solicitante vaya a obtener necesariamente su visa. Pese a todo, esto marca un gran cambio. Así como la escasez favorece la corrupción, el conocimiento acarrea poder.

Los países avanzados

58y15.indd 1 26/02/2008 17:04:53

CONOCIMIENTOTECNOLOGÍAS WEB14 CONOCIMIENTO TECNOLOGÍAS WEB 59

Cada diez minutos, SAPHIRE recibe casos de salas de urgencias, descripciones de pacientes y los síntomas que presentan, y de registros clínicos de ocho hospitales de la zona. Las tecnologías semánticas integran esta información en una sola visión de las condiciones de salud y sanitarias en el área de Houston. SAPHIRE fue usado efectivamente para detectar y contrarrestar epidemias gastrointestina-les, respiratorias y de conjuntivitis en los desplazados por el Huracán Catrina. La aplicación fue configurada para rea-lizar esta función en menos de ocho horas, a partir de que abrieron los refugios. Este caso demostró una de las bon-

dades de los sistemas de la era de la Web Semántica:

“una vez que se configuran para resolver un problema

general, pueden ser adaptados rápidamente para resol-

ver múltiples problemas en la misma área” [3].

EL FUTURO DE LA WEB SEMÁNTICA

Expertos de Project10x [4] vislumbran las tendencias tec-nológicas y de mercado para la Web Semántica para los próximos años. En cuanto a los avances tecnológicos de la Web Semántica se espera un mayor desarrollo en las siguientes áreas:

1. Interfaces de usuario inteligentes que incrementen la productividad y satisfacción del usuario; por ejemplo, a través de la identificación y modelación del usuario y

especificación del contexto.2. Sistemas colectivos de conocimiento donde los usua-

rios colaboren agregando contenido, semántica, modelos y comportamientos.

3. Aplicaciones semánticas que permitan pasar de da-tos contenidos en documentos a conocimiento, convertir procesos fijos en procesos autónomos, y finalmente dar el salto de buscar a conocer y tomar decisiones a partir de procesos de inferencia más robustos.

4. La solución de problemas de escalamiento, comple-jidad y seguridad en bases de conocimiento que provean una infraestructura robusta para el despliegue de aplica-ciones semánticas.

5. Herramientas para modelación semántica que re-duzca tiempo, riesgos y costos en el desarrollo de aplica-ciones.

A partir de un análisis realizado el año pasado [4], es-tos expertos estiman que los mercados para tecnologías

semánticas en el sector de Tecnologías de Información

y Comunicaciones superarán los 50 mil millones de

dólares en 2010.

Como puede observarse, la plataforma está casi lista, las instituciones y compañías están adoptando los nuevos estándares a gran velocidad y empiezan a verse en la prác-tica aplicaciones con un alto valor agregado. Sin embargo, lo que hasta ahora hemos presenciado es sólo la punta del iceberg. Lo mejor está por venir.

REFERENCIAS

[1] Tim Berners-Lee. Semantic Web - XML2000.

http: //www.w3.org/2000/Talks/1206-xml2k-tbl/

[2] Tim Berners-Lee, James Hendler and Ora Lassila.

The Semantics Web, Scientific American, Mayo 2001.

[3] Lee Feigenbaum, Ivan Herman, Tonya Hongser

meier, Eric Neumann, and Susie Stephens. The Se-

mantics Web in action. Scientific American, 297(6), pp.

90-97, Diciembre, 2007.

[4] Mills Davis. Semantic Wave 2008 Report: Industry

Roadmap to Web 3.0 & Multibillion Dollar Market Op

portunities. Project10X’s. Febrero 2008

Ligas de interés

http://www.w3.org/2001/sw/. W3C Semantic Web Ac

tivity

http://protege.stanford.edu/. The Protegé Ontology

Editor and Knowledge Acquisition System.

http://jena.sourceforge.net/. Jena Semantic Web

Framework

http://www.sts.tu-harburg.de/~r.f.moeller/racer/. Rac

er: Renamed ABox and

Concept Expression Reasoner.

http://dbpedia.org/About. DBPedia

M. C. Héctor G. Ceballos

Actual estudiante del Doctorado

en Tecnologías de Información y Comunicaciones con especialidad

en Sistemas Inteligentes.

Ha publicado artículos en

revistas y conferencias

internacionales sobre Ontologías,

Agentes Intelligentes,

Sistemas Multiagentes,

Administración de Conocimiento y

Modelos Causales Probabilísticos.

Además ha coordinado

varios proyectos Web entre los

que destaca la Memoria

Corporativa de Investigación

y Posgrado del Tecnológico de

Monterrey.

La figura muestra las áreas en las que las tecnologías semánticas están recibiendo fondos internacionales para investigación y desarrollo, y cuyo monto estimado para 2010 será de dos mil millones de dólares.

Para ver cuán frustrante puede ser un mal e-gobierno, consideremos el proyecto gubernamental más importante de Inglate-rra: Seleccione y reserve, programa Conexión para la Salud, el programa computarizado de un gobierno no militar más grande del mundo. El objetivo es osado e inspirador: permitir a los pacientes del Servicio Nacio-nal de Salud de Inglaterra, desde luego con la asesoría de sus doctores, seleccionar el tipo de tratamiento que quieren, y reservar una cita para cuando ellos quieran.

Tras tres años de este programa, la realidad se muestra bastante diferente de lo que se pretendía. La Asociación Médica Británica, el organismo que congrega a la mayor parte de los médicos ingleses, le ha llamado un “truco de relaciones públicas”. A la mayor parte de los doctores no les agrada.

En el Grupo de Práctica de Lavender Hill, en el suroeste de Londres, la doctora Helen Lucas está batallando con un bebé que padece una anomalía potencialmente

grave. Aquí, la mayor parte de los pacien-tes son atendidos de inmediato. A quienes requieren la atención de un especialista, se les transfiere, de modo que la práctica es, al mismo tiempo, proveedora de un servi-cio y administradora de escasos recursos. En otros países, el acceso a un especialista depende del costo y de las compañías ase-guradoras. En Inglaterra, el paciente elige… al menos en teoría.

El software de la práctica funciona bien, pero el trámite para seleccionar y reservar

es penosamente lento. El menú de enfer-medades, desde Alergia hasta Urología, no incluye nada que pueda ser de utilidad para este paciente, aun cuando el doctor supiera cuál es el especialista indicado. Anteriormente, le hubiera enviado a éste una carta para explicarle detalladamente el problema, y el paciente hubiera recibi-do atención. Este sistema no era perfecto, pero funcionaba.

Ahora, la pantalla del programa Selec-cione y Reserve muestra una larga lista de especialidades médicas, de modo que es posible seleccionar un médico o un hos-pital. Empero, se presenta tal lista de op-ciones, que más bien causa problemas en lugar de resolverlos. Por ejemplo, se ofre-cen servicios de psiquiatría, pero no se pue-den programar citas en línea.

En otros casos, aunque las citas se reserven como “urgentes” o como “de rutina”, el resultado es exactamente el mismo. A veces, la computadora dice que se desconoce el tiempo de espera, lo que significa que el paciente tendrá que llamar directamente al hospital.

Una fabulosa cantidad de dinero se ha invertido en todo el mundo a fin de poner en línea los servicios del gobierno; sin embargo, es difícil evaluar los resultados, los cuales algunas

veces son desalentadores.Empero, la gran ventaja de la nueva tecnología es que puede dar

un vuelco completo a la burocracia. Por ejemplo, los negocios bien administrados no ven como una molestia las quejas de sus clientes; por lo contrario, utilizan todos los datos recopilados en sitios web y de centros de llamadas para mejorar los productos y servicios que ofrecen.

Los gobiernos podrían hacer lo mismo. Así como las empresas no esperan que los clientes traten por separado con finanzas, logística y departamentos de ventas, así alguien que registra a un niño recién nacido no debería preocuparse por la forma en que podrían usar la información las autoridades hacendarias, la administración de la seguridad social, los servicios de salud, el sistema educativo, los departamentos censales y el gobierno local. Un buen esquema de

gobierno en línea empieza desde el punto de vista del ciudadano,

no del burócrata.

Vuelco a la burocracia

Tomado de The Economist | Traducción de Félix Ramos Gamiño

Servicio Nacional de Salud en Inglaterra

Experiencia médica con el programa Seleccione y Reserve, %

Muy positiva

Bastante positiva

Ni positiva ni negativa

Negativa

Muy negativa

Fuente: Asociación Médica Británica Muestra de 7,641

0 10 20 30 40

No gracias

14y59.indd 1 26/02/2008 17:04:33

Page 62: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB60 CONOCIMIENTO TECNOLOGÍAS WEB 13

guaje que permite describir recursos referenciados en la Web (RDF), así como su extensión para representar clases y atributos de objetos (RDFS). En RDF, tanto los recursos electrónicos disponibles en la web como objetos del mun-do real son descritos por URIs, direcciones similares a los URL que conocemos, mientras que con RDFS se definen clases de objetos y se restringe el tipo de atributos que puede presentar cada instancia.

Para la tercera capa ha sido propuesto un lenguaje de ontologías (OWL), que permite definir conceptos y rela-ciones entre ellos con un gran poder expresivo. Este len-guaje es capaz de definir relaciones transitivas o inversas, por ejemplo, así como definir conceptos a partir de otros conceptos y expresar condiciones que deben tener los in-dividuos para ser considerados parte de una clase. Para la cuarta capa se ha propuesto un lenguaje de consulta (SPARQL), que permite expresar consultas sobre bases de conocimiento codificadas en RDF u OWL. Asimismo, se está trabajando en un formato de intercambio de reglas (RIF) que permita traducir reglas a distintos lenguajes.

Instituciones y compañías se encuentran desarro-llando editores de ontologías, convertidores de formatos, motores de inferencia y software en general que cumplen con estas especificaciones. Entre ellos puede encontrarse tanto software bajo licencia como software libre. Podemos mencionar por ejemplo a Protegé, un editor de ontologías y plataforma para adquisición de conocimiento; Jena Tool-kit, una plataforma en Java para desarrollar aplicaciones semánticas, o Racer, un razonador que soporta reglas, res-tricciones y consultas sobre ontologías de grandes propor-ciones.

SITUACIÓN ACTUAL

En la práctica, la Web Semántica se ha venido constru-yendo a partir del acuerdo de grupos o comunidades para definir una terminología común sobre su área de interés. Esta terminología se expresa en los lenguajes y formalis-mos arriba mencionados, mientras que las herramientas desarrolladas alrededor de estos estándares permiten crear aplicaciones con distintos grados de evolución [3]. Por ejemplo, los servicios sindicados de noticias, RSS, utili-zan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas, como por ejemplo: “Noticias publicadas en enero de 2008, en la fuente X, que contengan en el título la palabra Yahoo y en el contenido la palabra Venta”.

En el mismo sentido, podemos encontrar un nuevo

buscador propio de la era de la Web Semántica: DBPedia,

el cual es un motor de búsqueda que extrae información

de Wikipedia y permite realizar búsquedas complejas

en las que resuelve asociaciones y dependencias en-

tre conceptos. DBPedia puede resolver consultas como: “Quiénes son los integrantes de un equipó de fútbol soc-

cer que juegan en un club con un estadio de más de 40 mil asientos y que nacieron en países de más de 10 millones de habitantes”. Aun cuando este buscador enfrenta obs-táculos derivados de la flexibilidad con que se escriben los artículos de Wikipedia, es capaz de extraer y relacionar información de naturaleza variada.

Sin embargo, las áreas en que las tecnologías de la

Web Semántica han logrado mayor avance han sido la

Medicina y las Ciencias de la Vida.

Por ejemplo, en el Cincinnati Children’s Hospital Medi-cal Center se ha construido una base de datos en la que se integran ontologías con información de genes y productos genómicos, de relaciones entre enfermedades y síntomas, y de desórdenes genéticos, que han permitido encontrar probables causas genéticas para enfermedades cardiovas-culares.

Asimismo, en la University of Texas Health Science Center at Houston, desde 2004 se inició el proyecto SAPHIRE, que integra una amplia variedad de información de hospitales, agencias de protección ambiental y litera-tura científica.

Los servicios sindicados de noticias, RSS, utilizan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas

He estado involucrado en la industria de la computa-ción la mayor parte de mi vida. Incluso poseo algunas pa-tentes en el ramo del Internet y tengo unas pocas más en camino. Mi experiencia incluye desde la programación al análisis a la administración de proyectos al diseño; incluso me ensucié las manos trabajando con componentes elec-trónicos (construyendo circuitos para probar propiedades y crear sobre la marcha, dispositivos hechizos). Cuando pienso en escribir un simple artículo para expresar la vas-tedad de la tecnología web me enfrento a mis limitaciones como escritor, mi tendencia a complicar excesivamente las cosas como auténtico y entusiasta tecno-académico (y escribiéndolo como tal) y mis limitaciones muy reales de tiempo y espacio.

En períodos de intensidad intelectual me resulta mejor dar un paso atrás y tratar con principios fundamentales. Más vital que los detalles específicos de la tecnología web es su uso; su propósito. Lo que es más importante acerca de la web no es la web en sí; es la humanidad y el uso que le da a la web. Decidí encontrar una copia de un libro muy elemental y sin embargo históricamente muy importante, anterior a la web como la conocemos, que habla de una web similar ficticia. A veces podemos encontrar las raíces de nuestro pensamiento humano en la ficción. Después de todo, cualquier ideología o concepto sobre un mundo mejor es sólo ficción hasta ser actualizado.

Fui a mi biblioteca y examiné mis libreros; creo que debo haber jubilado este libro hace mucho. Trepar hasta mi ático, revisando cajas y cajas de libros, aún así no reve-ló nada. Finalmente tuve la fortuna de poder comprar una versión de este texto en una librería local (traté de usar la web pero no podía conseguirlo suficientemente rápido y ¡ciertamente el texto no estaba disponible en línea!).

El libro es verdaderamente refrescante, escrito más “a la antigua” y menos tecnológico. En un estilo que me atre-vería a llamar “poético” (algo que creo es muy importante en cuestiones de la relación entre la tecnología y la huma-nidad). En la literatura actual hemos perdido casi toda poesía y estilo al escribir de tecnología y cosas como las redes. Algunos de los libros más antiguos parecen ser mu-cho más filosóficos y generales comparados con los tex-tos actuales, precisos como un láser. Como el profesional incipiente necesita tantos conocimiento, hay poco tiempo para ahondar en el material más allá de breves sumarios. He aquí tan sólo unos pocos ejemplos de extractos de mi texto ancestral:

“Cuando las palabras aparecieron, todo mundo dijo que eran un milagro. Pero nadie mencionó que la web en sí es un milagro.”

“La gente cree casi cualquier cosa que ve impresa.”“Después de todo, ¿qué es realmente la vida? Nace-

mos, vivimos por un rato, morimos... Al ayudarte, quizás

Por Keith Raniere

estaba tratando de ennoblecer mi vida un poco. Dios sabe que la vida de cualquiera necesita un poco de eso.”

Este tipo de comentarios son altamente inusuales en un entorno tecnológico moderno. Me fui a las primeras páginas del texto y, lleno de recuerdos, sentimientos y an-ticipación, leí los primeros párrafos: “¿A dónde va papá con el hacha?” dijo Fern a su mamá cuando se sentaban a la mesa para desayunar.

“Va al corral de los cerdos,” contestó la Sra. Arable, “algu-nos cerdos nacieron anoche.”.

“No veo para qué necesita el hacha,” continuó Fern, que tan sólo tenía ocho años. “Bueno,” dijo su mamá, “uno de los cerdos salió demasiado pequeño y débil, y jamás servirá para nada. Así que tu papá ha decidido deshacer-se de él.”

“¿Deshacerse de él?” aulló Fern. “¿Quieres decir matarlo? ¿Sólo porque es más pequeño que los demás?”

Un cerdazo : el primer mensajede CarlotaComo le puede resultar evidente a algunos lectores, el li-bro al que me refiero es la novela infantil La telaraña de carlota de E. B. White. En inglés la palabra “web”, utilizada en el argot tecnológico, también es utilizada para referirse a las estructuras sedosas tejidas por las arañas.

Los párrafos superiores dan inicio a una maravillosa historia de salvación, amistad, dedicación y humanidad

Salutaciones!

(representada a través de animales). Un sumario láser de la historia sería: Wilbur es un cerdo que nació más pe-queño que los demás. Fue salvado de la exterminación y luego cuidado por las manos amorosas de una niña, Fern. Después, fue salvado de ser ejecutado por la creatividad de una araña llamada Carlota...una verdadera amiga.

Lo que es más importante para este artículo es que La telaraña de Carlota es poéticamente a propos como me

60y13.indd 1 26/02/2008 17:04:14

CONOCIMIENTOTECNOLOGÍAS WEB12 CONOCIMIENTO TECNOLOGÍAS WEB 61

Hoy en día, la gente con acceso a Internet está acostumbrada a usar cotidianamente la Web para buscar noticias, adquirir productos y ser-

vicios, acceder a información variada y, en general, para realizar una variedad de tareas que han dejado atrás las limitaciones espacio-temporales que enfrentaron otras generaciones. Sin embargo, nuestra generación se enfren-

ta a un problema distinto: el exceso de información. El navegar entre toda la información existente y encontrar lo que realmente necesita, requiere cada vez mayor esfuerzo de una persona y depende grandemente de su pericia para relacionar conceptos y descubrir sitios que contengan in-formación especializada.

La Web fue diseñada originalmente para integrar texto y multimedia en un formato que fuera fácil de usar, tanto para el usuario que buscaba información como para el que la publicara. El protocolo era simple y fue adoptado rápidamente por la industria y la academia. La sencillez y flexibilidad del formato permitieron que cada persona definiera su propio estilo para presentar la información,

La Web Semántica: para humanos y para máquinas

Héctor G. Ceballos

M. C. Héctor G. Ceballos

Asistente de Investigación Doctoral

Dirección de Investigación y

Posgrado Tecnológico de

Monterrey, Campus Monterrey.

[email protected], http://hgceballos.wordpress.com/

y la única restricción en el diseño residía en que la infor-mación fuera inteligible para las demás personas. Es decir, era una web de y para personas, y las máquinas sólo eran la herramienta y el vehículo.

UNA NUEVA WEB

Al reconocer la limitación de la Web para ofrecer a una persona la información específica que necesita, Tim Ber-

ners-Lee, creador del World Wide Web, propuso un nue-

vo concepto que revolucionaría la forma de ver la web:

una Web Semántica. Como él mismo la definió en el año 2000: “La Web Semántica trae a la Web la idea de definir y enlazar datos de manera que faciliten su descubrimiento, automatización, integración y reutilización a lo largo de diferentes aplicaciones” [1].

Como su definición lo dice, no se trata de hacer una nueva Web, sino de agregar a la Web actual capacidades que transformen el paradigma basado en documentos en uno basado en datos, donde cada dato tenga un signifi-cado común que incluso las máquinas sean capaces de reconocer y asociar. Finalmente, se trata de hacer que la Web sea inteligible para las computadoras, de tal forma que nos ayuden a encontrar la información que buscamos y a realizar operaciones de manera automática.

SU CONSTRUCCIÓN

El Consorcio World Wide Web o W3C inició en 2001 un proyecto para generar estándares de protocolos y len-guajes para construir la Web Semántica. El W3C es un con-sorcio internacional fundado por Tim Berners-Lee, en el cual participan organizaciones educativas, compañías y público en general, para el desarrollo de estándares para la Web. Los miembros del W3C forman grupos de trabajo con un proyecto y duración específica, y de ellos surgen los estándares.

La apuesta de la W3C ha sido generar una pila de pro-tocolos o lenguajes que sucesivamente logren el objetivo de la Web Semántica. Estos protocolos están organizados en las siguientes categorías:

1. Interoperabilidad dentro de una aplicación2. Interoperabilidad entre aplicaciones3. Una web con significado4. Consultas y reglas de negocio5. Sistemas confiables e interoperabilidad entre mo-

tores de inferencia.

En la primera capa encontramos un lenguaje que per-mite a cada usuario o aplicación definir su propia con-vención de marcado (tags) en formato de texto conocido como XML. En la segunda capa podemos encontrar un len-

táfora de una web que sea la estructura para transmitir mensajes ideológicos y fundacionales. Le sugiero enfá-ticamente que se tome una noche para leer esta historia o, mejor aún: encuentre un niño que nunca la haya oído y léasela.

Demos un paso atrás. El Internet tiene dos (2) aspec-tos: su tecnología (una herramienta), y su uso. Para mucha gente, su uso es lo más relevante mientras que el “milagro” de su existencia (ver cita anterior) es relegado a un mero interés potencial. Yo no creo que estos aspectos sean real-mente muy diferentes: son sólo diferentes formas creadas por el mismo proceso humano; a veces este proceso es usado para trabajar en la web (creando tecnología más efi-ciente) y a veces este proceso es usado para trabajar den-tro de la web (creando y organizando contenido usando la web como herramienta).

En el caso de Carlota la araña, ella trabajó en su web construyéndola en una esquina del marco de una puerta, y dentro de su web usándola como una herramienta para atrapar bichos (bugs) y escribir palabras. Preferimos que nuestra web esté libre de bugs (fallas) sin embargo cierta-mente la utilizamos para escribir palabras. Por supuesto, la parte más importante de la telaraña de Carlota (y de la web de la Internet humana) no es la tecnología ni la escritura, es el significado y efecto de lo que se escribe.

Tremendo: el segundomensaje de CarlotaTremendo tiene dos significados básicos: extremadamen-te bueno; maravilloso o temible; terrible. Nosotros elegi-mos cual aplica.

Estamos parados en los cimientos del resto de la his-toria humana: cómo pensemos respecto a estos cimientos y cómo los construyamos afectará a la humanidad para siempre. Estos cimientos están hechos de datos, de pala-bras y, sobre todo, estos cimientos están hechos del signi-ficado creado por dichas palabras.

¿Qué dirían ahora nuestros libros de historia si Ale-mania hubiera ganado la segunda guerra mundial? Bue-no, aunque probablemente Hitler sería presentado como un héroe, la esperanza es que hubiera pequeños grupos de personas que registraran la “verdad”. Por supuesto, si Hitler fuera estructuralmente tan poderoso que pudie-ra eliminar a todos estos grupos entonces la historia del mundo sería cambiada irreversiblemente: una mentira sin una referencias contraria se convierte en la verdad.

La world wide web es una extensión orgánica del pen-samiento y filosofía humanos. La ética con que utilizamos esta herramienta aún no logra igualar su poder. Aún hace 10 años el Internet no llegaba a tantos lugares, y las noti-cias (a fin de cuentas nuestra historia) no eran tan difundi-

12y61.indd 1 26/02/2008 17:03:57

Page 63: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB60 CONOCIMIENTO TECNOLOGÍAS WEB 13

guaje que permite describir recursos referenciados en la Web (RDF), así como su extensión para representar clases y atributos de objetos (RDFS). En RDF, tanto los recursos electrónicos disponibles en la web como objetos del mun-do real son descritos por URIs, direcciones similares a los URL que conocemos, mientras que con RDFS se definen clases de objetos y se restringe el tipo de atributos que puede presentar cada instancia.

Para la tercera capa ha sido propuesto un lenguaje de ontologías (OWL), que permite definir conceptos y rela-ciones entre ellos con un gran poder expresivo. Este len-guaje es capaz de definir relaciones transitivas o inversas, por ejemplo, así como definir conceptos a partir de otros conceptos y expresar condiciones que deben tener los in-dividuos para ser considerados parte de una clase. Para la cuarta capa se ha propuesto un lenguaje de consulta (SPARQL), que permite expresar consultas sobre bases de conocimiento codificadas en RDF u OWL. Asimismo, se está trabajando en un formato de intercambio de reglas (RIF) que permita traducir reglas a distintos lenguajes.

Instituciones y compañías se encuentran desarro-llando editores de ontologías, convertidores de formatos, motores de inferencia y software en general que cumplen con estas especificaciones. Entre ellos puede encontrarse tanto software bajo licencia como software libre. Podemos mencionar por ejemplo a Protegé, un editor de ontologías y plataforma para adquisición de conocimiento; Jena Tool-kit, una plataforma en Java para desarrollar aplicaciones semánticas, o Racer, un razonador que soporta reglas, res-tricciones y consultas sobre ontologías de grandes propor-ciones.

SITUACIÓN ACTUAL

En la práctica, la Web Semántica se ha venido constru-yendo a partir del acuerdo de grupos o comunidades para definir una terminología común sobre su área de interés. Esta terminología se expresa en los lenguajes y formalis-mos arriba mencionados, mientras que las herramientas desarrolladas alrededor de estos estándares permiten crear aplicaciones con distintos grados de evolución [3]. Por ejemplo, los servicios sindicados de noticias, RSS, utili-zan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas, como por ejemplo: “Noticias publicadas en enero de 2008, en la fuente X, que contengan en el título la palabra Yahoo y en el contenido la palabra Venta”.

En el mismo sentido, podemos encontrar un nuevo

buscador propio de la era de la Web Semántica: DBPedia,

el cual es un motor de búsqueda que extrae información

de Wikipedia y permite realizar búsquedas complejas

en las que resuelve asociaciones y dependencias en-

tre conceptos. DBPedia puede resolver consultas como: “Quiénes son los integrantes de un equipó de fútbol soc-

cer que juegan en un club con un estadio de más de 40 mil asientos y que nacieron en países de más de 10 millones de habitantes”. Aun cuando este buscador enfrenta obs-táculos derivados de la flexibilidad con que se escriben los artículos de Wikipedia, es capaz de extraer y relacionar información de naturaleza variada.

Sin embargo, las áreas en que las tecnologías de la

Web Semántica han logrado mayor avance han sido la

Medicina y las Ciencias de la Vida.

Por ejemplo, en el Cincinnati Children’s Hospital Medi-cal Center se ha construido una base de datos en la que se integran ontologías con información de genes y productos genómicos, de relaciones entre enfermedades y síntomas, y de desórdenes genéticos, que han permitido encontrar probables causas genéticas para enfermedades cardiovas-culares.

Asimismo, en la University of Texas Health Science Center at Houston, desde 2004 se inició el proyecto SAPHIRE, que integra una amplia variedad de información de hospitales, agencias de protección ambiental y litera-tura científica.

Los servicios sindicados de noticias, RSS, utilizan formatos propios de la Web Semántica para identificar las partes que conforman la noticia. De esta manera, los programas que leen los RSS pueden mostrar información proveniente de diferentes fuentes en un formato uniforme e inclusive realizar búsquedas sofisticadas en ellas

He estado involucrado en la industria de la computa-ción la mayor parte de mi vida. Incluso poseo algunas pa-tentes en el ramo del Internet y tengo unas pocas más en camino. Mi experiencia incluye desde la programación al análisis a la administración de proyectos al diseño; incluso me ensucié las manos trabajando con componentes elec-trónicos (construyendo circuitos para probar propiedades y crear sobre la marcha, dispositivos hechizos). Cuando pienso en escribir un simple artículo para expresar la vas-tedad de la tecnología web me enfrento a mis limitaciones como escritor, mi tendencia a complicar excesivamente las cosas como auténtico y entusiasta tecno-académico (y escribiéndolo como tal) y mis limitaciones muy reales de tiempo y espacio.

En períodos de intensidad intelectual me resulta mejor dar un paso atrás y tratar con principios fundamentales. Más vital que los detalles específicos de la tecnología web es su uso; su propósito. Lo que es más importante acerca de la web no es la web en sí; es la humanidad y el uso que le da a la web. Decidí encontrar una copia de un libro muy elemental y sin embargo históricamente muy importante, anterior a la web como la conocemos, que habla de una web similar ficticia. A veces podemos encontrar las raíces de nuestro pensamiento humano en la ficción. Después de todo, cualquier ideología o concepto sobre un mundo mejor es sólo ficción hasta ser actualizado.

Fui a mi biblioteca y examiné mis libreros; creo que debo haber jubilado este libro hace mucho. Trepar hasta mi ático, revisando cajas y cajas de libros, aún así no reve-ló nada. Finalmente tuve la fortuna de poder comprar una versión de este texto en una librería local (traté de usar la web pero no podía conseguirlo suficientemente rápido y ¡ciertamente el texto no estaba disponible en línea!).

El libro es verdaderamente refrescante, escrito más “a la antigua” y menos tecnológico. En un estilo que me atre-vería a llamar “poético” (algo que creo es muy importante en cuestiones de la relación entre la tecnología y la huma-nidad). En la literatura actual hemos perdido casi toda poesía y estilo al escribir de tecnología y cosas como las redes. Algunos de los libros más antiguos parecen ser mu-cho más filosóficos y generales comparados con los tex-tos actuales, precisos como un láser. Como el profesional incipiente necesita tantos conocimiento, hay poco tiempo para ahondar en el material más allá de breves sumarios. He aquí tan sólo unos pocos ejemplos de extractos de mi texto ancestral:

“Cuando las palabras aparecieron, todo mundo dijo que eran un milagro. Pero nadie mencionó que la web en sí es un milagro.”

“La gente cree casi cualquier cosa que ve impresa.”“Después de todo, ¿qué es realmente la vida? Nace-

mos, vivimos por un rato, morimos... Al ayudarte, quizás

Por Keith Raniere

estaba tratando de ennoblecer mi vida un poco. Dios sabe que la vida de cualquiera necesita un poco de eso.”

Este tipo de comentarios son altamente inusuales en un entorno tecnológico moderno. Me fui a las primeras páginas del texto y, lleno de recuerdos, sentimientos y an-ticipación, leí los primeros párrafos: “¿A dónde va papá con el hacha?” dijo Fern a su mamá cuando se sentaban a la mesa para desayunar.

“Va al corral de los cerdos,” contestó la Sra. Arable, “algu-nos cerdos nacieron anoche.”.

“No veo para qué necesita el hacha,” continuó Fern, que tan sólo tenía ocho años. “Bueno,” dijo su mamá, “uno de los cerdos salió demasiado pequeño y débil, y jamás servirá para nada. Así que tu papá ha decidido deshacer-se de él.”

“¿Deshacerse de él?” aulló Fern. “¿Quieres decir matarlo? ¿Sólo porque es más pequeño que los demás?”

Un cerdazo : el primer mensajede CarlotaComo le puede resultar evidente a algunos lectores, el li-bro al que me refiero es la novela infantil La telaraña de carlota de E. B. White. En inglés la palabra “web”, utilizada en el argot tecnológico, también es utilizada para referirse a las estructuras sedosas tejidas por las arañas.

Los párrafos superiores dan inicio a una maravillosa historia de salvación, amistad, dedicación y humanidad

Salutaciones!

(representada a través de animales). Un sumario láser de la historia sería: Wilbur es un cerdo que nació más pe-queño que los demás. Fue salvado de la exterminación y luego cuidado por las manos amorosas de una niña, Fern. Después, fue salvado de ser ejecutado por la creatividad de una araña llamada Carlota...una verdadera amiga.

Lo que es más importante para este artículo es que La telaraña de Carlota es poéticamente a propos como me

60y13.indd 1 26/02/2008 17:04:14

CONOCIMIENTOTECNOLOGÍAS WEB12 CONOCIMIENTO TECNOLOGÍAS WEB 61

Hoy en día, la gente con acceso a Internet está acostumbrada a usar cotidianamente la Web para buscar noticias, adquirir productos y ser-

vicios, acceder a información variada y, en general, para realizar una variedad de tareas que han dejado atrás las limitaciones espacio-temporales que enfrentaron otras generaciones. Sin embargo, nuestra generación se enfren-

ta a un problema distinto: el exceso de información. El navegar entre toda la información existente y encontrar lo que realmente necesita, requiere cada vez mayor esfuerzo de una persona y depende grandemente de su pericia para relacionar conceptos y descubrir sitios que contengan in-formación especializada.

La Web fue diseñada originalmente para integrar texto y multimedia en un formato que fuera fácil de usar, tanto para el usuario que buscaba información como para el que la publicara. El protocolo era simple y fue adoptado rápidamente por la industria y la academia. La sencillez y flexibilidad del formato permitieron que cada persona definiera su propio estilo para presentar la información,

La Web Semántica: para humanos y para máquinas

Héctor G. Ceballos

M. C. Héctor G. Ceballos

Asistente de Investigación Doctoral

Dirección de Investigación y

Posgrado Tecnológico de

Monterrey, Campus Monterrey.

[email protected], http://hgceballos.wordpress.com/

y la única restricción en el diseño residía en que la infor-mación fuera inteligible para las demás personas. Es decir, era una web de y para personas, y las máquinas sólo eran la herramienta y el vehículo.

UNA NUEVA WEB

Al reconocer la limitación de la Web para ofrecer a una persona la información específica que necesita, Tim Ber-

ners-Lee, creador del World Wide Web, propuso un nue-

vo concepto que revolucionaría la forma de ver la web:

una Web Semántica. Como él mismo la definió en el año 2000: “La Web Semántica trae a la Web la idea de definir y enlazar datos de manera que faciliten su descubrimiento, automatización, integración y reutilización a lo largo de diferentes aplicaciones” [1].

Como su definición lo dice, no se trata de hacer una nueva Web, sino de agregar a la Web actual capacidades que transformen el paradigma basado en documentos en uno basado en datos, donde cada dato tenga un signifi-cado común que incluso las máquinas sean capaces de reconocer y asociar. Finalmente, se trata de hacer que la Web sea inteligible para las computadoras, de tal forma que nos ayuden a encontrar la información que buscamos y a realizar operaciones de manera automática.

SU CONSTRUCCIÓN

El Consorcio World Wide Web o W3C inició en 2001 un proyecto para generar estándares de protocolos y len-guajes para construir la Web Semántica. El W3C es un con-sorcio internacional fundado por Tim Berners-Lee, en el cual participan organizaciones educativas, compañías y público en general, para el desarrollo de estándares para la Web. Los miembros del W3C forman grupos de trabajo con un proyecto y duración específica, y de ellos surgen los estándares.

La apuesta de la W3C ha sido generar una pila de pro-tocolos o lenguajes que sucesivamente logren el objetivo de la Web Semántica. Estos protocolos están organizados en las siguientes categorías:

1. Interoperabilidad dentro de una aplicación2. Interoperabilidad entre aplicaciones3. Una web con significado4. Consultas y reglas de negocio5. Sistemas confiables e interoperabilidad entre mo-

tores de inferencia.

En la primera capa encontramos un lenguaje que per-mite a cada usuario o aplicación definir su propia con-vención de marcado (tags) en formato de texto conocido como XML. En la segunda capa podemos encontrar un len-

táfora de una web que sea la estructura para transmitir mensajes ideológicos y fundacionales. Le sugiero enfá-ticamente que se tome una noche para leer esta historia o, mejor aún: encuentre un niño que nunca la haya oído y léasela.

Demos un paso atrás. El Internet tiene dos (2) aspec-tos: su tecnología (una herramienta), y su uso. Para mucha gente, su uso es lo más relevante mientras que el “milagro” de su existencia (ver cita anterior) es relegado a un mero interés potencial. Yo no creo que estos aspectos sean real-mente muy diferentes: son sólo diferentes formas creadas por el mismo proceso humano; a veces este proceso es usado para trabajar en la web (creando tecnología más efi-ciente) y a veces este proceso es usado para trabajar den-tro de la web (creando y organizando contenido usando la web como herramienta).

En el caso de Carlota la araña, ella trabajó en su web construyéndola en una esquina del marco de una puerta, y dentro de su web usándola como una herramienta para atrapar bichos (bugs) y escribir palabras. Preferimos que nuestra web esté libre de bugs (fallas) sin embargo cierta-mente la utilizamos para escribir palabras. Por supuesto, la parte más importante de la telaraña de Carlota (y de la web de la Internet humana) no es la tecnología ni la escritura, es el significado y efecto de lo que se escribe.

Tremendo: el segundomensaje de CarlotaTremendo tiene dos significados básicos: extremadamen-te bueno; maravilloso o temible; terrible. Nosotros elegi-mos cual aplica.

Estamos parados en los cimientos del resto de la his-toria humana: cómo pensemos respecto a estos cimientos y cómo los construyamos afectará a la humanidad para siempre. Estos cimientos están hechos de datos, de pala-bras y, sobre todo, estos cimientos están hechos del signi-ficado creado por dichas palabras.

¿Qué dirían ahora nuestros libros de historia si Ale-mania hubiera ganado la segunda guerra mundial? Bue-no, aunque probablemente Hitler sería presentado como un héroe, la esperanza es que hubiera pequeños grupos de personas que registraran la “verdad”. Por supuesto, si Hitler fuera estructuralmente tan poderoso que pudie-ra eliminar a todos estos grupos entonces la historia del mundo sería cambiada irreversiblemente: una mentira sin una referencias contraria se convierte en la verdad.

La world wide web es una extensión orgánica del pen-samiento y filosofía humanos. La ética con que utilizamos esta herramienta aún no logra igualar su poder. Aún hace 10 años el Internet no llegaba a tantos lugares, y las noti-cias (a fin de cuentas nuestra historia) no eran tan difundi-

12y61.indd 1 26/02/2008 17:03:57

Page 64: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB62 CONOCIMIENTO TECNOLOGÍAS WEB 11

ESTRUCTURA

Diseño de la Interacción: El sistema reacciona. El usuario recibe respuestas según las acciones que ejecuta en el sistema; es aquí donde lo definimos. Muchos mensajes de respuesta o aviso pueden desesperar al usuario, así que hay que definir muy bien cuándo y cómo el sistema reac-cionará.Arquitectura de Información: El orden de los elementos de contenido sin tener la información aún. La Facilidad de localización, tener al alcance las cosas que el usuario usa más seguido o información estática que siempre debe visualizar, son sólo puntos que hay que considerar aquí. Lo interesante está en siempre conocer bien al usuario y pensar qué es lo que está buscando encontrar.

ESQUELETO

Diseño de la Información: ¿Cómo presentar la infor-mación de modo que sea fácil de localizar y de entender? Es importante aclarar que no es lo mismo escribir para Web que para un periódico; hay que definir bien qué es lo que hay que desplegar, para quién y cómo (sintetizado con opción a leer más en otro lugar, resumido, con ligas en cada término, etcétera). Diseño de la Interfaz: La interfaz hace referencia a la for-ma en que cada uno de los elementos en la pantalla inter-actúan con el usuario para consolidar las funcionalidades. ¡OJO! Esto es de suma importancia para los sentimientos de desesperación o tranquilidad en la experiencia que el usuario pueda tener.Diseño de la navegación: La navegación permite a los usuarios moverse entre las páginas de la Web. Muchos movimientos o clicks en un sitio hacen que los usuarios se cansen de buscar y de estar cargando nuevas páginas,

que incluso a veces pueden ser muy pesadas. Una nave-gación sencilla pero eficiente en pocos clicks para lle-gar a lo que se busca, trae consigo mejores sentimien-tos y percepciones a los usuarios.

SUPERFICIE

Diseño Visual: como su nombre lo indica, es la parte en la que nos preocupamos por poner “bonito” el sitio y donde la intención es darle al usuario su primera percepción para vivir su experiencia.

MEDICIÓN DE LA USABILIDAD

Dentro del término usabilidad, lo que se busca es lograr efectividad, eficiencia y satisfacción en los usua-rios después de haber pasado por el cumplimiento de objetivos respectivos al sitio Web.

En este punto, tanto los usuarios como los sitios son muy distintos, en sus objetivos, en su imagen, en su navegación, en sus funcionalidades; por lo que la usabilidad se mide bajo términos muy variables; pero lo que finalmente busca es que se haya cumplido el ob-jetivo del Sitio sin haber dejado sentimientos de frus-tración, enojo o desesperación en el usuario.

ENCANTAR AL USUARIO ES LA CLAVE

Hay muchos sentimientos que pueden alimentar la experiencia del usuario; sin embargo, lo que hay que buscar es encantarlo.

Su experiencia debe llevarlo a disfrutar al máximo cada sección y funcionalidad del sitio, por la combi-nación de los factores que analizamos con la me-todología de Garrett; permitirle sentir que está en otro mundo cuando entra en el sitio y que se sumerja en cada una de las sensaciones que el Sitio pueda provo-car en él.

Todos los aspectos de mensajes, interfaces, venta-nas que se abren aparte, deben ser muy bien cuidados para aparecer. Una vez que se logra meter al usuario

en un mundo de encanto, cualquier cosa mal utiliza-

da puede sacarlo y mandar toda su experiencia hacia

los sentimientos de desilusión y enojo por lo vivido.

Así que, hay que tener mucho cuidado en cómo manejar a los usuarios. La Web ha cambiado y seguirá haciéndolo y con ella lo que los usuarios están buscan-do. Cada vez son más exigentes, y tenemos que estar preparados para ello.

Figura 1. Los cinco planos de la metodología de Diseño Centrado en la Experiencia del Usuario [1]

[1] Garrett, Jesse James, The Elements of User Experience –User centered Design for the Web-, Editorial Pearson Education, Estados Unidos, 2002.

[2] Nielsen Norman Group. En: http://www.nngroup.com, 2008.

REFERENCIAS

62y11.indd 1 26/02/2008 17:03:39

CONOCIMIENTOTECNOLOGÍAS WEB10 CONOCIMIENTO TECNOLOGÍAS WEB 63

Hoy en día es muy común escuchar que la Web está cambiando en muchos aspectos. Se han desarro-llado nuevas herramientas y esquemas de colabo-

ración e intercambio que muestran que la Web ya no es sólo una cadena de páginas con información estática.

Los Blogs y Sitios Wikis han adquirido mucha fama por facilitar a los usuarios la publicación de cualquier tipo de información accesible para todo el mundo, sin grandes complicaciones y con diseños y estándares listos para la distribución. Los contenidos se desarrollan con RSS (Rea-lly Simple Syndication), que permite el uso de encabeza-dos, descripciones y ligas de forma estándar para que pueda ser leído por cualquier lector de RSS y facilita el modificarlos en cualquier momento.

Pero la nueva Web no sólo trae cambios en lo que se publica en línea, sino que esta evolución se refleja tam-

bién en los usuarios, que empiezan a cambiar su forma

de interactuar con todo lo que Web2.0 trae consigo. Esto implica que se ponga especial atención a ellos y a su forma de percibir la Web.

EXPERIENCIA DEL USUARIO. ¿QUÉ SIGNIFICA?

De acuerdo con el Grupo Nielsen Norman, la experiencia del usuario comprende todos los aspectos de la interac-ción del usuario final con la compañía, sus servicios y sus productos. La verdadera experiencia del usuario va más allá de dar a los clientes lo que quieren o simplemente proveer una lista de funcionalidades; requiere analizar to-das las emociones que pueden experimentar al interactuar

La experiencia del usuario en la Nueva Web

Ingeniera María Imelda González

BáezAsesor Tecnológico

EmpresarialSATE-FUMEC

[email protected]

María Imelda González Báez

con un portal Web. [2]. Para Jesse James Garrett, la ex-periencia del usuario significa tomar en cuenta todas las posibles acciones que un usuario tomaría para entender adecuadamente sus expectativas a lo largo del funciona-miento y la navegación de un proceso.

La experiencia de los usuarios hoy en día no es tan simple como sólo accesar a un sitio y obtener lo que se busca. Ahora lo que se tiene en cuenta es un conjunto de decisiones que implican desde cómo es la apariencia del sitio, cómo se comporta, qué funcionalidades tiene, qué presenta como información de acceso rápido y qué es lo que permite hacer en él. Todo esto y otra serie de facto-res, en la nueva Web, constituyen la verdadera experiencia para el usuario.

DISEÑAR, MEDIR, CONTROLAR Y

PROBAR LOS REQUERIMIENTOS

Como parte de todo lo que implica trabajar con la experien-cia del usuario dentro de un proyecto de desarrollo Web y la nueva generación, es necesario tener una metodología que nos permita diseñar, medir, controlar y probar los re-querimientos y aspectos que se tienen que evaluar para mejorar la experiencia del usuario y que se explicarán a continuación.

La metodología de Diseño Centrado en la Experiencia del Usuario, de acuerdo con Garrett, consta de cinco pla-nos [1] que contienen ciertos aspectos por considerar para mejorar la experiencia de la navegación en un sitio Web:

ESTRATEGIA

Necesidades de los usuarios: Forman parte del objetivo del Sitio; sin embargo, desde la perspectiva externa a quien lo está desarrollando, pues es hacia quién está dirigido. Esta información nos permitirá no sólo saber qué buscan, sino definir todo lo que realmente necesitan en el resto de la aplicación de esta metodología que sugiere Garrett.Objetivos del Sitio: Todo sitio debe tener su objetivo prin-cipal y una serie de objetivos secundarios que se encamin-en al primero para que todo el contexto lo esté apoyando y soportando. El fijarnos en los usuarios no nos debe hacer perder de vista para qué está el sitio, pues son las metas o fines que la organización o quien hace el sitio está bus-cando.

ALCANCE

Especificaciones funcionales: Su nombre nos indica que hay que detallar qué hace cada cosa y cómo lo hace. Requerimientos de contenido: ¿Qué es lo que realmente necesitan de información en el sitio nuestros usuarios? Es la pregunta clave. Si no sabemos responder con base en lo que investigamos, la información que ellos quieren tener en el sitio será para ellos algo aburrido y sin sentido. Su experiencia se traduce en que el sitio no les sirve para lo que lo buscaban.

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

mos ahora iniciando el futuro legado de la humanidad. Si no somos leales a la realidad, si no abordamos esta tarea con noble gozo, ninguna compensación rectificará nues-tros efectos. ¿Estaremos dispuestos a sustentar la heroica imagen de Carlota quien intencionalmente mantuvo la fe y sostuvo el honor?

Wilbur: Entonces escriban esto en sus telarañas, cuan-do aprendan: Esta puerta sagrada fue una vez la morada de Carlota. Ella era brillante, bella, y leal hasta el fin. Su memoria será atesorada para siempre.

Las hijas de Carlota: ¡Oh!, eso nos tomaría toda una vida.

Wilbur: Una vida. Eso es lo que tenemos.

Humilde: el mensaje final de CarlotaSi lo piensa, es una gran responsabilidad. ¡Cualquier cosa que escriba en Internet se volverá parte de la historia hu-mana registrada para siempre! Si consideramos que la historia global humana empezó hace unos pocos años, sí estamos posicionando los primeros cimientos sobre los cuales se construirá el resto de la historia humana, para siempre. ¿Con cuanto cuidado deberíamos colocar tales cimientos? ¿Con cuanto cuidado debería Carlota consi-derar lo que escribe en su web? ¿Con qué tanto cuida-do deberíamos considerar lo que escribimos en nuestra web? ¿Cree Ud. que actualmente estemos a la altura de este reto?

Si la humanidad ha de dejar de ser una jungla salvaje y arrogante, como miembros debemos pensar; debemos sentir que nos importa; debemos amar. Debemos estar dispuestos a ayudarnos unos a otros, por lo tanto enno-bleciéndonos sólo un poco (ver cita anterior). Al escribir cualquier cosa en los cimientos de la historia humana de-bemos ver esto como una especie de responsabilidad que nos han confiado miles y miles de futuras generaciones: nuestros mensajes persistirán con sus efectos mucho des-pués de que nos hayamos ido. La comunicación global ha elevado la posición del escritor haciéndola uno de los más sagrados oficios. Sólo espero que cada uno de nosotros, haciendo las veces de Carlota, hagamos este trabajo como amigos de la humanidad.

Narrador: Wilbur nunca olvidó a Carlota. Aunque amó mucho a sus hijas y a sus nietas, ninguna de las nuevas arañas pudo tomar el lugar de ella en su corazón. Ella pertenecía a otra categoría. No es frecuente encontrar a alguien que sea una verdadera amiga y una buena escrito-ra. Carlota era ambas.

Traducido del inglés por Farouk Rojas

das, globales ni efectivas. La web es tan estructuralmente poderosa que podría facilitar la sustitución de mentiras por verdad. Actualmente, este potencial resultado de-pende principalmente del efecto neto de información de nuestra cultura orientada a los medios. ¿Qué tanto cree la gente lo que lee (ver cita anterior)?

Carlota pensó y eligió cuidadosamente el mensaje que iba a escribir en la telaraña. Sabía que dicho mensaje po-dría determinar la vida o muerte de Wilbur el cerdo. Sabía que la gente creería lo que escribiera. El proceso de crear y propagar dichos mensajes es la cuestión de nuestros tiempos. No hace mucho la mayoría de las noticias se cir-cunscribían a lo local. Los enclaves de datos por un lado preservaban la habilidad de la humanidad para eventual-mente encontrar la verdad a través de fuentes indepen-dientes de datos que habrían de convertirse en historia. Por otro lado, limitaban que datos potencialmente impor-tantes afectaran al resto del mundo.

Radiante: el tercer mensaje de CarlotaDos (2) definiciones de radiante: 1. Gozoso, esperanzado. 2. Un punto u objeto del cual proceden rayos. Nosotros elegimos cual aplica.

La red global de comunicación: conectado humanos en combinaciones casi incontables, facilitando una socie-dad y cultura globales; la humanidad unida. En el mejor de todos los futuros, sustentamos nuestras responsabili-dades mutuas y hacia futuras generaciones a través del uso ético de este recurso. Los efectos de nuestras vidas emanaran desde ahora hasta el fin de los tiempos huma-nos sustentando valores nobles registrados en luz, legi-bles como palabras e imágenes.

Tristemente, existe un potencial de una red global de comunicación donde la verdad es irreversiblemente alte-rada a través de la representación desproporcionada. La representación desproporcionada es el uso innoble del poder para vencer a la verdad, donde la notoriedad es un valor superior a la validez: es cuando una mentira mata a una verdad políticamente menos poderosa (ver la narra-ción anterior).

En cualquier caso, nuestro presente es un punto desde el cual proceden rayos de información. Todo lo que escri-bimos en Internet, sin importar su tamaño, tiene efectos globales, y esos efectos se propagarán por el resto de la historia humana. ¿Serán esos efectos rayos de gozo y es-peranza, o falsedades impulsadas por el poder e impues-tas como (y a fin de cuentas volviéndose) realidad? Esta-

10y63.indd 1 26/02/2008 17:03:15

Page 65: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB62 CONOCIMIENTO TECNOLOGÍAS WEB 11

ESTRUCTURA

Diseño de la Interacción: El sistema reacciona. El usuario recibe respuestas según las acciones que ejecuta en el sistema; es aquí donde lo definimos. Muchos mensajes de respuesta o aviso pueden desesperar al usuario, así que hay que definir muy bien cuándo y cómo el sistema reac-cionará.Arquitectura de Información: El orden de los elementos de contenido sin tener la información aún. La Facilidad de localización, tener al alcance las cosas que el usuario usa más seguido o información estática que siempre debe visualizar, son sólo puntos que hay que considerar aquí. Lo interesante está en siempre conocer bien al usuario y pensar qué es lo que está buscando encontrar.

ESQUELETO

Diseño de la Información: ¿Cómo presentar la infor-mación de modo que sea fácil de localizar y de entender? Es importante aclarar que no es lo mismo escribir para Web que para un periódico; hay que definir bien qué es lo que hay que desplegar, para quién y cómo (sintetizado con opción a leer más en otro lugar, resumido, con ligas en cada término, etcétera). Diseño de la Interfaz: La interfaz hace referencia a la for-ma en que cada uno de los elementos en la pantalla inter-actúan con el usuario para consolidar las funcionalidades. ¡OJO! Esto es de suma importancia para los sentimientos de desesperación o tranquilidad en la experiencia que el usuario pueda tener.Diseño de la navegación: La navegación permite a los usuarios moverse entre las páginas de la Web. Muchos movimientos o clicks en un sitio hacen que los usuarios se cansen de buscar y de estar cargando nuevas páginas,

que incluso a veces pueden ser muy pesadas. Una nave-gación sencilla pero eficiente en pocos clicks para lle-gar a lo que se busca, trae consigo mejores sentimien-tos y percepciones a los usuarios.

SUPERFICIE

Diseño Visual: como su nombre lo indica, es la parte en la que nos preocupamos por poner “bonito” el sitio y donde la intención es darle al usuario su primera percepción para vivir su experiencia.

MEDICIÓN DE LA USABILIDAD

Dentro del término usabilidad, lo que se busca es lograr efectividad, eficiencia y satisfacción en los usua-rios después de haber pasado por el cumplimiento de objetivos respectivos al sitio Web.

En este punto, tanto los usuarios como los sitios son muy distintos, en sus objetivos, en su imagen, en su navegación, en sus funcionalidades; por lo que la usabilidad se mide bajo términos muy variables; pero lo que finalmente busca es que se haya cumplido el ob-jetivo del Sitio sin haber dejado sentimientos de frus-tración, enojo o desesperación en el usuario.

ENCANTAR AL USUARIO ES LA CLAVE

Hay muchos sentimientos que pueden alimentar la experiencia del usuario; sin embargo, lo que hay que buscar es encantarlo.

Su experiencia debe llevarlo a disfrutar al máximo cada sección y funcionalidad del sitio, por la combi-nación de los factores que analizamos con la me-todología de Garrett; permitirle sentir que está en otro mundo cuando entra en el sitio y que se sumerja en cada una de las sensaciones que el Sitio pueda provo-car en él.

Todos los aspectos de mensajes, interfaces, venta-nas que se abren aparte, deben ser muy bien cuidados para aparecer. Una vez que se logra meter al usuario

en un mundo de encanto, cualquier cosa mal utiliza-

da puede sacarlo y mandar toda su experiencia hacia

los sentimientos de desilusión y enojo por lo vivido.

Así que, hay que tener mucho cuidado en cómo manejar a los usuarios. La Web ha cambiado y seguirá haciéndolo y con ella lo que los usuarios están buscan-do. Cada vez son más exigentes, y tenemos que estar preparados para ello.

Figura 1. Los cinco planos de la metodología de Diseño Centrado en la Experiencia del Usuario [1]

[1] Garrett, Jesse James, The Elements of User Experience –User centered Design for the Web-, Editorial Pearson Education, Estados Unidos, 2002.

[2] Nielsen Norman Group. En: http://www.nngroup.com, 2008.

REFERENCIAS

62y11.indd 1 26/02/2008 17:03:39

CONOCIMIENTOTECNOLOGÍAS WEB10 CONOCIMIENTO TECNOLOGÍAS WEB 63

Hoy en día es muy común escuchar que la Web está cambiando en muchos aspectos. Se han desarro-llado nuevas herramientas y esquemas de colabo-

ración e intercambio que muestran que la Web ya no es sólo una cadena de páginas con información estática.

Los Blogs y Sitios Wikis han adquirido mucha fama por facilitar a los usuarios la publicación de cualquier tipo de información accesible para todo el mundo, sin grandes complicaciones y con diseños y estándares listos para la distribución. Los contenidos se desarrollan con RSS (Rea-lly Simple Syndication), que permite el uso de encabeza-dos, descripciones y ligas de forma estándar para que pueda ser leído por cualquier lector de RSS y facilita el modificarlos en cualquier momento.

Pero la nueva Web no sólo trae cambios en lo que se publica en línea, sino que esta evolución se refleja tam-

bién en los usuarios, que empiezan a cambiar su forma

de interactuar con todo lo que Web2.0 trae consigo. Esto implica que se ponga especial atención a ellos y a su forma de percibir la Web.

EXPERIENCIA DEL USUARIO. ¿QUÉ SIGNIFICA?

De acuerdo con el Grupo Nielsen Norman, la experiencia del usuario comprende todos los aspectos de la interac-ción del usuario final con la compañía, sus servicios y sus productos. La verdadera experiencia del usuario va más allá de dar a los clientes lo que quieren o simplemente proveer una lista de funcionalidades; requiere analizar to-das las emociones que pueden experimentar al interactuar

La experiencia del usuario en la Nueva Web

Ingeniera María Imelda González

BáezAsesor Tecnológico

EmpresarialSATE-FUMEC

[email protected]

María Imelda González Báez

con un portal Web. [2]. Para Jesse James Garrett, la ex-periencia del usuario significa tomar en cuenta todas las posibles acciones que un usuario tomaría para entender adecuadamente sus expectativas a lo largo del funciona-miento y la navegación de un proceso.

La experiencia de los usuarios hoy en día no es tan simple como sólo accesar a un sitio y obtener lo que se busca. Ahora lo que se tiene en cuenta es un conjunto de decisiones que implican desde cómo es la apariencia del sitio, cómo se comporta, qué funcionalidades tiene, qué presenta como información de acceso rápido y qué es lo que permite hacer en él. Todo esto y otra serie de facto-res, en la nueva Web, constituyen la verdadera experiencia para el usuario.

DISEÑAR, MEDIR, CONTROLAR Y

PROBAR LOS REQUERIMIENTOS

Como parte de todo lo que implica trabajar con la experien-cia del usuario dentro de un proyecto de desarrollo Web y la nueva generación, es necesario tener una metodología que nos permita diseñar, medir, controlar y probar los re-querimientos y aspectos que se tienen que evaluar para mejorar la experiencia del usuario y que se explicarán a continuación.

La metodología de Diseño Centrado en la Experiencia del Usuario, de acuerdo con Garrett, consta de cinco pla-nos [1] que contienen ciertos aspectos por considerar para mejorar la experiencia de la navegación en un sitio Web:

ESTRATEGIA

Necesidades de los usuarios: Forman parte del objetivo del Sitio; sin embargo, desde la perspectiva externa a quien lo está desarrollando, pues es hacia quién está dirigido. Esta información nos permitirá no sólo saber qué buscan, sino definir todo lo que realmente necesitan en el resto de la aplicación de esta metodología que sugiere Garrett.Objetivos del Sitio: Todo sitio debe tener su objetivo prin-cipal y una serie de objetivos secundarios que se encamin-en al primero para que todo el contexto lo esté apoyando y soportando. El fijarnos en los usuarios no nos debe hacer perder de vista para qué está el sitio, pues son las metas o fines que la organización o quien hace el sitio está bus-cando.

ALCANCE

Especificaciones funcionales: Su nombre nos indica que hay que detallar qué hace cada cosa y cómo lo hace. Requerimientos de contenido: ¿Qué es lo que realmente necesitan de información en el sitio nuestros usuarios? Es la pregunta clave. Si no sabemos responder con base en lo que investigamos, la información que ellos quieren tener en el sitio será para ellos algo aburrido y sin sentido. Su experiencia se traduce en que el sitio no les sirve para lo que lo buscaban.

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

mos ahora iniciando el futuro legado de la humanidad. Si no somos leales a la realidad, si no abordamos esta tarea con noble gozo, ninguna compensación rectificará nues-tros efectos. ¿Estaremos dispuestos a sustentar la heroica imagen de Carlota quien intencionalmente mantuvo la fe y sostuvo el honor?

Wilbur: Entonces escriban esto en sus telarañas, cuan-do aprendan: Esta puerta sagrada fue una vez la morada de Carlota. Ella era brillante, bella, y leal hasta el fin. Su memoria será atesorada para siempre.

Las hijas de Carlota: ¡Oh!, eso nos tomaría toda una vida.

Wilbur: Una vida. Eso es lo que tenemos.

Humilde: el mensaje final de CarlotaSi lo piensa, es una gran responsabilidad. ¡Cualquier cosa que escriba en Internet se volverá parte de la historia hu-mana registrada para siempre! Si consideramos que la historia global humana empezó hace unos pocos años, sí estamos posicionando los primeros cimientos sobre los cuales se construirá el resto de la historia humana, para siempre. ¿Con cuanto cuidado deberíamos colocar tales cimientos? ¿Con cuanto cuidado debería Carlota consi-derar lo que escribe en su web? ¿Con qué tanto cuida-do deberíamos considerar lo que escribimos en nuestra web? ¿Cree Ud. que actualmente estemos a la altura de este reto?

Si la humanidad ha de dejar de ser una jungla salvaje y arrogante, como miembros debemos pensar; debemos sentir que nos importa; debemos amar. Debemos estar dispuestos a ayudarnos unos a otros, por lo tanto enno-bleciéndonos sólo un poco (ver cita anterior). Al escribir cualquier cosa en los cimientos de la historia humana de-bemos ver esto como una especie de responsabilidad que nos han confiado miles y miles de futuras generaciones: nuestros mensajes persistirán con sus efectos mucho des-pués de que nos hayamos ido. La comunicación global ha elevado la posición del escritor haciéndola uno de los más sagrados oficios. Sólo espero que cada uno de nosotros, haciendo las veces de Carlota, hagamos este trabajo como amigos de la humanidad.

Narrador: Wilbur nunca olvidó a Carlota. Aunque amó mucho a sus hijas y a sus nietas, ninguna de las nuevas arañas pudo tomar el lugar de ella en su corazón. Ella pertenecía a otra categoría. No es frecuente encontrar a alguien que sea una verdadera amiga y una buena escrito-ra. Carlota era ambas.

Traducido del inglés por Farouk Rojas

das, globales ni efectivas. La web es tan estructuralmente poderosa que podría facilitar la sustitución de mentiras por verdad. Actualmente, este potencial resultado de-pende principalmente del efecto neto de información de nuestra cultura orientada a los medios. ¿Qué tanto cree la gente lo que lee (ver cita anterior)?

Carlota pensó y eligió cuidadosamente el mensaje que iba a escribir en la telaraña. Sabía que dicho mensaje po-dría determinar la vida o muerte de Wilbur el cerdo. Sabía que la gente creería lo que escribiera. El proceso de crear y propagar dichos mensajes es la cuestión de nuestros tiempos. No hace mucho la mayoría de las noticias se cir-cunscribían a lo local. Los enclaves de datos por un lado preservaban la habilidad de la humanidad para eventual-mente encontrar la verdad a través de fuentes indepen-dientes de datos que habrían de convertirse en historia. Por otro lado, limitaban que datos potencialmente impor-tantes afectaran al resto del mundo.

Radiante: el tercer mensaje de CarlotaDos (2) definiciones de radiante: 1. Gozoso, esperanzado. 2. Un punto u objeto del cual proceden rayos. Nosotros elegimos cual aplica.

La red global de comunicación: conectado humanos en combinaciones casi incontables, facilitando una socie-dad y cultura globales; la humanidad unida. En el mejor de todos los futuros, sustentamos nuestras responsabili-dades mutuas y hacia futuras generaciones a través del uso ético de este recurso. Los efectos de nuestras vidas emanaran desde ahora hasta el fin de los tiempos huma-nos sustentando valores nobles registrados en luz, legi-bles como palabras e imágenes.

Tristemente, existe un potencial de una red global de comunicación donde la verdad es irreversiblemente alte-rada a través de la representación desproporcionada. La representación desproporcionada es el uso innoble del poder para vencer a la verdad, donde la notoriedad es un valor superior a la validez: es cuando una mentira mata a una verdad políticamente menos poderosa (ver la narra-ción anterior).

En cualquier caso, nuestro presente es un punto desde el cual proceden rayos de información. Todo lo que escri-bimos en Internet, sin importar su tamaño, tiene efectos globales, y esos efectos se propagarán por el resto de la historia humana. ¿Serán esos efectos rayos de gozo y es-peranza, o falsedades impulsadas por el poder e impues-tas como (y a fin de cuentas volviéndose) realidad? Esta-

10y63.indd 1 26/02/2008 17:03:15

Page 66: Revista Conocimiento 72

64 CONOCIMIENTO TECNOLOGÍAS WEB 9

Por otro lado, el desarrollo de nuevos lenguajes de

codificación de texto como XML, que también incluye el

concepto de etiquetado del texto, libera al contenido de

los sitios de los detalles de estilo y formato, y permite a

los robots de búsqueda analizar con mayor facilidad la

información, también facilitando el acceso del contenido desde diferentes medios (v.g. celulares).

CRÍTICAS A WEB 2.0

Por supuesto, este nuevo concepto no es ajeno a la crítica, dada su naturaleza abierta (no propietaria), aplicaciones con controles o moderación limitada, y el hecho de que sigue en proceso de consolidación. Las principales críticas son:

- No hay estándares - La tendencia de la industria a creer que la Web 2.0

no es más que blogs y wikis, hace ver al mismo nada más como un término de mercadotecnia.

- Contenidos informales, mal organizados y anárquicos.

CONCLUSIONES

En resumen, la Web 2.0 es resultado de la evolución del medio, en donde pasamos de sitios web estáticos con claras delimitaciones de quienes consultan y quienes son las fuentes de publicación (autoridad) a sitios donde se fomenta la participación de todos los usuarios, se da total libertad para el desarrollo de los contenidos, y se busca crear una fuente de conocimiento colectivo que rompa las capacidades individuales de desarrollo de nuevo cono-cimiento.

Mediante herramientas como BLOGs, wikis, y sitios de interacción social como foros de discusión, intercambio de imágenes, intercambio de videos (youtube) y de catego-rización de contenido (Furl) se busca potenciar la capaci-dad de los individuos para acceder a nuevo conocimiento, a la vez que aporta el propio. Este enfoque no está ajeno a críticas, dado que presenta algunas debilidades por la na-turaleza misma del concepto, la cual busca darle el poder de creación de conocimiento a la comunidad con aparente poco control. ¿Estará la sociedad a la altura del reto?

Iconos WEB 2.0

Peter Drucker

Peter Ferdinand Drucker (1909 – 2005) fue un autor

austríaco de literatura relacionada con el management

o gestión. Tras trabajar en la banca y como periodista,

se doctoró en Derecho Internacional en Alemania. El auge del

nazismo le forzó a emigrar a EE.UU. (1937), tras vivir 4 años en

Londres, donde se convirtió en profesor y escritor. Dio clases de

Management en la Universidad de Nueva York (1950-1971).

Su carrera como pensador del mundo de la empresa despegó

en 1943, cuando sus primeros escritos sobre política y sociedad le dieron acceso a

las entrañas de la General Motors, que se había convertido en una de las mayores

compañías del mundo del momento. Sus experiencias en Europa le dejaron

fascinado con el problema de la autoridad. Compartió dicha fascinación con

Donaldson Brown, la cabeza pensante tras los controles administrativos en General

Motors. El libro resultante de todo ello El Concepto de Corporación (un estudio

de General Motors), del que se derivaron muchos artículos y trabajos posteriores.

Gracias a él se popularizó la estructura multidivisional de GM.

Drucker se interesó por la creciente importancia de los empleados que

trabajaban con sus mentes más que con sus manos. Le intrigaba el hecho de que

determinados trabajadores que llegaban a saber más de ciertas materias que

sus propios superiores y colegas, aún teniendo que cooperar con otros en una

gran organización. Drucker analizó y explicó cómo dicho fenómeno desafiaba

la corriente de pensamiento tradicional de cómo deberían gestionarse las

organizaciones.

En 1969, Peter Drucker, en su libro más conocido “La era de la discontinuidad”,

escribió una sección sobre “la Sociedad del Conocimiento”, basándose en una serie

de datos y proyecciones económicas de Fritz Machlup (uno de los primeros autores

en acuñar la expresión “Sociedad de la Información”.

Con una inversión inicial de tres millones de dólares, inició operaciones aquí la empresa tecnológica Ari-cent donde, en una primera etapa, se emplearán 60

ingenieros, que podrían incrementarse a 500 en los próxi-mos cuatro años.

Éste y otros convenios empresariales fueron resultado del viaje que, a principios de año, realizó por Bangalore y Maysore, India, el gobernador José Natividad González Parás.

Durante su viaje, el gobernador visitó las empresas tecnológicas Wipro, Sasken y Aricent, y como resultado de ésta, destacaron los planes de atraer más empresas de este ramo, mientras que las universidades vislumbraron la adecuación de los planes de estudio para los nuevos requerimientos del mercado.

El gobernador González Parás participó en esta gira, acompañado del ingeniero José Antonio González, rec-tor de la UANL, y del doctor Rafael Rangel Sostmann, del ITESM, y aproximadamente 30 personas entre empresa-rios y funcionarios.

TECNOLOGÍAS DE LA INFORMACIÓN

El objetivo del recorrido fue que González Parás se en-trevistara con directivos de empresas líderes en el área de tecnologías de la información de ese país, y durante la cual también se anunciaron planes de expansión de las mismas en México, especialmente en el área metropolitana de Monterrey.

Destacó la intención de la empresa Wipro, la tercera compañía tecnológica más grande de India, de establecer en Monterrey un centro de desarrollo de soluciones de ing-eniería de productos aeroespaciales, defensa y satélites.

Por su parte, el gobernador señaló que durante su ad-ministración en Monte-rrey se establecerá un centro de investigación y desarrollo que apoyen el fun-cionamiento de los seis clusters que en áreas específicas se están in-tegrando en el estado, con el objeto de emigrar hacia la economía del conocimiento.

SOFTWARE PARA LA INDUSTRIA

DE LA COMUNICACIÓN

Entre los resultados positivos de esta gira destacó el esta-blecimiento de la empresa Aricent en Nuevo León, la cual desarrolla software para la industria de la comunicación. González Parás señaló que Aricent escogió el lugar co-

Con inversión inicial de tres millones de dólares

Inicia operaciones aquí la empresa India Aricent

rrecto, el momento correcto y la gente correcta, por lo que apoyará su estableci-miento en la localidad.

En una primera etapa, Aricent invirtió 2.5 millones de dólares para iniciar operaciones con 60 ingenieros, pero planea incrementarlos a 500 en los próxi-mos tres o cuatro años. La inversión inicial se incrementará a tres millones de dólares para este año 2008.

En estas visitas, se dijo que el Gobernador González Parás buscará trabajar para dar incentivos a empresas extranjeras que quieran establecerse en la enti-dad, con el fin de impulsar el desarrollo y la competitividad.

Para el titular del proyecto Monterrey Ciudad Internacional del Conocimien-to, Jaime Parada, el generar coo-peración entre la academia y la industria, así como con el apoyo del Gobierno, es el mejor camino que está tomando actual-mente Monterrey en la creación de los parques científicos y tecnológicos. “Eso es lo que hizo India y en diez años ha multiplicado sus empresas de industria tecnológica, biotecnología y aeronáutica”, afirmó.

ESTUDIAN MODELO INDIO

La delegación del Estado de Nuevo León que fue a la India vio de cerca las bon-dades del modelo desarrollado en el sector tecnológico en ese país. A pesar de que India es un país en desarrollo, el sector de tecnología tiene ganancias en el exterior por 30 mil millones de dólares, pero esperan duplicarlas para el año 2010.

Para analizar esta experiencia, la comitiva encabezada por el gobernador de Nuevo León, directivos del Tecnológico de Monterrey (que llegaron dos días antes), de la Universidad Autónoma de Nuevo León y empresarios emprendieron este viaje a Bangalore, el corazón del sector de servicios informáticos de ese país. En dos décadas, el Silicon Valley indio ha atraído a las principales empresas tecnológicas del mundo. Ahí ya no sólo se ofrecen servicios y productos, sino que se desarrolla e innova.

“Venimos con el fin de establecer una relación estratégica con la India en los sectores de Tecnologías de la Información y Biotecnología. Queremos que en Nuevo León, la academia, el sector empresarial y con el apoyo del Gobierno, se llegue a una economía donde la mente-factura y no sólo la manufactura repre-

Los Rectores de la UANL y del ITESM acompañan al gobernador del Estado, José Natividad González Páras, en su gira de trabajo por la India.

64y9.indd 1 26/02/2008 17:02:46

CONOCIMIENTOTECNOLOGÍAS WEB8 65

acción de apertura no sólo rescató a la compañía de la quiebra, sino la volvió más próspera.

INICIOS

En el año 2004, durante un evento auspiciado por O’Reilly Media, el concepto de Web 2.0 adquirió notoriedad. En una sesión de lluvia de ideas, se preguntó cuál sería la evolu-ción de la actual internet (Web 1.0) y se produjo una serie de ideas que confluirían en los conceptos de interacción y colaboración. Algunas tecnologías que están dando vida a la Web 2.0 son:

- Páginas web interactivas- Blogs- Wikis- Folksonomy (red semántica)Éstas nos muestran cómo el concepto de la internet ha

cambiado desde sus inicios, cuando el enfoque se concen-traba en la publicación y navegación.

PÁGINAS WEB INTERACTIVAS

Originalmente, el diseño de páginas Web consistía en la publicación de texto cuyo formato era desplegado median-te código html, el cual ayudaba a dar legibilidad y acceso a la información contenida en una página de internet, con la adición del concepto de la hiperliga para darle dinamis-mo; sin embargo, el resultado final era una experiencia de navegación más bien estática. Con el surgimiento de nue-vas tecnologías de codificación como dhtml, Flash y AJAX, ahora es posible diseñar páginas web interactivas que pue-den no requerir un acceso a un servidor para actualizar su estado, lo que da como resultado una experiencia de uso más ágil y amigable, y facilita una oportuna retroalimen-tación hacia el usuario.

BLOGS

Las BLOGs son un tipo de servicio de internet que permite la publicación de bitácoras (de ahí su nombre, Binary LOG).

Éstas, a su vez, permiten a cualquier persona publicar un diario con el contenido que desee, en tanto que los visi-tantes pueden revisar las aportaciones y comentar sobre las mismas, de modo que es posible generar discusiones entre varios usuarios. Esta experiencia de participación e interacción es la que puede facilitar la creación de nuevo conocimiento, si se modera adecuadamente. El potencial de uso de esta herramienta en la nueva sociedad del cono-cimiento es enorme, pues permite la expresión de ideas, conceptos y vivencias, para impactar positivamente en la cultura y el desarrollo de la ciencia.

WIKIS

Quizá una de las tecnologías más prometedoras es el concepto de Wiki. Aunque es un concepto simple, su sim-pleza y flexibilidad le otorgan un gran potencial. Un Wiki es una evolución de la página convencional de internet, la cual distinguía a quien la publicaba (con derechos ex-clusivos de edición) de quienes la consultaban. Las wikis

permiten a cualquier usuario modificar el contenido

del sitio o agregar información, de tal manera que se

facilita el desarrollo de conocimiento comunitario. Cada apor-tación es registrada mediante una bitácora detallada de cambios (de tal manera que cualquier cambio se pue-de revertir si es necesario), y cada aportación tiene asig-nada un área de discusión que sirve de base para docu-mentar los cambios o debatir sobre el contenido.

La utilidad práctica de esta herramienta ha sido con-trovertida, dado el aparente nulo control de las aportacio-nes en materia de calidad o autoridad editorial. El claro ejemplo en este debate son la Enciclopedia Británica y la Wikipedia, pues se contrasta el rigor editorial de la primera contra la apertura y flexibilidad de la segunda (lo que da lugar a fuertes debates como el ocurrido entre la revista científica Nature y Encyclopaedia Britannica Inc.). Por otro lado, el resultado de la apertura editorial de Wikipedia ha resultado en un repositorio de contenido de más de dos millones de artículos (aproximadamente 20 veces más que la Enciclopedia Británica).

FOLKSONOMY

El concepto de folksonomía (etiquetado colaborativo, cla-sificación social) trata de la capacidad de los usua-rios de una fuente de información de agregar etiquetas a par-tes específicas del contenido, de tal manera que se crea una clasificación del mismo que ayuda a los motores de búsqueda a organizar y encontrar información de manera más pertinente. Lo interesante del proceso de “etiquetado”, que es realizado por seres humanos, es que se requiere un proceso de análisis y síntesis de la información para darle sentido a la etiqueta. Por supuesto, este proceso, si bien puede traer consigo una fuerte carga subjetiva que gener-aría ruido, tiene el potencial de agregar conocimiento, al cual se le pueden encontrar ángulos científicos, cultura-les y sociales. Ya en sí, este medio provee una riquísima fuente de información para realizar estudios antropológi-cos. Esta herramienta de etiquetado se puede encontrar en diversas aplicaciones como Flickr, del.icio.us y Furl, por mencionar algunos.

senten nuestro desarrollo”, dijo González Parás.En el primer día de la visita de la delegación de Nuevo León, el “gurú” de la industria tecnológica en India, que estableció la primera compañía de Tecnologías de Infor-mación (TI), Pawan Kumar, recibió “impresionado” a la delegación nuevoleonesa.

COLABORACIÓN INDIA-MÉXICO

Kumar mostró complacencia de que las empresas de TI de India puedan colaborar con México y contó a los visitantes mexicanos la experiencia de India: “El desa-rrollo del sec-tor en India se dio porque hubo una conciencia temprana en la importancia de la educación; la industria se asoció, y se logró que el Gobierno fuera más un facilitador que un controlador”, señaló.

Rangel Sostmann, a su vez, puntualizó que debe haber políticas diferenciadas entre las industrias con el afán de promover el crecimiento. Aseguró que en México hay el doble de ingenieros per cápita que en India en números relativos, ya que cada año se gradúan 70 mil ingenieros. “Tenemos el número, pero tenemos que prepararlos para que sean igualmente competitivos en este tipo de empre-sa”, insistió Rangel Sostman.

Durante este encuentro, Kumar explicó que exis-ten diferentes modelos de países con TI, pero insistió que India es única en cuanto a bajo costo y alta calidad. Desde su punto de vista, las empresas indias que se ins-talen en México van a necesitar a las mexicanas, cono-cimiento del lenguaje y recursos locales porque querrán servir al mercado local también. Ante Kumar, los empresa-rios mexicanos externaron sus inquietudes.

“Competir con las empresas grandes es muy difícil. Es-toy segura que México va a ser un gran jugador, pero hay que reconocer que va a haber un impacto y que tenemos que prepararnos”, puntualizó Blanca Treviño, presidenta de Softek, una de las empresas regiomontanas que más tecnología ha desarrollado.

COMPETENCIA POR LOS TALENTOS

Para Héctor González Rodríguez, presidente de la Aso-ciación Mexicana de Empresas de Tecnologías de Infor-mación (AETI), otro de los retos es que, con la llegada de empresas extranjeras, habrá más competencia por los ta-lentos.

La comitiva también se entrevistó en su segunda jor-nada de actividades con empresas líderes en Tecnología de la Información, como lo es Cognizant, una de las cinco compañías punteras de servicios de TI con sede en Estados Unidos, pero con el 80 por ciento de sus operaciones en India. El acelerado crecimiento de Cognizant durante 2007 fue reconocido por la revista Fortune que la listó entre las 100 de mayor crecimiento en el mundo por quinto año consecutivo. También, Business Week la reconoció como la sexta de las diez compañías de tecnología de más rápido crecimiento y la primera en servicios de TI.

En todas sus reuniones, Rangel Sostmann enfatizó sobre los motivos de su visita a India, sobre todo en lo que se refiere al porqué México no está tan fuerte-mente posicionado en el sector de TI como lo está India. El rector del Tec ofreció el servicio de Soft landing que ofrece el Sistema. El presidente de la empresa, R. Chandrasekaran, aseguró que la compañía, que en los últimos 18 meses ha du-plicado sus operaciones, actualmente cuenta con 58 mil empleados y continúa en pleno crecimiento e intentando expandirse globalmente.

Consideró que México es una buena opción para emprender negocios, de-bido a los beneficios que reporta la zona horaria, propicia para dar servicio al mercado de Estados Unidos y Latinoamérica.

Como otra de las ventajas, mencionó el talento de los recursos humanos, apuntalados desde luego por el número extraordinario de personas que hablan inglés como segunda lengua, aseguraron los directivos de esta empresa.

VALOR AGREGADO

De concretarse una alianza con esta empresa, se uniría a otras de este tipo, como Infosys, Wipro y Sasken, que ya están aquí y que fomentan la economía del cono-cimiento. Esta empresa se diferencia de la mayoría de sus competidores en que ofrece un alto valor agregado a sus productos.

En otro momento de la reunión entre el Tecnológico de Monterrey y Cog-nizant, ambas instituciones coincidieron en afirmar que la base principal de industria de la Tecnología de la Información es el talento, y que la educación continua es el punto clave para innovar. “Estamos convencidos que la Universi-dad debe jugar un papel importante para llevar al país hacia una economía del conocimiento y aumentar su competitividad”, afirmó.

También intercambiaron sus inquietudes en cuanto a la preparación de los nuevos empleados. En cuanto al reclutamiento de recursos humanos, Chan-drasekaran dijo que su empresa valora habilidades de comunicación, de trabajo en equipo y de aprendizaje constante. La tecnología se mantiene cambiando; por ello, la gente debe tener flexibilidad y adaptabilidad para mantenerse a la vanguardia. La comitiva también visitó los nuevos desarrollos de HP Labs India, uno de los siete centros globales de investigación y el Centro para el Desarrollo de la Computación Avanzada, donde se encuentra la supercomputadora que desarrollaron ingenieros indios en respuesta a la negación de Estados Unidos de venderles una a finales de la década de los 80.

En gira de trabajo por La India, el Gobernador del Estado, sostuvo reuniones con directivos de Sasken, Aricent e Infosys.

8y65.indd 1 26/02/2008 17:02:09

Page 67: Revista Conocimiento 72

64 CONOCIMIENTO TECNOLOGÍAS WEB 9

Por otro lado, el desarrollo de nuevos lenguajes de

codificación de texto como XML, que también incluye el

concepto de etiquetado del texto, libera al contenido de

los sitios de los detalles de estilo y formato, y permite a

los robots de búsqueda analizar con mayor facilidad la

información, también facilitando el acceso del contenido desde diferentes medios (v.g. celulares).

CRÍTICAS A WEB 2.0

Por supuesto, este nuevo concepto no es ajeno a la crítica, dada su naturaleza abierta (no propietaria), aplicaciones con controles o moderación limitada, y el hecho de que sigue en proceso de consolidación. Las principales críticas son:

- No hay estándares - La tendencia de la industria a creer que la Web 2.0

no es más que blogs y wikis, hace ver al mismo nada más como un término de mercadotecnia.

- Contenidos informales, mal organizados y anárquicos.

CONCLUSIONES

En resumen, la Web 2.0 es resultado de la evolución del medio, en donde pasamos de sitios web estáticos con claras delimitaciones de quienes consultan y quienes son las fuentes de publicación (autoridad) a sitios donde se fomenta la participación de todos los usuarios, se da total libertad para el desarrollo de los contenidos, y se busca crear una fuente de conocimiento colectivo que rompa las capacidades individuales de desarrollo de nuevo cono-cimiento.

Mediante herramientas como BLOGs, wikis, y sitios de interacción social como foros de discusión, intercambio de imágenes, intercambio de videos (youtube) y de catego-rización de contenido (Furl) se busca potenciar la capaci-dad de los individuos para acceder a nuevo conocimiento, a la vez que aporta el propio. Este enfoque no está ajeno a críticas, dado que presenta algunas debilidades por la na-turaleza misma del concepto, la cual busca darle el poder de creación de conocimiento a la comunidad con aparente poco control. ¿Estará la sociedad a la altura del reto?

Iconos WEB 2.0

Peter Drucker

Peter Ferdinand Drucker (1909 – 2005) fue un autor

austríaco de literatura relacionada con el management

o gestión. Tras trabajar en la banca y como periodista,

se doctoró en Derecho Internacional en Alemania. El auge del

nazismo le forzó a emigrar a EE.UU. (1937), tras vivir 4 años en

Londres, donde se convirtió en profesor y escritor. Dio clases de

Management en la Universidad de Nueva York (1950-1971).

Su carrera como pensador del mundo de la empresa despegó

en 1943, cuando sus primeros escritos sobre política y sociedad le dieron acceso a

las entrañas de la General Motors, que se había convertido en una de las mayores

compañías del mundo del momento. Sus experiencias en Europa le dejaron

fascinado con el problema de la autoridad. Compartió dicha fascinación con

Donaldson Brown, la cabeza pensante tras los controles administrativos en General

Motors. El libro resultante de todo ello El Concepto de Corporación (un estudio

de General Motors), del que se derivaron muchos artículos y trabajos posteriores.

Gracias a él se popularizó la estructura multidivisional de GM.

Drucker se interesó por la creciente importancia de los empleados que

trabajaban con sus mentes más que con sus manos. Le intrigaba el hecho de que

determinados trabajadores que llegaban a saber más de ciertas materias que

sus propios superiores y colegas, aún teniendo que cooperar con otros en una

gran organización. Drucker analizó y explicó cómo dicho fenómeno desafiaba

la corriente de pensamiento tradicional de cómo deberían gestionarse las

organizaciones.

En 1969, Peter Drucker, en su libro más conocido “La era de la discontinuidad”,

escribió una sección sobre “la Sociedad del Conocimiento”, basándose en una serie

de datos y proyecciones económicas de Fritz Machlup (uno de los primeros autores

en acuñar la expresión “Sociedad de la Información”.

Con una inversión inicial de tres millones de dólares, inició operaciones aquí la empresa tecnológica Ari-cent donde, en una primera etapa, se emplearán 60

ingenieros, que podrían incrementarse a 500 en los próxi-mos cuatro años.

Éste y otros convenios empresariales fueron resultado del viaje que, a principios de año, realizó por Bangalore y Maysore, India, el gobernador José Natividad González Parás.

Durante su viaje, el gobernador visitó las empresas tecnológicas Wipro, Sasken y Aricent, y como resultado de ésta, destacaron los planes de atraer más empresas de este ramo, mientras que las universidades vislumbraron la adecuación de los planes de estudio para los nuevos requerimientos del mercado.

El gobernador González Parás participó en esta gira, acompañado del ingeniero José Antonio González, rec-tor de la UANL, y del doctor Rafael Rangel Sostmann, del ITESM, y aproximadamente 30 personas entre empresa-rios y funcionarios.

TECNOLOGÍAS DE LA INFORMACIÓN

El objetivo del recorrido fue que González Parás se en-trevistara con directivos de empresas líderes en el área de tecnologías de la información de ese país, y durante la cual también se anunciaron planes de expansión de las mismas en México, especialmente en el área metropolitana de Monterrey.

Destacó la intención de la empresa Wipro, la tercera compañía tecnológica más grande de India, de establecer en Monterrey un centro de desarrollo de soluciones de ing-eniería de productos aeroespaciales, defensa y satélites.

Por su parte, el gobernador señaló que durante su ad-ministración en Monte-rrey se establecerá un centro de investigación y desarrollo que apoyen el fun-cionamiento de los seis clusters que en áreas específicas se están in-tegrando en el estado, con el objeto de emigrar hacia la economía del conocimiento.

SOFTWARE PARA LA INDUSTRIA

DE LA COMUNICACIÓN

Entre los resultados positivos de esta gira destacó el esta-blecimiento de la empresa Aricent en Nuevo León, la cual desarrolla software para la industria de la comunicación. González Parás señaló que Aricent escogió el lugar co-

Con inversión inicial de tres millones de dólares

Inicia operaciones aquí la empresa India Aricent

rrecto, el momento correcto y la gente correcta, por lo que apoyará su estableci-miento en la localidad.

En una primera etapa, Aricent invirtió 2.5 millones de dólares para iniciar operaciones con 60 ingenieros, pero planea incrementarlos a 500 en los próxi-mos tres o cuatro años. La inversión inicial se incrementará a tres millones de dólares para este año 2008.

En estas visitas, se dijo que el Gobernador González Parás buscará trabajar para dar incentivos a empresas extranjeras que quieran establecerse en la enti-dad, con el fin de impulsar el desarrollo y la competitividad.

Para el titular del proyecto Monterrey Ciudad Internacional del Conocimien-to, Jaime Parada, el generar coo-peración entre la academia y la industria, así como con el apoyo del Gobierno, es el mejor camino que está tomando actual-mente Monterrey en la creación de los parques científicos y tecnológicos. “Eso es lo que hizo India y en diez años ha multiplicado sus empresas de industria tecnológica, biotecnología y aeronáutica”, afirmó.

ESTUDIAN MODELO INDIO

La delegación del Estado de Nuevo León que fue a la India vio de cerca las bon-dades del modelo desarrollado en el sector tecnológico en ese país. A pesar de que India es un país en desarrollo, el sector de tecnología tiene ganancias en el exterior por 30 mil millones de dólares, pero esperan duplicarlas para el año 2010.

Para analizar esta experiencia, la comitiva encabezada por el gobernador de Nuevo León, directivos del Tecnológico de Monterrey (que llegaron dos días antes), de la Universidad Autónoma de Nuevo León y empresarios emprendieron este viaje a Bangalore, el corazón del sector de servicios informáticos de ese país. En dos décadas, el Silicon Valley indio ha atraído a las principales empresas tecnológicas del mundo. Ahí ya no sólo se ofrecen servicios y productos, sino que se desarrolla e innova.

“Venimos con el fin de establecer una relación estratégica con la India en los sectores de Tecnologías de la Información y Biotecnología. Queremos que en Nuevo León, la academia, el sector empresarial y con el apoyo del Gobierno, se llegue a una economía donde la mente-factura y no sólo la manufactura repre-

Los Rectores de la UANL y del ITESM acompañan al gobernador del Estado, José Natividad González Páras, en su gira de trabajo por la India.

64y9.indd 1 26/02/2008 17:02:46

CONOCIMIENTOTECNOLOGÍAS WEB8 65

acción de apertura no sólo rescató a la compañía de la quiebra, sino la volvió más próspera.

INICIOS

En el año 2004, durante un evento auspiciado por O’Reilly Media, el concepto de Web 2.0 adquirió notoriedad. En una sesión de lluvia de ideas, se preguntó cuál sería la evolu-ción de la actual internet (Web 1.0) y se produjo una serie de ideas que confluirían en los conceptos de interacción y colaboración. Algunas tecnologías que están dando vida a la Web 2.0 son:

- Páginas web interactivas- Blogs- Wikis- Folksonomy (red semántica)Éstas nos muestran cómo el concepto de la internet ha

cambiado desde sus inicios, cuando el enfoque se concen-traba en la publicación y navegación.

PÁGINAS WEB INTERACTIVAS

Originalmente, el diseño de páginas Web consistía en la publicación de texto cuyo formato era desplegado median-te código html, el cual ayudaba a dar legibilidad y acceso a la información contenida en una página de internet, con la adición del concepto de la hiperliga para darle dinamis-mo; sin embargo, el resultado final era una experiencia de navegación más bien estática. Con el surgimiento de nue-vas tecnologías de codificación como dhtml, Flash y AJAX, ahora es posible diseñar páginas web interactivas que pue-den no requerir un acceso a un servidor para actualizar su estado, lo que da como resultado una experiencia de uso más ágil y amigable, y facilita una oportuna retroalimen-tación hacia el usuario.

BLOGS

Las BLOGs son un tipo de servicio de internet que permite la publicación de bitácoras (de ahí su nombre, Binary LOG).

Éstas, a su vez, permiten a cualquier persona publicar un diario con el contenido que desee, en tanto que los visi-tantes pueden revisar las aportaciones y comentar sobre las mismas, de modo que es posible generar discusiones entre varios usuarios. Esta experiencia de participación e interacción es la que puede facilitar la creación de nuevo conocimiento, si se modera adecuadamente. El potencial de uso de esta herramienta en la nueva sociedad del cono-cimiento es enorme, pues permite la expresión de ideas, conceptos y vivencias, para impactar positivamente en la cultura y el desarrollo de la ciencia.

WIKIS

Quizá una de las tecnologías más prometedoras es el concepto de Wiki. Aunque es un concepto simple, su sim-pleza y flexibilidad le otorgan un gran potencial. Un Wiki es una evolución de la página convencional de internet, la cual distinguía a quien la publicaba (con derechos ex-clusivos de edición) de quienes la consultaban. Las wikis

permiten a cualquier usuario modificar el contenido

del sitio o agregar información, de tal manera que se

facilita el desarrollo de conocimiento comunitario. Cada apor-tación es registrada mediante una bitácora detallada de cambios (de tal manera que cualquier cambio se pue-de revertir si es necesario), y cada aportación tiene asig-nada un área de discusión que sirve de base para docu-mentar los cambios o debatir sobre el contenido.

La utilidad práctica de esta herramienta ha sido con-trovertida, dado el aparente nulo control de las aportacio-nes en materia de calidad o autoridad editorial. El claro ejemplo en este debate son la Enciclopedia Británica y la Wikipedia, pues se contrasta el rigor editorial de la primera contra la apertura y flexibilidad de la segunda (lo que da lugar a fuertes debates como el ocurrido entre la revista científica Nature y Encyclopaedia Britannica Inc.). Por otro lado, el resultado de la apertura editorial de Wikipedia ha resultado en un repositorio de contenido de más de dos millones de artículos (aproximadamente 20 veces más que la Enciclopedia Británica).

FOLKSONOMY

El concepto de folksonomía (etiquetado colaborativo, cla-sificación social) trata de la capacidad de los usua-rios de una fuente de información de agregar etiquetas a par-tes específicas del contenido, de tal manera que se crea una clasificación del mismo que ayuda a los motores de búsqueda a organizar y encontrar información de manera más pertinente. Lo interesante del proceso de “etiquetado”, que es realizado por seres humanos, es que se requiere un proceso de análisis y síntesis de la información para darle sentido a la etiqueta. Por supuesto, este proceso, si bien puede traer consigo una fuerte carga subjetiva que gener-aría ruido, tiene el potencial de agregar conocimiento, al cual se le pueden encontrar ángulos científicos, cultura-les y sociales. Ya en sí, este medio provee una riquísima fuente de información para realizar estudios antropológi-cos. Esta herramienta de etiquetado se puede encontrar en diversas aplicaciones como Flickr, del.icio.us y Furl, por mencionar algunos.

senten nuestro desarrollo”, dijo González Parás.En el primer día de la visita de la delegación de Nuevo León, el “gurú” de la industria tecnológica en India, que estableció la primera compañía de Tecnologías de Infor-mación (TI), Pawan Kumar, recibió “impresionado” a la delegación nuevoleonesa.

COLABORACIÓN INDIA-MÉXICO

Kumar mostró complacencia de que las empresas de TI de India puedan colaborar con México y contó a los visitantes mexicanos la experiencia de India: “El desa-rrollo del sec-tor en India se dio porque hubo una conciencia temprana en la importancia de la educación; la industria se asoció, y se logró que el Gobierno fuera más un facilitador que un controlador”, señaló.

Rangel Sostmann, a su vez, puntualizó que debe haber políticas diferenciadas entre las industrias con el afán de promover el crecimiento. Aseguró que en México hay el doble de ingenieros per cápita que en India en números relativos, ya que cada año se gradúan 70 mil ingenieros. “Tenemos el número, pero tenemos que prepararlos para que sean igualmente competitivos en este tipo de empre-sa”, insistió Rangel Sostman.

Durante este encuentro, Kumar explicó que exis-ten diferentes modelos de países con TI, pero insistió que India es única en cuanto a bajo costo y alta calidad. Desde su punto de vista, las empresas indias que se ins-talen en México van a necesitar a las mexicanas, cono-cimiento del lenguaje y recursos locales porque querrán servir al mercado local también. Ante Kumar, los empresa-rios mexicanos externaron sus inquietudes.

“Competir con las empresas grandes es muy difícil. Es-toy segura que México va a ser un gran jugador, pero hay que reconocer que va a haber un impacto y que tenemos que prepararnos”, puntualizó Blanca Treviño, presidenta de Softek, una de las empresas regiomontanas que más tecnología ha desarrollado.

COMPETENCIA POR LOS TALENTOS

Para Héctor González Rodríguez, presidente de la Aso-ciación Mexicana de Empresas de Tecnologías de Infor-mación (AETI), otro de los retos es que, con la llegada de empresas extranjeras, habrá más competencia por los ta-lentos.

La comitiva también se entrevistó en su segunda jor-nada de actividades con empresas líderes en Tecnología de la Información, como lo es Cognizant, una de las cinco compañías punteras de servicios de TI con sede en Estados Unidos, pero con el 80 por ciento de sus operaciones en India. El acelerado crecimiento de Cognizant durante 2007 fue reconocido por la revista Fortune que la listó entre las 100 de mayor crecimiento en el mundo por quinto año consecutivo. También, Business Week la reconoció como la sexta de las diez compañías de tecnología de más rápido crecimiento y la primera en servicios de TI.

En todas sus reuniones, Rangel Sostmann enfatizó sobre los motivos de su visita a India, sobre todo en lo que se refiere al porqué México no está tan fuerte-mente posicionado en el sector de TI como lo está India. El rector del Tec ofreció el servicio de Soft landing que ofrece el Sistema. El presidente de la empresa, R. Chandrasekaran, aseguró que la compañía, que en los últimos 18 meses ha du-plicado sus operaciones, actualmente cuenta con 58 mil empleados y continúa en pleno crecimiento e intentando expandirse globalmente.

Consideró que México es una buena opción para emprender negocios, de-bido a los beneficios que reporta la zona horaria, propicia para dar servicio al mercado de Estados Unidos y Latinoamérica.

Como otra de las ventajas, mencionó el talento de los recursos humanos, apuntalados desde luego por el número extraordinario de personas que hablan inglés como segunda lengua, aseguraron los directivos de esta empresa.

VALOR AGREGADO

De concretarse una alianza con esta empresa, se uniría a otras de este tipo, como Infosys, Wipro y Sasken, que ya están aquí y que fomentan la economía del cono-cimiento. Esta empresa se diferencia de la mayoría de sus competidores en que ofrece un alto valor agregado a sus productos.

En otro momento de la reunión entre el Tecnológico de Monterrey y Cog-nizant, ambas instituciones coincidieron en afirmar que la base principal de industria de la Tecnología de la Información es el talento, y que la educación continua es el punto clave para innovar. “Estamos convencidos que la Universi-dad debe jugar un papel importante para llevar al país hacia una economía del conocimiento y aumentar su competitividad”, afirmó.

También intercambiaron sus inquietudes en cuanto a la preparación de los nuevos empleados. En cuanto al reclutamiento de recursos humanos, Chan-drasekaran dijo que su empresa valora habilidades de comunicación, de trabajo en equipo y de aprendizaje constante. La tecnología se mantiene cambiando; por ello, la gente debe tener flexibilidad y adaptabilidad para mantenerse a la vanguardia. La comitiva también visitó los nuevos desarrollos de HP Labs India, uno de los siete centros globales de investigación y el Centro para el Desarrollo de la Computación Avanzada, donde se encuentra la supercomputadora que desarrollaron ingenieros indios en respuesta a la negación de Estados Unidos de venderles una a finales de la década de los 80.

En gira de trabajo por La India, el Gobernador del Estado, sostuvo reuniones con directivos de Sasken, Aricent e Infosys.

8y65.indd 1 26/02/2008 17:02:09

Page 68: Revista Conocimiento 72

66 CONOCIMIENTO TECNOLOGÍAS WEB 7

Tal y como lo predijo Peter Drucker en 1969, en su libro The Age of Discontinuity, la economía glo-bal ha sufrido un gran cambio, pues la riqueza

y ventajas competitivas ya no giran en torno a los recursos naturales ni a la capacidad productiva convencional. En

este nuevo entorno, cada vez cobra más valor el cono-

cimiento como activo generador de riqueza; conceptos como productividad y calidad están siendo sobrepasados por otros como innovación y conocimiento, y dan lugar a “nuevos” conceptos como sociedad del conocimiento y economía del conocimiento. (Aunque el concepto de economía del conocimiento ya lo maneja Drucker en el li-bro citado, no considera el papel tan relevante que iba a jugar la tecnología como facilitador).

Llegó la era de la información y la consolidación de la internet, pero muy pronto se vio rebasada por la enorme cantidad de datos que había que procesar. Además de esto, la información vertida en el medio está dispersa y poco es-tructurada, y en muchos casos es de dudosa procedencia.

Importancia de la Web 2.0 en la Sociedad del Conocimiento

Ingeniero Roberto Ivon DibildoxDirector de Tecnología / [email protected]

Roberto Ivon Dibildox

A pesar de esto, se reconoce el enorme potencial que

tiene la internet como repositorio; es decir, un medio de

publicación, con las limitantes estáticas de otros medios

convencionales. ¿Éste es el medio idóneo del que se va a valer la sociedad del conocimiento para su desarrollo?

DESARROLLO

DE CONOCIMIENTO

Es un hecho que la capacidad individual para el desarrollo de conocimiento cada vez es más difícil; en parte, dada la gran cantidad de información acumulada que el individuo tiene que procesar. Además, hay que mencionar que los costos para procesar esta cantidad de información cada vez vuelven más inviable el mismo. Dan Tapscott, autor del libro Wikinomics: How Mass Collaboration Changes Eve-rything, nos muestra un ejemplo de cómo una compañía minera, a punto de cerrar operaciones por agotamiento de sus reservas, comparte información privilegiada a la comunidad en la búsqueda de nuevas minas, y cómo esta

En el recién inaugurado campus urbano de la Uni-versidad Regiomontana se llevará a cabo la capaci-tación y desarrollo de talento en Tecnologías de la

Información, programa del Gobierno del Estado en el que participan conjuntamente el Tecnológico de Monterrey, el Tec Milenio, la Universidad Autónoma de Nuevo León y la Universidad de Monterrey.

Este programa, integrado con el apoyo del gobierno es-tatal, federal, universidades y empresarios, funciona den-tro del Instituto de Desarrollo de Talento en Tecnologías de la Información, de reciente creación en Nuevo León,

Capacitará la UR a Talentosen Tecnologías de la Información

señaló el ingeniero Noé Salinas Brondo, director de las ca-rreras de Tecnologías de Información de la UR.

Explicó que, actualmente, un equipo integrado por diez especialistas de las universidades mencionadas di-seña el plan de estudios que se implementará a partir de junio o julio, con el fin de capacitar en la primera etapa a 100 de los 500 ingenieros que requiere la empresa india Infosys, para su funcionamiento en Nuevo León, después de un convenio celebrado con el gobernador José Nativi-dad González Parás.

“Se pretende dar una beca de seis meses para capaci-tar a jóvenes con grado de ingeniero para que cubran los puestos que en este caso requiere la empresa Infosys”, mencionó.

DESARROLLO DE TALENTO HUMANO

Salinas Brondo puntualizó que la delegación del Estado de Nuevo León que fue a la India para conocer un cen-tro de tecnología educativa, vio de cerca las bondades del modelo desarrollado en el sector tecnológico en ese país, principalmente en Mysore, donde está el campus en que la empresa Infosys desarrolla su talento humano.

“Se pretende contratar a cualquier ingeniero; la meta es prepararlo y en este caso se ofrece un plan de conver-sión para capacitar a egresados de cualquier ingeniería en Tecnologías de la Información”, dijo.

El funcionario de la UR comentó que ésta es una opor-tunidad para personas que por algún motivo no han po-dido ejercer sus profesiones de ingeniero y se dedican a otros menesteres para salir adelante.

“Este programa para generar capital intelectual a través de la capacitación, está tomado de esta experiencia que fuimos a conocer a la India”, mencionó Salinas Brondo.

Explicó que en un período de 14 semanas, los partici-pantes podrán ser incorporados al mercado laboral de las Tecnologías de la Información.

Recordó que el pasado mees de enero, para analizar esta experiencia e implementarla en el Estado, la comitiva encabezada por el gobernador, directivos de la Universi-dad Regiomontana, del Tecnológico de Monterrey, de la Universidad Autónoma de Nuevo León, y de la UDEM, así como empresarios emprendieron este viaje a Mysore y a Bangalore, el corazón del sector de servicios informáticos de ese país.

“La meta con este programa es que en Nuevo León, para 2014, haya 20 mil empleos en el rubro de la industria del software”, puntualizó Salinas Brondo.

Mencionó que es impresionante el desarrollo que la India ha tenido en los últimos años, gracias a progra-mas como el que ha desarrollado Infosys en la población hindú, lo que ha detonado la existencia de una incipiente clase media en ese país.

De Izq. A Derecha: Rogelio Granguillhome Embajador de México en la India, Noé Salinas Director de las carreras de TI Universidad Regiomontana, Natividad Gonzalez P. Gobernador del estado de N. L. Dr. Fernando Valles Maestro de la UR.

66y7.indd 1 26/02/2008 17:01:54

CONOCIMIENTOTECNOLOGÍAS WEB6 67

<?xml version=”1.0”>

<persona>

<nombre> Juan </nombre>

<apellido tipo=”paterno”> Martínez </apellido>

<apellido tipo=”materno> Pérez </apellido>

<telefono tipo=”casa”> (123) 456-7890 </telefono>

<telefono tipo=”oficina”> (123) 789-0123 </tele-

fono>

</persona>

La interpretación del código es bastante obvia para los seres humanos, y es lo suficientemente estructurada para

poder ser procesada por un programa computacional. Las etiquetas nombre’’, “apellido’’, “teléfono’’, etcétera, cuen-tan con una interpretación (intuitiva para nosotros) que debe ser definida en lo que se llama un “namespace’’.

La definición de los mensajes utilizados por los Ser-vicios Web tiene una implementación específica de XML llamada SOAP, una aplicación de la especificación de XML que establece significados especiales a las etiquetas uti-lizadas.

La World Wide Web Consortium (W3C) es la encargada de mantener la especificación del protocolo SOAP. Es posi-ble consultar dicha especificación en http://www.w3.org/TR/soap12

DESCRIPCIÓN DE SERVICIOS WEB

La descripción estandarizada de servicios web facilita muchísimo el desarrollo de aplicaciones que accedan a di-chos servicios. Dicha descripción se realiza mediante Web Services Description Language (WSDL). La definición de WSDL es pública y está disponible en http://www.w3.org/TR/wsdl.

WSDL permite la generación automática del código ca-paz de acceder al servicio web en cuestion. WSDL define:

- Las subrutinas accesibles mediante el servicio

Web.

- Los parámetros que reciben las subrutinas.

- Los valores que regresan las subrutinas.

- La manera de acceder al servicio web (por ejemplo,

HTTP)

- La dirección (url) en la cual está disponible el Ser-

vicio Web.

CONCLUSIÓN

Hemos presentado las tecnologías que se utilizan actual-mente para integrar Servicios Web. Es necesario que los desarrolladores se apeguen estrictamente a los estándares establecidos, a fin de que todos podamos acceder a los Web que provean. La impresionante explosión de Internet se debió a que todos podían implementar servidores HTTP y aplicaciones cliente capaces de interpretar HTML y pre-sentarlos a los usuarios.

Antes de la explosión de las computadoras personales, cada fabricante producía equipos que funcionaban única-mente con equipos del mismo fabricante. La computa-

dora personal hizo posible que las tarjetas producidas

por cualquier fabricante pudieran ser conectadas a las

computadoras de cualquier otro fabricante gracias a es-

tándares tales como ISA o PCI.

Asimismo, antes de la explosión de Internet, cada fa-bricante de equipos de red producía equipos que funcio-naban únicamente con equipos de red del mismo fabri-cante. Estándares tales como Ethernet y TCP/IP hicieron posible que cualquier aplicación transmitiera información a cualquier otra aplicación, lo cual hizo posible lo que hoy conocemos como Internet. Todos los Servicios Web pue-den interactuar entre sí únicamente si se apegan a es-tándares públicos. El ejemplo que se mencionó es posible debido a que todos los agentes involucrados respetan los estándares de WSDL, SOAP y HTTP.

El World Wide Web Consortium Abreviado W3C, es un consorcio internacional que produce estándares para la World Wide Web. Está dirigida por Tim Berners-Lee, el creador original de URL (Uniform Resource Locator, Localizador Uniforme de Recursos), HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de HiperTexto) y HTML (Lenguaje de Marcado de HiperTexto) que son las principales tecnologías sobre las que se basa la Web.Creada el 1 de octubre de 1994 por Tim Berners-Lee en el MIT, actual sede central del consorcio. Uniéndose posteriormente en abril de 1995 INRIA en Francia, reemplazado por el ERCIM en el 2003 como el huésped europeo del consorcio y Universidad de Keio (Shonan Fujisawa Campus) en Japón en septiembre de 1996 como huésped asiatico. Estos organismos administran el consorcio, el cual está integrado por:

* Miembros del W3C. A octubre de 2007 contaba con 435 miembros (lista completa) * Equipo W3C (W3C Team) 65 investigadores y expertos de todo el mundo (Directorio) * Oficinas W3C (W3C Offices). Centros regionales establecidos en Alemania y Austria (oficina conjunta), Australia, Benelux (oficina conjunta), China, Corea del Sur, España, Finlandia, Grecia, Hong Kong, Hungría, India, Israel, Italia, Marruecos, Suecia y Reino Unido e Irlanda (oficina conjunta) (Oficinas W3C)

Felicita el ITESM a IMPLAN San PedroPor su proyecto Caminar es posible

6y67.indd 1 26/02/2008 17:01:26

Page 69: Revista Conocimiento 72

66 CONOCIMIENTO TECNOLOGÍAS WEB 7

Tal y como lo predijo Peter Drucker en 1969, en su libro The Age of Discontinuity, la economía glo-bal ha sufrido un gran cambio, pues la riqueza

y ventajas competitivas ya no giran en torno a los recursos naturales ni a la capacidad productiva convencional. En

este nuevo entorno, cada vez cobra más valor el cono-

cimiento como activo generador de riqueza; conceptos como productividad y calidad están siendo sobrepasados por otros como innovación y conocimiento, y dan lugar a “nuevos” conceptos como sociedad del conocimiento y economía del conocimiento. (Aunque el concepto de economía del conocimiento ya lo maneja Drucker en el li-bro citado, no considera el papel tan relevante que iba a jugar la tecnología como facilitador).

Llegó la era de la información y la consolidación de la internet, pero muy pronto se vio rebasada por la enorme cantidad de datos que había que procesar. Además de esto, la información vertida en el medio está dispersa y poco es-tructurada, y en muchos casos es de dudosa procedencia.

Importancia de la Web 2.0 en la Sociedad del Conocimiento

Ingeniero Roberto Ivon DibildoxDirector de Tecnología / [email protected]

Roberto Ivon Dibildox

A pesar de esto, se reconoce el enorme potencial que

tiene la internet como repositorio; es decir, un medio de

publicación, con las limitantes estáticas de otros medios

convencionales. ¿Éste es el medio idóneo del que se va a valer la sociedad del conocimiento para su desarrollo?

DESARROLLO

DE CONOCIMIENTO

Es un hecho que la capacidad individual para el desarrollo de conocimiento cada vez es más difícil; en parte, dada la gran cantidad de información acumulada que el individuo tiene que procesar. Además, hay que mencionar que los costos para procesar esta cantidad de información cada vez vuelven más inviable el mismo. Dan Tapscott, autor del libro Wikinomics: How Mass Collaboration Changes Eve-rything, nos muestra un ejemplo de cómo una compañía minera, a punto de cerrar operaciones por agotamiento de sus reservas, comparte información privilegiada a la comunidad en la búsqueda de nuevas minas, y cómo esta

En el recién inaugurado campus urbano de la Uni-versidad Regiomontana se llevará a cabo la capaci-tación y desarrollo de talento en Tecnologías de la

Información, programa del Gobierno del Estado en el que participan conjuntamente el Tecnológico de Monterrey, el Tec Milenio, la Universidad Autónoma de Nuevo León y la Universidad de Monterrey.

Este programa, integrado con el apoyo del gobierno es-tatal, federal, universidades y empresarios, funciona den-tro del Instituto de Desarrollo de Talento en Tecnologías de la Información, de reciente creación en Nuevo León,

Capacitará la UR a Talentosen Tecnologías de la Información

señaló el ingeniero Noé Salinas Brondo, director de las ca-rreras de Tecnologías de Información de la UR.

Explicó que, actualmente, un equipo integrado por diez especialistas de las universidades mencionadas di-seña el plan de estudios que se implementará a partir de junio o julio, con el fin de capacitar en la primera etapa a 100 de los 500 ingenieros que requiere la empresa india Infosys, para su funcionamiento en Nuevo León, después de un convenio celebrado con el gobernador José Nativi-dad González Parás.

“Se pretende dar una beca de seis meses para capaci-tar a jóvenes con grado de ingeniero para que cubran los puestos que en este caso requiere la empresa Infosys”, mencionó.

DESARROLLO DE TALENTO HUMANO

Salinas Brondo puntualizó que la delegación del Estado de Nuevo León que fue a la India para conocer un cen-tro de tecnología educativa, vio de cerca las bondades del modelo desarrollado en el sector tecnológico en ese país, principalmente en Mysore, donde está el campus en que la empresa Infosys desarrolla su talento humano.

“Se pretende contratar a cualquier ingeniero; la meta es prepararlo y en este caso se ofrece un plan de conver-sión para capacitar a egresados de cualquier ingeniería en Tecnologías de la Información”, dijo.

El funcionario de la UR comentó que ésta es una opor-tunidad para personas que por algún motivo no han po-dido ejercer sus profesiones de ingeniero y se dedican a otros menesteres para salir adelante.

“Este programa para generar capital intelectual a través de la capacitación, está tomado de esta experiencia que fuimos a conocer a la India”, mencionó Salinas Brondo.

Explicó que en un período de 14 semanas, los partici-pantes podrán ser incorporados al mercado laboral de las Tecnologías de la Información.

Recordó que el pasado mees de enero, para analizar esta experiencia e implementarla en el Estado, la comitiva encabezada por el gobernador, directivos de la Universi-dad Regiomontana, del Tecnológico de Monterrey, de la Universidad Autónoma de Nuevo León, y de la UDEM, así como empresarios emprendieron este viaje a Mysore y a Bangalore, el corazón del sector de servicios informáticos de ese país.

“La meta con este programa es que en Nuevo León, para 2014, haya 20 mil empleos en el rubro de la industria del software”, puntualizó Salinas Brondo.

Mencionó que es impresionante el desarrollo que la India ha tenido en los últimos años, gracias a progra-mas como el que ha desarrollado Infosys en la población hindú, lo que ha detonado la existencia de una incipiente clase media en ese país.

De Izq. A Derecha: Rogelio Granguillhome Embajador de México en la India, Noé Salinas Director de las carreras de TI Universidad Regiomontana, Natividad Gonzalez P. Gobernador del estado de N. L. Dr. Fernando Valles Maestro de la UR.

66y7.indd 1 26/02/2008 17:01:54

CONOCIMIENTOTECNOLOGÍAS WEB6 67

<?xml version=”1.0”>

<persona>

<nombre> Juan </nombre>

<apellido tipo=”paterno”> Martínez </apellido>

<apellido tipo=”materno> Pérez </apellido>

<telefono tipo=”casa”> (123) 456-7890 </telefono>

<telefono tipo=”oficina”> (123) 789-0123 </tele-

fono>

</persona>

La interpretación del código es bastante obvia para los seres humanos, y es lo suficientemente estructurada para

poder ser procesada por un programa computacional. Las etiquetas nombre’’, “apellido’’, “teléfono’’, etcétera, cuen-tan con una interpretación (intuitiva para nosotros) que debe ser definida en lo que se llama un “namespace’’.

La definición de los mensajes utilizados por los Ser-vicios Web tiene una implementación específica de XML llamada SOAP, una aplicación de la especificación de XML que establece significados especiales a las etiquetas uti-lizadas.

La World Wide Web Consortium (W3C) es la encargada de mantener la especificación del protocolo SOAP. Es posi-ble consultar dicha especificación en http://www.w3.org/TR/soap12

DESCRIPCIÓN DE SERVICIOS WEB

La descripción estandarizada de servicios web facilita muchísimo el desarrollo de aplicaciones que accedan a di-chos servicios. Dicha descripción se realiza mediante Web Services Description Language (WSDL). La definición de WSDL es pública y está disponible en http://www.w3.org/TR/wsdl.

WSDL permite la generación automática del código ca-paz de acceder al servicio web en cuestion. WSDL define:

- Las subrutinas accesibles mediante el servicio

Web.

- Los parámetros que reciben las subrutinas.

- Los valores que regresan las subrutinas.

- La manera de acceder al servicio web (por ejemplo,

HTTP)

- La dirección (url) en la cual está disponible el Ser-

vicio Web.

CONCLUSIÓN

Hemos presentado las tecnologías que se utilizan actual-mente para integrar Servicios Web. Es necesario que los desarrolladores se apeguen estrictamente a los estándares establecidos, a fin de que todos podamos acceder a los Web que provean. La impresionante explosión de Internet se debió a que todos podían implementar servidores HTTP y aplicaciones cliente capaces de interpretar HTML y pre-sentarlos a los usuarios.

Antes de la explosión de las computadoras personales, cada fabricante producía equipos que funcionaban única-mente con equipos del mismo fabricante. La computa-

dora personal hizo posible que las tarjetas producidas

por cualquier fabricante pudieran ser conectadas a las

computadoras de cualquier otro fabricante gracias a es-

tándares tales como ISA o PCI.

Asimismo, antes de la explosión de Internet, cada fa-bricante de equipos de red producía equipos que funcio-naban únicamente con equipos de red del mismo fabri-cante. Estándares tales como Ethernet y TCP/IP hicieron posible que cualquier aplicación transmitiera información a cualquier otra aplicación, lo cual hizo posible lo que hoy conocemos como Internet. Todos los Servicios Web pue-den interactuar entre sí únicamente si se apegan a es-tándares públicos. El ejemplo que se mencionó es posible debido a que todos los agentes involucrados respetan los estándares de WSDL, SOAP y HTTP.

El World Wide Web Consortium Abreviado W3C, es un consorcio internacional que produce estándares para la World Wide Web. Está dirigida por Tim Berners-Lee, el creador original de URL (Uniform Resource Locator, Localizador Uniforme de Recursos), HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de HiperTexto) y HTML (Lenguaje de Marcado de HiperTexto) que son las principales tecnologías sobre las que se basa la Web.Creada el 1 de octubre de 1994 por Tim Berners-Lee en el MIT, actual sede central del consorcio. Uniéndose posteriormente en abril de 1995 INRIA en Francia, reemplazado por el ERCIM en el 2003 como el huésped europeo del consorcio y Universidad de Keio (Shonan Fujisawa Campus) en Japón en septiembre de 1996 como huésped asiatico. Estos organismos administran el consorcio, el cual está integrado por:

* Miembros del W3C. A octubre de 2007 contaba con 435 miembros (lista completa) * Equipo W3C (W3C Team) 65 investigadores y expertos de todo el mundo (Directorio) * Oficinas W3C (W3C Offices). Centros regionales establecidos en Alemania y Austria (oficina conjunta), Australia, Benelux (oficina conjunta), China, Corea del Sur, España, Finlandia, Grecia, Hong Kong, Hungría, India, Israel, Italia, Marruecos, Suecia y Reino Unido e Irlanda (oficina conjunta) (Oficinas W3C)

Felicita el ITESM a IMPLAN San PedroPor su proyecto Caminar es posible

6y67.indd 1 26/02/2008 17:01:26

Page 70: Revista Conocimiento 72

68 CONOCIMIENTO TECNOLOGÍAS WEB 5

cho mapa al usuario, incluida información de distancia al destino y tiempo de entrega.

El responsable estatal de las bibliotecas de Nuevo León solicita información acerca del número de libros en exis-tencia. Se solicita automáticamente dicha información a todas las bibliotecas del estado y se genera un reporte.

TECNOLOGÍAS DE LOS SERVICIOS WEB

El día de hoy es posible implementar el ejemplo anterior. Un buen programador cuenta con todas las herramien-

tas para llevar a cabo dicha implementación. Lo único que necesita es una manera sistemática de acceder a cada uno de los Servicios Web de los diferentes proveedores de servicios (Google Maps, Amazon, UPS).

La necesidad de definir la información de manera de-tallada implica el uso de una serie de tecnologías para sa-tisfacer dicha necesidad. Se requiere una manera estándar de realizar cada una de las siguientes actividades:

- Transporte de mensajes- Definición de mensajes- Descripción de servicios web

TRANSPORTE DE MENSAJES

El transporte de mensajes utilizados por los Servicios Web se realiza mediante el protocolo HTTP. Se utiliza dicho pro-

tocolo debido a que está ya bien establecido en la comuni-dad Internet. Está definido de manera pública por el docu-mento RFC--2616 de la Internet Engineering Task Force (IETF), disponible en http://www.ietf.org/rfc/rfc2616.txt, y existen múltiples implementaciones del mismo.

El protocolo HTTP fue creado pensando en el trans-

porte de páginas web (esencialmente, documentos

HTML) y es posible que no sea el protocolo idóneo para solicitar la ejecución remota de subrutinas; sin embargo, a falta de un protocolo específico cuya utilización haya sido ampliamente probada en Internet, se utiliza HTTP para transportar los mensajes intercambiados por los servicios web.

DEFINICIÓN DE MENSAJES

Debido a que un Servicio Web es independiente del siste-ma operativo y del lenguaje de programación, es necesa-rio establecer claramente la manera en que se solicita la ejecución remota de procedimientos. La manera natural en que se hace esto es utilizando XML (eXtensible Markup Language). XML es un lenguaje de uso general utilizado para lo que se conoce como markup. El siguiente segmen-to de código está escrito en XML:

Don José Natividad González González, padre del gobernador José Natividad González Parás, falleció el domingo 24 de febrero de 2008 a las

5:40 horas, a la edad de 94 años. El gobernador se encontraba en Washington, D. C,

en donde asistiría a la Reunión de Gobernadores Fron-terizos de México y Estados Unidos.

De acuerdo a una información emitida por el Depar-tamento de Comunicación Social del Gobierno de Nuevo León, don José Natividad murió por causas naturales. Le sobreviven sus hijos: José Natividad, Luis Francisco, Javier, Gerardo, Gustavo, María Cris-tina y Miriam González Parás, producto de su ma-trimonio con la señora María Cristina Parás Barocio.

Nacido en Rafael El Llano, Municipio de General Terán, González González se dedicó a negocios priva-dos, y estuvo al margen de la política. Los restos de González González fueron velados en la Iglesia María de los Ángeles, en la Colonia Valle de San Ángel; donde el lunes 25 de febrero, a las 16:00 horas, el cardenal Francisco Robles Ortega ofició misa de cuer-

po presente. La inhumación fue de carácter priva-do, y sólo asistieron los integrantes de la familia.

REUNIÓN DE WASHINGTON

La reunión en la que participaría González Parás se rea-lizaría en el hotel Four Seasons, de Washington, D.C., los días domingo 24 y lunes 25 de febrero. En el pri-

mer día de actividades, el mandatario nuevoleonés

sostendría reuniones con otros gobernadores y el

secretario del Tesoro y otros altos funcionarios del

gobierno de Washington donde se abordaría el tema

sobre Fondos para Proyectos de Cambio Climático.

Otras reuniones fueron programadas con el se-cretario de Seguridad Interna de los Estados Unidos, Michael Chertoff, y con Jeffrey Berman, director ejecu-tivo del National Strategy Information Center.

Durante esos dos días, los gobernadores mexi-canos y estadounidenses trataron temas de trascen-dencia en materia de desarrollo económico, medio ambiente, seguridad fronteriza y de logística y cruces fronterizos, así como el proyecto del puente ferrovia-rio en Colombia, Nuevo León

A la edad de 94 años

Fallece el papá del gobernador

Don José Natividad González González en la entrega de una ambulancia en el municipio de General Terán.

68y5.indd 1 26/02/2008 17:01:03

CONOCIMIENTOTECNOLOGÍAS WEB4 69

A partir de su invención, a principios de los años 90 y hasta nuestros días, la World Wide Web, o Inter-net, ha sido utilizada principalmente para disemi-

nar información o acceder a ella mediante la publicación y recuperación de documentos, típicamente en formato HTML. Los principales usuarios de dicha información son personas, que acceden a ella mediante un navegador o al-gún reproductor de contenido. Esto es lo que comúnmente llamamos Web 1.0.

La Web 2.0 se refiere al acceso a información no sola-mente por las personas, sino también por las computa-doras, a fin de que dicha información sea procesada de manera automática. Los Servicios Web son una parte im-portante de esta nueva Web.

CONCEPTOS BÁSICOS

Un servicio web es esencialmente un servicio cuya interfaz de acceso está disponible en Internet. Los Servicios Web son construidos mediante el uso de tecnologías estándar de Internet. En otras palabras, si es posible acceder a un

servicio a través de Internet utilizando protocolos están-

dar, entonces dicho servicio es un servicio web.

Un servicio web es una interfaz ubicada entre un pro-grama o aplicación y el usuario final de dicho programa o aplicación. Funciona como una abstracción de la apli-cación, y hace posible que cualquier lenguaje de progra-mación tenga acceso a la funcionalidad provista por la aplicación.

Un servicio Web es independiente del sistema opera-tivo y del lenguaje de programación utilizado.

SERVICIOS WEB HASTA HOY

En la actualidad, los servicios web que encontramos comúnmente son sitios web. En dichos sitios, se accede a las aplicaciones mediante el protocolo estándar HTTP y se recupera información en el formato estándar HTML. Di-

chos servicios web nos permiten, por ejemplo, comprar li-bros o leer noticias. Debido a que tanto HTTP como HTML son protocolos estándar, cuyas definiciones son públicas, cualquier navegador permite a los usuarios acceder a los servicios web actuales. Tanto el lenguaje de programación utilizado para implementar el navegador, como el sistema operativo sobre el cual es ejecutado el navegador son irre-levantes desde el punto de vista del servicio web. Un nave-gador solamente tiene que poder solicitar información mediante HTTP y saber interpretar código HTML.

Los Servicios Web actuales están diseñados para

presentar la información directamente al usuario final. Esto permite una gran flexibilidad, ya que el ser humano es capaz de interpretar información en cualquier formato: con o sin indentación, a doble espacio, en columnas, con figuras intercaladas e inclusive con faltas ortográficas o gramaticales.

SERVICIOS WEB A PARTIR HOY

Utilizando el ejemplo de la compra de libros en línea, es fácil para un humano interpretar la interfaz de compra. De inmediato se ve dónde es necesario alimentar infor-mación y dónde hacer clic para que el libro sea enviado. La interfaz de acceso está diseñada para ser usada por seres humanos.

Si deseamos, en cambio, automatizar la compra de li-bros de una biblioteca, de manera que un programa busque la disponibilidad de ellos y consiga los mejores precios, entonces la interfaz anterior no le es muy útil a nuestro programa de compra de libros. Es necesario diseñar una

interfaz a la cual puedan acceder programas. Esto im-

plica necesariamente una estandarización mucho más

detallada de la información que se manipula.

Se hace necesario el acceso estandarizado a llamadas tales como: “Ejecuta esta subrutina con estos parámetros’’ y a respuestas del tipo: “Éstos son los resultados de la llamada a la subrutina’’.

EJEMPLO DE SERVICIOS WEB

A continuación presentamos un ejemplo de lo que es po-sible lograr mediante Servicios Web.La biblioteca municipal de Monterrey está permanente-mente conectada a Internet.

Un usuario pregunta si existe el libro El laberinto de la soledad. El libro no existe en la biblioteca, pero es la cuarta vez en la semana que alguien lo solicita.

La biblioteca realiza automáticamente una búsqueda en Internet y descubre que el libro puede ser adquirido en http://www.amazon.com. La biblioteca realiza la compra y recibe un número de guía UPS, mediante el cual puede rastrear el paquete enviado.

El usuario recibe un mensaje en el que se le indica

que el libro no está actualmente en existencia, pero que

llegará dentro de tres días.

Al día siguiente, el usuario pregunta dónde esta el li-bro. El sistema consulta el servicio de rastreo de UPS, que le indica que el paquete está en tránsito en un pequeño pueblo de Estados Unidos. El sistema accede a los servicios de Google Maps, ubica el pueblo en un mapa y presenta di-

Qué ofrecen losServicios Web

Doctor Arturo Galván Rodríguez

Profesor InvestigadorCentro de SistemasInteligentes / [email protected]

Arturo Galván Rodríguez

Niña con flores amarillas, en la Pinacoteca Nuevo León

La obra de Rufino Tamayo “Niña con flores amarillas”,

realizada en 1946, cuando el artista oaxaqueño estaba en la plenitud de su carrera, es presentada en la sala de recepción de la Pinacoteca de Nuevo León, desde el 6 de febrero de 2008, en la recién instituida “Sala de Invitados”.

La señora Elvira Lozano de Todd, directora del recinto ubicado en el Colegio Civil, Centro Cultural Universitario, informó que a partir de la institución de este proyecto, en sustitución de la pieza del mes, se podrán exponer obras “universales”, durante uno o dos meses, de colecciones privadas, galeristas e incluso de otras pinacotecas estatales.

En esta ocasión, la Sala de Invitados alberga la obra del maestro Rufino Tamayo, prestada por el coleccionista y promotor cultural Mauricio Fernández Garza, quien apa-drinó este proyecto, apoyando la exhibición de “Niña con flores amarillas”, en la entrada de la Pinacoteca.

PROMOCIÓN Y DIFUSIÓN

Lozano de Todd reiteró que la vocación de la Pinacoteca de Nuevo León es promover y difundir la obra plástica de los artistas nuevoleoneses, pero que existe la apertura para presentar la obra de artistas que no sean del Estado, para que como distinguidos huéspedes puedan recibir la atención y admiración de los visitantes del recinto.

La funcionaria hizo una semblanza del artista oax-aqueño y mencionó que, previamente, el patrimonio cul-tural de Monterrey se ha enriquecido con grandes obras del creador: el vitral “El Universo”, del centro Cultural Alfa, y la escultura urbana “Homenaje al sol”.

La presentación de “Niña con flores amarillas” fue in-tegrada a un espacio que destaca con la museografía de Elisa Téllez, la cual es apoyada con un texto que investigó José Doria.

Los paisajistas locales han capturado la magia y color de las montañas que rodean

a Monterrey, el colorido de la flora vernácula y el agreste escenario que en ocasiones se percibe en algunos rinco-nes del Estado. Con estas imágenes han llenado sus lienzos y los han deja-do como mudos testigos de un cambio que pocos perciben.

Con una visible preocupación por el deterioro ambiental el arquitecto-acuarelista Héctor Cantú Ojeda hizo un llamado para tomar conciencia de lo erosionado de la flora local en la ac-tualidad.

“Se va acabando”, puntualizó el artista participante de la muestra “Paisaje” que estará abierta al público a partir del 5 de marzo en las salas de la Pinacoteca. Consideró que ya no existe respeto por preservar el paisaje y la naturaleza, como lo evidencian el uso y explotación que sufren los ce-rros y otras zonas representativas de Monterrey, como La Huasteca. Ante el evidente cambio del paisaje urbano, el artista hizo un llamado a la conserva-ción de la naturaleza, principalmente al entorno local, del cual dijo que tiene un colorido único. “Cuando a un ceni-zo le cae el agua cambia de color, y así toda la vegetación, pero eso es algo que ya nadie observa”, dijo.

Cantú Ojeda y Saskia Juárez estu-vieron presentes en la rueda de prensa donde se informó de esta exhibición de la selección de piezas con el tema

del “Paisaje”, que se presentará a par-tir del 5 de marzo en la Pinacoteca de Nuevo León.

Este tema, que ha sido manejado por los creadores nuevoleoneses en diversos estilos y épocas, se desple-gará hasta el mes de agosto, con la exhibición de 28 obras de 18 artistas; entre ellos Carmen Cortés, maestra fundadora del Taller de Artes Plásti-cas de la Universidad Autónoma de Nuevo León, hasta representantes de las generaciones más jóvenes, como Israel Mercado.

Presentarán selección

de obras escultóricas

La producción escultórica nuevoleone-sa tiene distintos matices, como ha-llazgos de los propios artistas de dife-rentes generaciones; así, el espectador puede observar los diversos materia-les utilizados en estas obras.

A partir del 6 de marzo, la Pina-coteca de Nuevo León presentará una selección de obras escultóricas de di-versos estilos y técnicas, con obras de Fidias Elizondo y Federico Cantú, así como de artistas contemporáneas, tales como Elisa Pasquel, Mauricio Cortés, Cuauhtémoc Zamudio, Enrique Canales, Gerardo Azcúnaga, Hilda San Vicente, Javier Zarazúa, J.L. Morales (SERALOM) y Raúl de la Rosa, entre otros.

La Pinacoteca de Nuevo León está ubicada en el Colegio Civil Centro Uni-versitario, en Juárez y Washington.

Capturan paisajistas locales magia y color de nuestras montañas

“El vallecito”, Saskia Juárez

4y69.indd 1 26/02/2008 17:00:41

Page 71: Revista Conocimiento 72

CONOCIMIENTOTECNOLOGÍAS WEB4 69

A partir de su invención, a principios de los años 90 y hasta nuestros días, la World Wide Web, o Inter-net, ha sido utilizada principalmente para disemi-

nar información o acceder a ella mediante la publicación y recuperación de documentos, típicamente en formato HTML. Los principales usuarios de dicha información son personas, que acceden a ella mediante un navegador o al-gún reproductor de contenido. Esto es lo que comúnmente llamamos Web 1.0.

La Web 2.0 se refiere al acceso a información no sola-mente por las personas, sino también por las computa-doras, a fin de que dicha información sea procesada de manera automática. Los Servicios Web son una parte im-portante de esta nueva Web.

CONCEPTOS BÁSICOS

Un servicio web es esencialmente un servicio cuya interfaz de acceso está disponible en Internet. Los Servicios Web son construidos mediante el uso de tecnologías estándar de Internet. En otras palabras, si es posible acceder a un

servicio a través de Internet utilizando protocolos están-

dar, entonces dicho servicio es un servicio web.

Un servicio web es una interfaz ubicada entre un pro-grama o aplicación y el usuario final de dicho programa o aplicación. Funciona como una abstracción de la apli-cación, y hace posible que cualquier lenguaje de progra-mación tenga acceso a la funcionalidad provista por la aplicación.

Un servicio Web es independiente del sistema opera-tivo y del lenguaje de programación utilizado.

SERVICIOS WEB HASTA HOY

En la actualidad, los servicios web que encontramos comúnmente son sitios web. En dichos sitios, se accede a las aplicaciones mediante el protocolo estándar HTTP y se recupera información en el formato estándar HTML. Di-

chos servicios web nos permiten, por ejemplo, comprar li-bros o leer noticias. Debido a que tanto HTTP como HTML son protocolos estándar, cuyas definiciones son públicas, cualquier navegador permite a los usuarios acceder a los servicios web actuales. Tanto el lenguaje de programación utilizado para implementar el navegador, como el sistema operativo sobre el cual es ejecutado el navegador son irre-levantes desde el punto de vista del servicio web. Un nave-gador solamente tiene que poder solicitar información mediante HTTP y saber interpretar código HTML.

Los Servicios Web actuales están diseñados para

presentar la información directamente al usuario final. Esto permite una gran flexibilidad, ya que el ser humano es capaz de interpretar información en cualquier formato: con o sin indentación, a doble espacio, en columnas, con figuras intercaladas e inclusive con faltas ortográficas o gramaticales.

SERVICIOS WEB A PARTIR HOY

Utilizando el ejemplo de la compra de libros en línea, es fácil para un humano interpretar la interfaz de compra. De inmediato se ve dónde es necesario alimentar infor-mación y dónde hacer clic para que el libro sea enviado. La interfaz de acceso está diseñada para ser usada por seres humanos.

Si deseamos, en cambio, automatizar la compra de li-bros de una biblioteca, de manera que un programa busque la disponibilidad de ellos y consiga los mejores precios, entonces la interfaz anterior no le es muy útil a nuestro programa de compra de libros. Es necesario diseñar una

interfaz a la cual puedan acceder programas. Esto im-

plica necesariamente una estandarización mucho más

detallada de la información que se manipula.

Se hace necesario el acceso estandarizado a llamadas tales como: “Ejecuta esta subrutina con estos parámetros’’ y a respuestas del tipo: “Éstos son los resultados de la llamada a la subrutina’’.

EJEMPLO DE SERVICIOS WEB

A continuación presentamos un ejemplo de lo que es po-sible lograr mediante Servicios Web.La biblioteca municipal de Monterrey está permanente-mente conectada a Internet.

Un usuario pregunta si existe el libro El laberinto de la soledad. El libro no existe en la biblioteca, pero es la cuarta vez en la semana que alguien lo solicita.

La biblioteca realiza automáticamente una búsqueda en Internet y descubre que el libro puede ser adquirido en http://www.amazon.com. La biblioteca realiza la compra y recibe un número de guía UPS, mediante el cual puede rastrear el paquete enviado.

El usuario recibe un mensaje en el que se le indica

que el libro no está actualmente en existencia, pero que

llegará dentro de tres días.

Al día siguiente, el usuario pregunta dónde esta el li-bro. El sistema consulta el servicio de rastreo de UPS, que le indica que el paquete está en tránsito en un pequeño pueblo de Estados Unidos. El sistema accede a los servicios de Google Maps, ubica el pueblo en un mapa y presenta di-

Qué ofrecen losServicios Web

Doctor Arturo Galván Rodríguez

Profesor InvestigadorCentro de SistemasInteligentes / [email protected]

Arturo Galván Rodríguez

Niña con flores amarillas, en la Pinacoteca Nuevo León

La obra de Rufino Tamayo “Niña con flores amarillas”,

realizada en 1946, cuando el artista oaxaqueño estaba en la plenitud de su carrera, es presentada en la sala de recepción de la Pinacoteca de Nuevo León, desde el 6 de febrero de 2008, en la recién instituida “Sala de Invitados”.

La señora Elvira Lozano de Todd, directora del recinto ubicado en el Colegio Civil, Centro Cultural Universitario, informó que a partir de la institución de este proyecto, en sustitución de la pieza del mes, se podrán exponer obras “universales”, durante uno o dos meses, de colecciones privadas, galeristas e incluso de otras pinacotecas estatales.

En esta ocasión, la Sala de Invitados alberga la obra del maestro Rufino Tamayo, prestada por el coleccionista y promotor cultural Mauricio Fernández Garza, quien apa-drinó este proyecto, apoyando la exhibición de “Niña con flores amarillas”, en la entrada de la Pinacoteca.

PROMOCIÓN Y DIFUSIÓN

Lozano de Todd reiteró que la vocación de la Pinacoteca de Nuevo León es promover y difundir la obra plástica de los artistas nuevoleoneses, pero que existe la apertura para presentar la obra de artistas que no sean del Estado, para que como distinguidos huéspedes puedan recibir la atención y admiración de los visitantes del recinto.

La funcionaria hizo una semblanza del artista oax-aqueño y mencionó que, previamente, el patrimonio cul-tural de Monterrey se ha enriquecido con grandes obras del creador: el vitral “El Universo”, del centro Cultural Alfa, y la escultura urbana “Homenaje al sol”.

La presentación de “Niña con flores amarillas” fue in-tegrada a un espacio que destaca con la museografía de Elisa Téllez, la cual es apoyada con un texto que investigó José Doria.

Los paisajistas locales han capturado la magia y color de las montañas que rodean

a Monterrey, el colorido de la flora vernácula y el agreste escenario que en ocasiones se percibe en algunos rinco-nes del Estado. Con estas imágenes han llenado sus lienzos y los han deja-do como mudos testigos de un cambio que pocos perciben.

Con una visible preocupación por el deterioro ambiental el arquitecto-acuarelista Héctor Cantú Ojeda hizo un llamado para tomar conciencia de lo erosionado de la flora local en la ac-tualidad.

“Se va acabando”, puntualizó el artista participante de la muestra “Paisaje” que estará abierta al público a partir del 5 de marzo en las salas de la Pinacoteca. Consideró que ya no existe respeto por preservar el paisaje y la naturaleza, como lo evidencian el uso y explotación que sufren los ce-rros y otras zonas representativas de Monterrey, como La Huasteca. Ante el evidente cambio del paisaje urbano, el artista hizo un llamado a la conserva-ción de la naturaleza, principalmente al entorno local, del cual dijo que tiene un colorido único. “Cuando a un ceni-zo le cae el agua cambia de color, y así toda la vegetación, pero eso es algo que ya nadie observa”, dijo.

Cantú Ojeda y Saskia Juárez estu-vieron presentes en la rueda de prensa donde se informó de esta exhibición de la selección de piezas con el tema

del “Paisaje”, que se presentará a par-tir del 5 de marzo en la Pinacoteca de Nuevo León.

Este tema, que ha sido manejado por los creadores nuevoleoneses en diversos estilos y épocas, se desple-gará hasta el mes de agosto, con la exhibición de 28 obras de 18 artistas; entre ellos Carmen Cortés, maestra fundadora del Taller de Artes Plásti-cas de la Universidad Autónoma de Nuevo León, hasta representantes de las generaciones más jóvenes, como Israel Mercado.

Presentarán selección

de obras escultóricas

La producción escultórica nuevoleone-sa tiene distintos matices, como ha-llazgos de los propios artistas de dife-rentes generaciones; así, el espectador puede observar los diversos materia-les utilizados en estas obras.

A partir del 6 de marzo, la Pina-coteca de Nuevo León presentará una selección de obras escultóricas de di-versos estilos y técnicas, con obras de Fidias Elizondo y Federico Cantú, así como de artistas contemporáneas, tales como Elisa Pasquel, Mauricio Cortés, Cuauhtémoc Zamudio, Enrique Canales, Gerardo Azcúnaga, Hilda San Vicente, Javier Zarazúa, J.L. Morales (SERALOM) y Raúl de la Rosa, entre otros.

La Pinacoteca de Nuevo León está ubicada en el Colegio Civil Centro Uni-versitario, en Juárez y Washington.

Capturan paisajistas locales magia y color de nuestras montañas

“El vallecito”, Saskia Juárez

4y69.indd 1 26/02/2008 17:00:41

Page 72: Revista Conocimiento 72

70 3

Alvin Toffler, futurólogo a quien conocimos hace mucho tiempo, describió el término: La tercera ola, refiriéndose a la nueva época de la comuni-

cación, que desborda la revolución industrial del siglo XVIII, el XIX y la revolución agrícola, que es milenaria. Nosotros nos atrevemos a escribir sobre el tema de la “cuarta ola”, que es la de los súper canales de la infor-mación, que, queramos o no, están trasformando nues-tra civilización.

Los cambios dramáticos de la ola digital, que fue-ron producto de investigaciones matemáticas con al-goritmos muy complejos, y después de la innovación tecnológica, rica en alternativas, del uso de las ondas hertzianas y de la comunicación trasnacional, han pro-ducido cambios en las múltiples áreas del existir coti-diano y vivencial. Algunos ejemplos pueden describir este potencial:

Uno de ellos es el impacto que este proceso tiene sobre el arte-ciencia del gobernar, el cual se transforma a gran velocidad en la actualidad con el llamado e-go-bierno, que, aprovechando la denominada banda ancha y la comunicación intranet, generará, de aprovecharse bien, una alta eficiencia en el sector gubernamental y disminuirá las enfermedades de la apología social en-démica, que caracteriza algunas veces a la burocracia.

En Nuevo León, Estado de Progreso, se está dando este rumbo de modernización, y nuestra página elec-trónica es ya un ejemplo nacional. Además, la trans-parencia vía electrónica, que es obligación legal del sector público, está resultando un buen antibiótico en contra de la enfermedad de la corrupción. Este proceso, de hacer objetivas las acciones del servidor público, mejora la imagen del gobierno y aumenta la confianza ocular; sin embargo, las leyes de transparencia y la pu-blicación a tiempo real, solas, no nos van a hacer más honestos, pero al menos nos obligan a ser inteligentes y más eficientes. El verdadero tratamiento de este fenó-meno está en la educación, en el incremento de nuestra autoestima y en la dignificación del servidor público.

También los vientos de la electrónica están modifi-cando los rumbos fenicios del mercado, pues está bien documentado que las compras y ventas por Internet, y la simbología fantasiosa y conductista de la imagen están desviando el tradicional mercado persa hacia la

adquisición de bienes y servicios a través de la banda ancha, que de esa forma amplifica la adicción a las com-pras, enfermedad que caracteriza a la sociedad actual.

Por supuesto, no todo “está podrido en Dinamarca”, como diría Shakespeare, pues la ola digital trae profun-dos cambios en la educación, en el arte lúdico del gozo y en la comunicación interhumana rápida y permanen-te que la telefonía celular y la informática permiten a tiempo real. De nuestra capacidad de aprovechar y no desvirtuar esta tecnología se producirá un mundo sin analfabetismo y con menores contrasentidos sociales y mayor justicia en la distribución del ingreso de esta nueva sociedad del conocimiento. Si a esto le agrega-mos la “sociedad del conocimiento” como aliada de las páginas Web y de la comunicación vía súper canales de información, podremos aprovechar las bondades docu-mentadas de esta nueva ola.

En síntesis: este tsunami de la banda ancha digital y de la sociedad E está sacudiendo el interior de nuestro potencial humano creativo, y si logramos que esta nue-va energía se vectorice en beneficio de la raza humana, a través de respetar un marco ético de comportamiento, estaremos satisfechos de que la nueva ola sea condu-cida con los valores de siempre, evitando que la misma nos guíe a desvirtuar la esencia del humanismo virtual, que es la síntesis poética de la libertad del hombre he-cha preocupación, no sólo por el “yo”, sino también por el “nosotros”.

Pienso, luego existo

DESCARTES1596 a 1650

De haber sabido que mi método cartesiano

iba a producir una revolución digital como la actual, quizás no me

hubiera muerto.

Tecn

olog

ías

Web

EDITORIAL

La ola digital

El nuevo universo: Web

El arquitecto y urbanista Rubén Pesci, reconocido

internacionalmente por su destacada trayectoria profe-

sional, estuvo en días pasados en San Pedro Garza Gar-

cía, y accedió a una entrevista con CONOCIMIENTO. He

aquí el texto de la conversación:

Gabriel Todd: La ciudad ¿es ciencia o es arte?

Ruben Pesci: Muy buena pregunta. En síntesis, la ciu-dad es ante todo arte, una mirada integradora histórica cultural. El propio Albert Einsten, uno de los más notables científicos de la historia, dijo que en tiempo de crisis, de cambio, de evolución, es más importante la imaginación que el conocimiento. La imaginación es típicamente una

forma de pensamiento artística. Ese arte urbano, como

se le llamaba desde el siglo XIX; tiene que estar basado en conocimiento, en datos, en evidencia, en donde la ciencia viene en auxilio, pero viene en auxilio. Invertir la ecuación y decir que el arte es un complemento, decir que es un artefacto de la ciencia, es no entender la vida.

GT: Como recomponer la ciudad desde el paisaje, que

Ingeniero Gabriel ToddDirector General

del Instituto Municipal de Planeación

Urbana San Pedro Garza García

[email protected]

el paisaje sea el elemento rector de la ciudad a pesar de toda la actividad económica que engloba la vida urbana. ¿Estás de acuerdo?

RP: Totalmente de acuerdo, y me entusiasma que pre-guntes y estés pensando en eso; es la noción que nueva-mente se ha puesto en el tapete. En la Unión Europea tenían convenciones muy interesantes de urbanismo, de ecología y de más; pero recientemente han creado la convención del paisaje, que es modernísima, interesantísima, y que recomiendo la busquen en Internet y la miren. La conven-

ción del paisaje de la UE ve en el paisaje una conjunción

de naturaleza y cultura, de mirada humana y de mirada

científica. Creo que el paisaje es la gran presión sintetiza-dora para describir un ambiente de calidad. ¿Cómo hacer esto en las ciudades…? Hay componentes que consider-ar, hay el paisaje natural y el humano. Esto, en todas las grandes ciudades se da. Uno puede hablar de Roma, de ciudades maravillosas, de paisaje cultural y también del paisaje natural, introducido en la ciudad: los ríos descon

Sostiene Rubén Pesci

La convención del paisaje, conjunción de naturaleza y culturaGabriel Todd

El Arco de Constantino, Roma Italia.

70y3.indd 1 26/02/2008 17:00:10

CONOCIMIENTO TECNOLOGÍAS WEB 71

taminados, la recuperación o ampliación de los parques. Por ejemplo, la recuperación que hizo Barcelona de sus playas es un caso típico, o convertir el parque del Tibidago en una gigantesca reserva natural de diez mil hectáreas dentro de Barcelona; sí, diez mil hectáreas dentro de la ciudad. Entonces, por un lado esa calidad del paisaje tiene que ir de la mano con una intensa y profunda recuperación de todos los atributos naturales que una ciudad puede tener: un río, unas sierras, unos parques, unos bosques, un desierto, que por cierto también tiene un valor natural y paisajístico. Y, segundo, el paisaje humano, el paisaje cultural, esas ciudades que tienen esos fantásticos centros peatonales llenos de vida social, áreas deportivas… en fin. Entonces, la estrategia entre un paisaje humano cultural enormemente atractivo y un paisaje natural que ha sido reestablecido y se conserva es la que puede dar una ciudad de paisaje atractivo.

GT: ¿La persona proyecta la ciudad o la ciudad termina proyectando y condicionando la vida de la persona en una visión histórica?

RP: Muy buena. La condición humana tiene un poder tal sobre la naturaleza y sobre la historia, que ha sido la única que ha podido llevar al mundo a donde está; es un mal y es un bien; la especie humana, el ecosistema hu-mano tiene el poder para condicionar el destino de una ciudad; lo que pasa es que muchas veces ese acontecer humano, ese paisaje de acontecimientos, diría un gran escritor, Paul Virilio es tan caótico, que cada quien hace lo que quiere; los intereses económicos llegan a predomi-nar sobre los intereses sociales y culturales, y la ciudad finalmente es un caos. Por eso, si nosotros hacemos una

encuesta mundial, es probable que la mayor parte de

los habitantes del planeta digan que las ciudades son

malas. Y no es que sean malas. Las malas ciudades son

malas, y las buenas son espléndidas. Este mismo ambi-ente que tiene San Pedro Garza Garcia, Nuevo León, es un ambiente de grandísima calidad. Uno tiene más o menos toda la gama y oferta posible de bienes y servicios dentro de un paisaje verde, interesante, muy bonito; las colinas alrededor. Pero, claro, si aumenta el tráfico, si aumenta el ruido, si aumenta la contaminación y la congestión y así para adelante, el paisaje se tornará malo.

GT: La ciudad ¿es un proceso o es un destino? ¿Se conforma de manera eterna en un cambio constante o se puede llegar a un punto en donde digamos que tenemos o hemos logrado el entorno adecuado?

RP: En Ecología hay un principio que se conoce como el ecosistema clímax, que alcanza un momento de clímax; es muy peligroso, porque después del clímax suele suceder el envejecimiento o la desaparición. Yo creo que el camino lo están mostrando algunas grandes ciudades del mundo, en particular en Europa, aunque también en otros lados, como San Francisco, en Estados Unidos, Sydney, en Aus-tralia, etcétera. El destino es un crecimiento pautado, más bien lento, mediante una mejor distribución de actividades en el territorio, que incide en una maduración de esas me-joras que siempre requieren años, requieren cultura. Las ciudades de crecimiento explosivo no pueden ser buenas; es como un adolescente que crece diez centímetros por

Trayectoria

Rubén Pesci es arquitecto. Nació en La Plata, Argentina, en 1942, y se graduó en la Universidad Nacional de dicha ciudad en 1965. Ha sido profesor titular de las universidades: Nacional de La Plata, Católica de La Plata y de Belgrano; profesor invitado en las universidades de Venecia (Italia), Menéndez y Pelayo y Valencia (España), Tucumán y Mendoza (Argentina), Mérida y Caracas (Venezuela) y Porto Alegre y Curitiba (Brasil). Dirigió el Curso Superior de Proyectación Ambiental (Universidad de Belgrano, 1980-87); el Taller Latinoamericano de Formación Ambiental (1985-87), varios cursos y talleres de grado y posgrado en Formación Ambiental de la FLACAM (Foro Latinoamericano de Ciencias Ambientales). Ha ejercido importantes cargos públicos y privados: asesor en Cuestiones Metropolitanas del Gobierno de la Provincia de Buenos Aires, director provincial del Conurbano Bonaerense y subsecretario de Coordinación Técnica del Área Metropolitana de Buenos Aires (AMBA) (1984-89). Es autor de los libros: Del ambiente individual al ambiente colectivo, 1973; La ciudad in-urbana, 1985; Parque Costero del Sur, 1990; Nuestras Propias Soluciones, 1992; Proyectación Ambiental, 1995; La ciudad de la urbanidad, 1997 y Del Titanic al Velero: la vida como proyecto, 2000. Ha publicado más de trescientos artículos en revistas y periódicos locales e internacionales. El accionar de Rubén Pesci en materia arquitectónica, urbanística y ambiental -reconocido por su originalidad- lo llevó a merecer importantes distinciones y reconocimientos: - Premios en concursos nacionales y certámenes internacionales. - Invitado a exponer sus obras y planes en París, Roma, Bolonia, Milán, Venecia, Madrid, Barcelona, Santiago de Chile, Montevideo, Buenos Aires, Porto Alegre, Curitiba, Río de Janeiro, Lima, Caracas, México, South Carolina y Los Angeles (USA), etcétera. - Jurado en distintas manifestaciones locales y extranjeras. - Conferencista invitado en congresos nacionales e internacionales y en universidades de América y Europa.

año: No tiene ropa que aguante; ese adolescente tiene que parar en algún momento, porque si no, termina siendo un deforme gigante. Las madres se ponen nerviosas cuando un chico de 14 años sigue creciendo. Lo mismo les pasa a las ciudades. Hay que pautar su crecimiento; hay que descentralizarlas, para que crezcan varias ciudades y no sólo una sola gigantesca (ejemplo adecuado, el valle del Po, en Italia).

Lo que nos depara el futuro con la evolución de la Web es tema que analiza el doctor José Aldo Díaz Prado, página 20, mientras que el licenciado Rogelio J. Sepúlveda desarrolla el tema de las mejores prácticas de ingeniería de software, página 23; aunque confiesa su poca experiencia en el mundo de la Web, el profesor Ismael Vidales no oculta la admiración que le han causado los fractales, página 25.

CONTENIDO

La Ciencia es CulturaLicenciado Jorge PedrazaIngeniera Claudia OrdazEducación Física y DeporteDoctor Óscar Salas FraireLas Universidades y la CienciaDoctor Mario César Salinas CarmonaRedacciónLicenciada Alma TrejoLicenciado Carlos JoloyDiseñoVíctor Eduardo ArmendárizLindsay Jiménez EspinosaArte GráficoArquitecto Rafael Adame DoriaCirculación y AdministraciónProfesor Oliverio Anaya Rodríguez

La revista CONOCIMIENTO es un órgano de difusión del CECyTE, editada por el COCyTE, y abre sus páginas a las instituciones de educación superior para la publicación de artículos y noticias de carácter científico. Teléfonos en la redacción: 8346 7499 y 8346 [email protected] solicitado previamente con el nombre de CONOCIMIENTO.

Las opiniones expresadas en los artículos son responsabilidad exclusiva de sus autores.

Directorio

Computación socialDoctor José I. Icaza

Wikinómica: cómo la colaboración masiva lo cambia todoDoctor Juan Lauro Aguirre

El Manifiesto de Usabilidad y Accesibilidad para Portales Gubernamentales MexicanosIngeniero Luis Carlos Aceves Accesible para ciegos el Portal Internetdel Gobierno del Estado La burocracia electrónica SalutacionesKeith Raniere

Inicia operaciones aquí la empresa india ARICENT

Capacitará la UR a talentos en Tecnologías de la Información

50

52

55Tecn

olog

ías

Web

El Universo de las Tecnologías Web

57

58

61

64

66

EspecialFelicita el ITESM a IMPLAN San Pedro

A la edad de 94 añosFallece el papá del gobernador

Cultura y Arte

Niña con flores amarillas, en la Pinacoteca Nuevo León

La convención del paisaje,conjunción de naturaleza y cultura

Reconocimiento

67

68

69

70

La doctora Elisa Schaeffer trata de meterse en el alma de un buscador de páginas Web, página 29; y la ingeniera Marta Sylvia del Río explica las diferencias entre un texto normal, y un texto para páginas Web, página 31. Dos nuevas tecnologías Web son objeto de análisis de parte de expertos: la tecnología Ajax, por parte del maestro José Luis Ramos, página 37, y Silverlight, por parte del ingeniero José de León, página 39.

72

Mapa de Internet 2.0

2y71.indd 1 26/02/2008 17:50:20

Page 73: Revista Conocimiento 72

70 3

Alvin Toffler, futurólogo a quien conocimos hace mucho tiempo, describió el término: La tercera ola, refiriéndose a la nueva época de la comuni-

cación, que desborda la revolución industrial del siglo XVIII, el XIX y la revolución agrícola, que es milenaria. Nosotros nos atrevemos a escribir sobre el tema de la “cuarta ola”, que es la de los súper canales de la infor-mación, que, queramos o no, están trasformando nues-tra civilización.

Los cambios dramáticos de la ola digital, que fue-ron producto de investigaciones matemáticas con al-goritmos muy complejos, y después de la innovación tecnológica, rica en alternativas, del uso de las ondas hertzianas y de la comunicación trasnacional, han pro-ducido cambios en las múltiples áreas del existir coti-diano y vivencial. Algunos ejemplos pueden describir este potencial:

Uno de ellos es el impacto que este proceso tiene sobre el arte-ciencia del gobernar, el cual se transforma a gran velocidad en la actualidad con el llamado e-go-bierno, que, aprovechando la denominada banda ancha y la comunicación intranet, generará, de aprovecharse bien, una alta eficiencia en el sector gubernamental y disminuirá las enfermedades de la apología social en-démica, que caracteriza algunas veces a la burocracia.

En Nuevo León, Estado de Progreso, se está dando este rumbo de modernización, y nuestra página elec-trónica es ya un ejemplo nacional. Además, la trans-parencia vía electrónica, que es obligación legal del sector público, está resultando un buen antibiótico en contra de la enfermedad de la corrupción. Este proceso, de hacer objetivas las acciones del servidor público, mejora la imagen del gobierno y aumenta la confianza ocular; sin embargo, las leyes de transparencia y la pu-blicación a tiempo real, solas, no nos van a hacer más honestos, pero al menos nos obligan a ser inteligentes y más eficientes. El verdadero tratamiento de este fenó-meno está en la educación, en el incremento de nuestra autoestima y en la dignificación del servidor público.

También los vientos de la electrónica están modifi-cando los rumbos fenicios del mercado, pues está bien documentado que las compras y ventas por Internet, y la simbología fantasiosa y conductista de la imagen están desviando el tradicional mercado persa hacia la

adquisición de bienes y servicios a través de la banda ancha, que de esa forma amplifica la adicción a las com-pras, enfermedad que caracteriza a la sociedad actual.

Por supuesto, no todo “está podrido en Dinamarca”, como diría Shakespeare, pues la ola digital trae profun-dos cambios en la educación, en el arte lúdico del gozo y en la comunicación interhumana rápida y permanen-te que la telefonía celular y la informática permiten a tiempo real. De nuestra capacidad de aprovechar y no desvirtuar esta tecnología se producirá un mundo sin analfabetismo y con menores contrasentidos sociales y mayor justicia en la distribución del ingreso de esta nueva sociedad del conocimiento. Si a esto le agrega-mos la “sociedad del conocimiento” como aliada de las páginas Web y de la comunicación vía súper canales de información, podremos aprovechar las bondades docu-mentadas de esta nueva ola.

En síntesis: este tsunami de la banda ancha digital y de la sociedad E está sacudiendo el interior de nuestro potencial humano creativo, y si logramos que esta nue-va energía se vectorice en beneficio de la raza humana, a través de respetar un marco ético de comportamiento, estaremos satisfechos de que la nueva ola sea condu-cida con los valores de siempre, evitando que la misma nos guíe a desvirtuar la esencia del humanismo virtual, que es la síntesis poética de la libertad del hombre he-cha preocupación, no sólo por el “yo”, sino también por el “nosotros”.

Pienso, luego existo

DESCARTES1596 a 1650

De haber sabido que mi método cartesiano

iba a producir una revolución digital como la actual, quizás no me

hubiera muerto.

Tecn

olog

ías

Web

EDITORIAL

La ola digital

El nuevo universo: Web

El arquitecto y urbanista Rubén Pesci, reconocido

internacionalmente por su destacada trayectoria profe-

sional, estuvo en días pasados en San Pedro Garza Gar-

cía, y accedió a una entrevista con CONOCIMIENTO. He

aquí el texto de la conversación:

Gabriel Todd: La ciudad ¿es ciencia o es arte?

Ruben Pesci: Muy buena pregunta. En síntesis, la ciu-dad es ante todo arte, una mirada integradora histórica cultural. El propio Albert Einsten, uno de los más notables científicos de la historia, dijo que en tiempo de crisis, de cambio, de evolución, es más importante la imaginación que el conocimiento. La imaginación es típicamente una

forma de pensamiento artística. Ese arte urbano, como

se le llamaba desde el siglo XIX; tiene que estar basado en conocimiento, en datos, en evidencia, en donde la ciencia viene en auxilio, pero viene en auxilio. Invertir la ecuación y decir que el arte es un complemento, decir que es un artefacto de la ciencia, es no entender la vida.

GT: Como recomponer la ciudad desde el paisaje, que

Ingeniero Gabriel ToddDirector General

del Instituto Municipal de Planeación

Urbana San Pedro Garza García

[email protected]

el paisaje sea el elemento rector de la ciudad a pesar de toda la actividad económica que engloba la vida urbana. ¿Estás de acuerdo?

RP: Totalmente de acuerdo, y me entusiasma que pre-guntes y estés pensando en eso; es la noción que nueva-mente se ha puesto en el tapete. En la Unión Europea tenían convenciones muy interesantes de urbanismo, de ecología y de más; pero recientemente han creado la convención del paisaje, que es modernísima, interesantísima, y que recomiendo la busquen en Internet y la miren. La conven-

ción del paisaje de la UE ve en el paisaje una conjunción

de naturaleza y cultura, de mirada humana y de mirada

científica. Creo que el paisaje es la gran presión sintetiza-dora para describir un ambiente de calidad. ¿Cómo hacer esto en las ciudades…? Hay componentes que consider-ar, hay el paisaje natural y el humano. Esto, en todas las grandes ciudades se da. Uno puede hablar de Roma, de ciudades maravillosas, de paisaje cultural y también del paisaje natural, introducido en la ciudad: los ríos descon

Sostiene Rubén Pesci

La convención del paisaje, conjunción de naturaleza y culturaGabriel Todd

El Arco de Constantino, Roma Italia.

70y3.indd 1 26/02/2008 17:00:10

CONOCIMIENTO TECNOLOGÍAS WEB 71

taminados, la recuperación o ampliación de los parques. Por ejemplo, la recuperación que hizo Barcelona de sus playas es un caso típico, o convertir el parque del Tibidago en una gigantesca reserva natural de diez mil hectáreas dentro de Barcelona; sí, diez mil hectáreas dentro de la ciudad. Entonces, por un lado esa calidad del paisaje tiene que ir de la mano con una intensa y profunda recuperación de todos los atributos naturales que una ciudad puede tener: un río, unas sierras, unos parques, unos bosques, un desierto, que por cierto también tiene un valor natural y paisajístico. Y, segundo, el paisaje humano, el paisaje cultural, esas ciudades que tienen esos fantásticos centros peatonales llenos de vida social, áreas deportivas… en fin. Entonces, la estrategia entre un paisaje humano cultural enormemente atractivo y un paisaje natural que ha sido reestablecido y se conserva es la que puede dar una ciudad de paisaje atractivo.

GT: ¿La persona proyecta la ciudad o la ciudad termina proyectando y condicionando la vida de la persona en una visión histórica?

RP: Muy buena. La condición humana tiene un poder tal sobre la naturaleza y sobre la historia, que ha sido la única que ha podido llevar al mundo a donde está; es un mal y es un bien; la especie humana, el ecosistema hu-mano tiene el poder para condicionar el destino de una ciudad; lo que pasa es que muchas veces ese acontecer humano, ese paisaje de acontecimientos, diría un gran escritor, Paul Virilio es tan caótico, que cada quien hace lo que quiere; los intereses económicos llegan a predomi-nar sobre los intereses sociales y culturales, y la ciudad finalmente es un caos. Por eso, si nosotros hacemos una

encuesta mundial, es probable que la mayor parte de

los habitantes del planeta digan que las ciudades son

malas. Y no es que sean malas. Las malas ciudades son

malas, y las buenas son espléndidas. Este mismo ambi-ente que tiene San Pedro Garza Garcia, Nuevo León, es un ambiente de grandísima calidad. Uno tiene más o menos toda la gama y oferta posible de bienes y servicios dentro de un paisaje verde, interesante, muy bonito; las colinas alrededor. Pero, claro, si aumenta el tráfico, si aumenta el ruido, si aumenta la contaminación y la congestión y así para adelante, el paisaje se tornará malo.

GT: La ciudad ¿es un proceso o es un destino? ¿Se conforma de manera eterna en un cambio constante o se puede llegar a un punto en donde digamos que tenemos o hemos logrado el entorno adecuado?

RP: En Ecología hay un principio que se conoce como el ecosistema clímax, que alcanza un momento de clímax; es muy peligroso, porque después del clímax suele suceder el envejecimiento o la desaparición. Yo creo que el camino lo están mostrando algunas grandes ciudades del mundo, en particular en Europa, aunque también en otros lados, como San Francisco, en Estados Unidos, Sydney, en Aus-tralia, etcétera. El destino es un crecimiento pautado, más bien lento, mediante una mejor distribución de actividades en el territorio, que incide en una maduración de esas me-joras que siempre requieren años, requieren cultura. Las ciudades de crecimiento explosivo no pueden ser buenas; es como un adolescente que crece diez centímetros por

Trayectoria

Rubén Pesci es arquitecto. Nació en La Plata, Argentina, en 1942, y se graduó en la Universidad Nacional de dicha ciudad en 1965. Ha sido profesor titular de las universidades: Nacional de La Plata, Católica de La Plata y de Belgrano; profesor invitado en las universidades de Venecia (Italia), Menéndez y Pelayo y Valencia (España), Tucumán y Mendoza (Argentina), Mérida y Caracas (Venezuela) y Porto Alegre y Curitiba (Brasil). Dirigió el Curso Superior de Proyectación Ambiental (Universidad de Belgrano, 1980-87); el Taller Latinoamericano de Formación Ambiental (1985-87), varios cursos y talleres de grado y posgrado en Formación Ambiental de la FLACAM (Foro Latinoamericano de Ciencias Ambientales). Ha ejercido importantes cargos públicos y privados: asesor en Cuestiones Metropolitanas del Gobierno de la Provincia de Buenos Aires, director provincial del Conurbano Bonaerense y subsecretario de Coordinación Técnica del Área Metropolitana de Buenos Aires (AMBA) (1984-89). Es autor de los libros: Del ambiente individual al ambiente colectivo, 1973; La ciudad in-urbana, 1985; Parque Costero del Sur, 1990; Nuestras Propias Soluciones, 1992; Proyectación Ambiental, 1995; La ciudad de la urbanidad, 1997 y Del Titanic al Velero: la vida como proyecto, 2000. Ha publicado más de trescientos artículos en revistas y periódicos locales e internacionales. El accionar de Rubén Pesci en materia arquitectónica, urbanística y ambiental -reconocido por su originalidad- lo llevó a merecer importantes distinciones y reconocimientos: - Premios en concursos nacionales y certámenes internacionales. - Invitado a exponer sus obras y planes en París, Roma, Bolonia, Milán, Venecia, Madrid, Barcelona, Santiago de Chile, Montevideo, Buenos Aires, Porto Alegre, Curitiba, Río de Janeiro, Lima, Caracas, México, South Carolina y Los Angeles (USA), etcétera. - Jurado en distintas manifestaciones locales y extranjeras. - Conferencista invitado en congresos nacionales e internacionales y en universidades de América y Europa.

año: No tiene ropa que aguante; ese adolescente tiene que parar en algún momento, porque si no, termina siendo un deforme gigante. Las madres se ponen nerviosas cuando un chico de 14 años sigue creciendo. Lo mismo les pasa a las ciudades. Hay que pautar su crecimiento; hay que descentralizarlas, para que crezcan varias ciudades y no sólo una sola gigantesca (ejemplo adecuado, el valle del Po, en Italia).

Lo que nos depara el futuro con la evolución de la Web es tema que analiza el doctor José Aldo Díaz Prado, página 20, mientras que el licenciado Rogelio J. Sepúlveda desarrolla el tema de las mejores prácticas de ingeniería de software, página 23; aunque confiesa su poca experiencia en el mundo de la Web, el profesor Ismael Vidales no oculta la admiración que le han causado los fractales, página 25.

CONTENIDO

La Ciencia es CulturaLicenciado Jorge PedrazaIngeniera Claudia OrdazEducación Física y DeporteDoctor Óscar Salas FraireLas Universidades y la CienciaDoctor Mario César Salinas CarmonaRedacciónLicenciada Alma TrejoLicenciado Carlos JoloyDiseñoVíctor Eduardo ArmendárizLindsay Jiménez EspinosaArte GráficoArquitecto Rafael Adame DoriaCirculación y AdministraciónProfesor Oliverio Anaya Rodríguez

La revista CONOCIMIENTO es un órgano de difusión del CECyTE, editada por el COCyTE, y abre sus páginas a las instituciones de educación superior para la publicación de artículos y noticias de carácter científico. Teléfonos en la redacción: 8346 7499 y 8346 [email protected] solicitado previamente con el nombre de CONOCIMIENTO.

Las opiniones expresadas en los artículos son responsabilidad exclusiva de sus autores.

Directorio

Computación socialDoctor José I. Icaza

Wikinómica: cómo la colaboración masiva lo cambia todoDoctor Juan Lauro Aguirre

El Manifiesto de Usabilidad y Accesibilidad para Portales Gubernamentales MexicanosIngeniero Luis Carlos Aceves Accesible para ciegos el Portal Internetdel Gobierno del Estado La burocracia electrónica SalutacionesKeith Raniere

Inicia operaciones aquí la empresa india ARICENT

Capacitará la UR a talentos en Tecnologías de la Información

50

52

55Tecn

olog

ías

Web

El Universo de las Tecnologías Web

57

58

61

64

66

EspecialFelicita el ITESM a IMPLAN San Pedro

A la edad de 94 añosFallece el papá del gobernador

Cultura y Arte

Niña con flores amarillas, en la Pinacoteca Nuevo León

La convención del paisaje,conjunción de naturaleza y cultura

Reconocimiento

67

68

69

70

La doctora Elisa Schaeffer trata de meterse en el alma de un buscador de páginas Web, página 29; y la ingeniera Marta Sylvia del Río explica las diferencias entre un texto normal, y un texto para páginas Web, página 31. Dos nuevas tecnologías Web son objeto de análisis de parte de expertos: la tecnología Ajax, por parte del maestro José Luis Ramos, página 37, y Silverlight, por parte del ingeniero José de León, página 39.

72

Mapa de Internet 2.0

2y71.indd 1 26/02/2008 17:50:20

Page 74: Revista Conocimiento 72

A personajes nuestrosen el mundo de las Tecnologías Web

Juan Roberto [email protected]

Maestro Luis Carlos Aceves Gutiérrez

Ligado siempre a las tecnologías Web; a las metodologías ágiles de desarrollo de software y al fomento de la economía digital, Luis Carlos Aceves Gutiérrez es también experto en comercio electrónico, actividad en la que utiliza tecnología de información de punta para las transacciones monetarias. Ha sido evaluador de

empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

Ingeniero en sistemas computacionales, tiene una Maestría en Administración, ambos grados académicos del ITESM. Actualmente es profesor en el Departamento de Ciencias Computacionales de la UDEM, y articulista de El Norte y Reforma; es reconocido como uno de los principales impulsores de temas relacionados con la experiencia del usuario en la Web.

Doctor Ramón E. Brena Pinero

Experto en modelos matemáticos de especificaciones de software y profesor en el ITESM, en los niveles de grado y de posgrado; de métodos formales en ingeniería de software, análisis de algoritmos, sistemas multiagentes y lógica matemática, Ramón Brena tiene, entre sus líneas de investigación, las de agentes inteligentes y semántica

del Internet. Es miembro del Sistema Nacional de Investigadores, nivel I, y ha sido profesor en la UAM y en el Instituto Autónomo de México, así como profesor visitante en la Universidad de Montreal, en Canadá, y en la Universidad de Texas, en Dallas.

Es ingeniero en Computación por la UNAM y tiene un Diplomado de Estudios Avanzados en Información, en Grenoble, Francia. Su Doctorado en Informática es del Laboratoire d´Informatique Fondamentale et d’Intelligence Artificielle en Grenoble, Francia.

Maestro Roberto Ivon Dibildox

Maestro desde el año 2004, en el de nivel posgrado, en la Universidad Regiomontana, donde imparte las materias Paradigmas de Programación, Complejidad Algorítmica e Ingeniería de Software, Roberto Ivon Dibildox ha realizado importantes investigaciones en las áreas de redes sociales y aprendizaje colaborativo, mediante la

utilización de tecnologías Web.

Ha sido profesor en el ITESM, campus Querétaro, Monterrey y San Luís Potosí, donde fue director de las carreras de informática. En la UR ha sido director de sistemas educativos y director de tecnología. Es ingeniero en sistemas Computacionales por el ITESM, campus Querétaro, y tiene una Maestría en Ciencias Computacionales del ITESM, campus Monterrey. Tiene un diplomado en Sistemas Modernos de Manufactura de la Western Illinois University.

Maestro Fernando Méndez Barajas

Como director de Operaciones de Servicios a Estados Unidos de la empresa Softtek, que brinda servicios globales a distancia en tecnologías de información, como mantenimiento, soporte, desarrollo y pruebas de aplicaciones, Fernando Méndez Barajas trabaja con modelos de entrega globales basados en CMMI5,

SixSigma, procesos digitalizados y metodologías de vanguardia en desarrollo e implementación de sistemas.

Es ingeniero en Sistemas Electrónicos por el Instituto Tecnológico y de Estudios Superiores de Monterrey, y tiene una Maestría en Educación Familiar, del Instituto de Estudios Europeos de Educación (IEEE) y el Instituto Mexicano de Estudios de la Educación (IMEE). Tomó el programa de Alta Dirección de Empresas del Instituto Panamericano de Alta Dirección de Empresas (IPADE).

Ingeniero Aldo Gamaliel Peñuelas López

Con un larga experiencia en desarrollo de proyectos basados en tecnología Web, como el Sistema de Inscripciones del ITESM; arquitecto y líder de proyectos de la Aplicación ILS, que la empresa General Electric utiliza a nivel mundial para la logística de sus turbinas y materiales, Aldo Gamaliel Peñuelas labora desde el año

2002 en la empresa Softtek, donde, entre otras cosas, participó como líder de diseño técnico del proyecto Nuevo Sistema de Pensiones, del IMSS.

Es ingeniero en Sistemas Computacionales por el ITESM, y tomó el curso SixSigma. Actualmente es líder de operaciones en Softtek, y tiene a su cargo 20 proyectos de desarrollo, el 85 por ciento de ellos con tecnología de punta en Web.

Licenciado Rogelio J. Sepúlveda Guerrero

Con importantes estudios sobre ingeniería de software, especialmente en metodologías de desarrollos evolutivos que modifican las metodologías tradicionales, para así construir softwares de calidad dentro de los tiempos y costos establecidos, pero haciendo las diferencias entre desarrollos web y desarrollos en la arquitectura cliente-

servidor, Rogelio J. Sepúlveda Guerrero es maestro en la Facultad de Ciencias Físico Matemáticas de la Universidad Autónoma de Nuevo León.

Es licenciado en Ciencias Computacionales, y tiene una Maestría en Teleinformática, ambos grados académicos de la Facultad de Ciencias Físico Matemáticas de la UANL, donde actualmente es también subdirector del Centro de Servicios en Informática, que brinda servicio y atiende proyectos de los sectores público y privado.

El doctor Arturo Galván analiza los servicios Web y lo que éstos ofrecen a los usuarios, página 4; en tanto que el ingeniero Roberto Ivon Dibildox aborda el tema de la Web 2.0 en la Sociedad del Conocimiento, página 7, y la ingeniera María Imelda González hace consideraciones sobre la experiencia del usuario en la nueva red, página 10.

Tecn

olog

ías

Web

CONTENIDO

Director GeneralDoctor Luis Eugenio ToddSubdirectorLicenciado Juan Roberto ZavalaDirector EditorialFélix Ramos GamiñoEducaciónProfesor Ismael Vidales DelgadoCiencias Básicas y del AmbienteDoctor Juan Lauro AguirreDesarrollo Urbano y SocialIngeniero Gabriel ToddCiencias MédicasDoctor David Gómez AlmaguerCiencias Políticas y / o de Administración PúblicaContador Público José Cárdenas CavazosCiencias de la ComunicaciónDoctora Patricia Liliana Cerda Pérez

Consejo Editorial

Directorio

Presidente del Consejo de Ciencia y Tecnología de Nuevo LeónIngeniero Juan Antonio González AréchigaN. L. Gob.Licenciado Omar Cervantes RodríguezDirector del Programa Ciudad Internacional del ConocimientoIngeniero Jaime Parada ÁvilaCAINTRAIngeniero Xavier Lozano MartínezITESMM. C. Silvia Patricia Mora CastroUANLDoctor Mario César Salinas Carmona

Doctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

EditorialLa ola digitalEl nuevo universo: Web

El Universo de las Tecnologías Web

3

4

15

17

20

27

29

34

35

41

48

Qué ofrecen los servicios WebDoctor Arturo Galván Rodríguez

Importancia de la Web 2.0 en la Sociedad del ConocimientoIngeniero Roberto Ivon Dibildox

La experiencia del usuario en la nueva WebIngeniera María Imelda González Báez

La Web Semántica: para humanos y para máquinasM. C. Héctor G. Ceballos

La democratización de la Web, un reto mundialDoctora Patricia Liliana Cerda Pérez

Modelos de negocios WebMaestro Rodrigo Soto

Hacia un futuro evolutivo de la WebDoctor José Aldo Díaz Prado

Las Mejores Prácticas de Ingeniería de Software en los Desarrollos WEB Licenciado Rogelio J. Sepúlveda

La Web y los fractalesProfesor Ismael Vidales Delgado

La importancia del open source en la WebIngeniero Jorge CárdenasTécnico Antonio López Magaña

El alma de un buscador de páginas WebDoctora Elisa Schaeffer

Cómo redactar los textos para la WebIngeniera Marta Sylvia del Río

El coach que diseña y construye componentes del software WebLicenciado Felipe de Jesús Rodríguez García, MT Yo necesito una banca segura. ¿Y tú?Licenciada Laura Rodríguez

Implementación de la tecnología AjaxMaestro José Luis Ramos Martínez

Silverlight, nueva y versátil tecnología WebIngeniero José de León Rodríguez La zanahoria por delante y el látigo por detrásAlejandro Camino

Mas allá de los buscadores en InternetDoctor Ramón Brena

Invasores en la redIngeniera Claudia Ordaz

7

10

12

23

25

31

37

39

44

La Web semántica para humanos y para máquinas es el tema que desarrolla el M. C. Héctor G. Ceballos, página 12, y la doctora Patricia Liliana Cerda reflexiona sobre el reto que constituye la democratización de la Web, página 15. El maestro Rodrigo Soto, a su vez, narra, en forma sintética, algunos de los negocios que se han desarrollado en el ámbito de las tecnologías Web, página 17.

72y1.indd 1 26/02/2008 17:26:30

La Universidad Autónoma de Nuevo León, en el marco del septuagésimo quinto aniversario de su fundación, presentará el libro

el día 3 de marzo del presente, a las 19:00 horas,en el Patio Ala Sur, del Colegio Civil Centro Cultural Universitario

La presentación estará a cargo de:

Ing. José Antonio González TreviñoRector de la Universidad Autónoma de Nuevo León

Dr. Juan Ramón de la Fuente RamírezEx rector de la Universidad Nacional Autónoma de México

Lic. Emiliano Salinas OccelliPosgraduado en Cuestionamiento Racional

Se contará con la presencia del Lic. José Natividad González Parás,Gobernador Constitucional del Estado de Nuevo León

Al término de la presentación, la Pinacoteca de Nuevo León, (ubicada en el Colegio Civil Centro Cultural Universitario) inaugurará una muestra de obras de

arte relativas al tema de adicciones, del artista regiomontano Juan Caballero (1959-1998)

Entrada libre

AdiccionesEnfermedades del siglo XXI

del doctor Luis Eugenio Todd

invita a la:

Presentación de las 37 Investigaciones Educativas realizadas por elCentro de Altos Estudios e Investigación Pedagógica – CAEIP

publicadas del 2004 al 2007

Miércoles 5 de Marzo, 2008 / 19:00 horasPatio de Esculturas Planta Baja / Pinacoteca de Nuevo León

Presentadores:

Dr. Reyes S. Tamez GuerraSecretario de Educación en el Estado de Nuevo León

Dr. Luis Eugenio ToddDirector General del Colegio de Estudios Científicos y Tecnológicos

del Estado de Nuevo León – CECYTE, NL

Dr. Carlos OrnelasInvestigador

Mtro. Ismael Vidales DelgadoDirector del Centro de Altos Estudios e Investigación Pedagógica – CAEIP

PINACOTECA DE NUEVO LEÓNJUÁREZ Y WASHINGTON S/N CENTRO DE MONTERREY | TEL 13404358

(ESTACIONAMIENTO SUBTERRÁNEO POR CALLE 5 DE MAYO)

EL COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS

DEL ESTADO DE NUEVO LEÓN

FORROS.indd 1 26/02/2008 17:12:08

Page 75: Revista Conocimiento 72

A personajes nuestrosen el mundo de las Tecnologías Web

Juan Roberto [email protected]

Maestro Luis Carlos Aceves Gutiérrez

Ligado siempre a las tecnologías Web; a las metodologías ágiles de desarrollo de software y al fomento de la economía digital, Luis Carlos Aceves Gutiérrez es también experto en comercio electrónico, actividad en la que utiliza tecnología de información de punta para las transacciones monetarias. Ha sido evaluador de

empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

Ingeniero en sistemas computacionales, tiene una Maestría en Administración, ambos grados académicos del ITESM. Actualmente es profesor en el Departamento de Ciencias Computacionales de la UDEM, y articulista de El Norte y Reforma; es reconocido como uno de los principales impulsores de temas relacionados con la experiencia del usuario en la Web.

Doctor Ramón E. Brena Pinero

Experto en modelos matemáticos de especificaciones de software y profesor en el ITESM, en los niveles de grado y de posgrado; de métodos formales en ingeniería de software, análisis de algoritmos, sistemas multiagentes y lógica matemática, Ramón Brena tiene, entre sus líneas de investigación, las de agentes inteligentes y semántica

del Internet. Es miembro del Sistema Nacional de Investigadores, nivel I, y ha sido profesor en la UAM y en el Instituto Autónomo de México, así como profesor visitante en la Universidad de Montreal, en Canadá, y en la Universidad de Texas, en Dallas.

Es ingeniero en Computación por la UNAM y tiene un Diplomado de Estudios Avanzados en Información, en Grenoble, Francia. Su Doctorado en Informática es del Laboratoire d´Informatique Fondamentale et d’Intelligence Artificielle en Grenoble, Francia.

Maestro Roberto Ivon Dibildox

Maestro desde el año 2004, en el de nivel posgrado, en la Universidad Regiomontana, donde imparte las materias Paradigmas de Programación, Complejidad Algorítmica e Ingeniería de Software, Roberto Ivon Dibildox ha realizado importantes investigaciones en las áreas de redes sociales y aprendizaje colaborativo, mediante la

utilización de tecnologías Web.

Ha sido profesor en el ITESM, campus Querétaro, Monterrey y San Luís Potosí, donde fue director de las carreras de informática. En la UR ha sido director de sistemas educativos y director de tecnología. Es ingeniero en sistemas Computacionales por el ITESM, campus Querétaro, y tiene una Maestría en Ciencias Computacionales del ITESM, campus Monterrey. Tiene un diplomado en Sistemas Modernos de Manufactura de la Western Illinois University.

Maestro Fernando Méndez Barajas

Como director de Operaciones de Servicios a Estados Unidos de la empresa Softtek, que brinda servicios globales a distancia en tecnologías de información, como mantenimiento, soporte, desarrollo y pruebas de aplicaciones, Fernando Méndez Barajas trabaja con modelos de entrega globales basados en CMMI5,

SixSigma, procesos digitalizados y metodologías de vanguardia en desarrollo e implementación de sistemas.

Es ingeniero en Sistemas Electrónicos por el Instituto Tecnológico y de Estudios Superiores de Monterrey, y tiene una Maestría en Educación Familiar, del Instituto de Estudios Europeos de Educación (IEEE) y el Instituto Mexicano de Estudios de la Educación (IMEE). Tomó el programa de Alta Dirección de Empresas del Instituto Panamericano de Alta Dirección de Empresas (IPADE).

Ingeniero Aldo Gamaliel Peñuelas López

Con un larga experiencia en desarrollo de proyectos basados en tecnología Web, como el Sistema de Inscripciones del ITESM; arquitecto y líder de proyectos de la Aplicación ILS, que la empresa General Electric utiliza a nivel mundial para la logística de sus turbinas y materiales, Aldo Gamaliel Peñuelas labora desde el año

2002 en la empresa Softtek, donde, entre otras cosas, participó como líder de diseño técnico del proyecto Nuevo Sistema de Pensiones, del IMSS.

Es ingeniero en Sistemas Computacionales por el ITESM, y tomó el curso SixSigma. Actualmente es líder de operaciones en Softtek, y tiene a su cargo 20 proyectos de desarrollo, el 85 por ciento de ellos con tecnología de punta en Web.

Licenciado Rogelio J. Sepúlveda Guerrero

Con importantes estudios sobre ingeniería de software, especialmente en metodologías de desarrollos evolutivos que modifican las metodologías tradicionales, para así construir softwares de calidad dentro de los tiempos y costos establecidos, pero haciendo las diferencias entre desarrollos web y desarrollos en la arquitectura cliente-

servidor, Rogelio J. Sepúlveda Guerrero es maestro en la Facultad de Ciencias Físico Matemáticas de la Universidad Autónoma de Nuevo León.

Es licenciado en Ciencias Computacionales, y tiene una Maestría en Teleinformática, ambos grados académicos de la Facultad de Ciencias Físico Matemáticas de la UANL, donde actualmente es también subdirector del Centro de Servicios en Informática, que brinda servicio y atiende proyectos de los sectores público y privado.

El doctor Arturo Galván analiza los servicios Web y lo que éstos ofrecen a los usuarios, página 4; en tanto que el ingeniero Roberto Ivon Dibildox aborda el tema de la Web 2.0 en la Sociedad del Conocimiento, página 7, y la ingeniera María Imelda González hace consideraciones sobre la experiencia del usuario en la nueva red, página 10.

Tecn

olog

ías

Web

CONTENIDO

Director GeneralDoctor Luis Eugenio ToddSubdirectorLicenciado Juan Roberto ZavalaDirector EditorialFélix Ramos GamiñoEducaciónProfesor Ismael Vidales DelgadoCiencias Básicas y del AmbienteDoctor Juan Lauro AguirreDesarrollo Urbano y SocialIngeniero Gabriel ToddCiencias MédicasDoctor David Gómez AlmaguerCiencias Políticas y / o de Administración PúblicaContador Público José Cárdenas CavazosCiencias de la ComunicaciónDoctora Patricia Liliana Cerda Pérez

Consejo Editorial

Directorio

Presidente del Consejo de Ciencia y Tecnología de Nuevo LeónIngeniero Juan Antonio González AréchigaN. L. Gob.Licenciado Omar Cervantes RodríguezDirector del Programa Ciudad Internacional del ConocimientoIngeniero Jaime Parada ÁvilaCAINTRAIngeniero Xavier Lozano MartínezITESMM. C. Silvia Patricia Mora CastroUANLDoctor Mario César Salinas Carmona

Doctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

EditorialLa ola digitalEl nuevo universo: Web

El Universo de las Tecnologías Web

3

4

15

17

20

27

29

34

35

41

48

Qué ofrecen los servicios WebDoctor Arturo Galván Rodríguez

Importancia de la Web 2.0 en la Sociedad del ConocimientoIngeniero Roberto Ivon Dibildox

La experiencia del usuario en la nueva WebIngeniera María Imelda González Báez

La Web Semántica: para humanos y para máquinasM. C. Héctor G. Ceballos

La democratización de la Web, un reto mundialDoctora Patricia Liliana Cerda Pérez

Modelos de negocios WebMaestro Rodrigo Soto

Hacia un futuro evolutivo de la WebDoctor José Aldo Díaz Prado

Las Mejores Prácticas de Ingeniería de Software en los Desarrollos WEB Licenciado Rogelio J. Sepúlveda

La Web y los fractalesProfesor Ismael Vidales Delgado

La importancia del open source en la WebIngeniero Jorge CárdenasTécnico Antonio López Magaña

El alma de un buscador de páginas WebDoctora Elisa Schaeffer

Cómo redactar los textos para la WebIngeniera Marta Sylvia del Río

El coach que diseña y construye componentes del software WebLicenciado Felipe de Jesús Rodríguez García, MT Yo necesito una banca segura. ¿Y tú?Licenciada Laura Rodríguez

Implementación de la tecnología AjaxMaestro José Luis Ramos Martínez

Silverlight, nueva y versátil tecnología WebIngeniero José de León Rodríguez La zanahoria por delante y el látigo por detrásAlejandro Camino

Mas allá de los buscadores en InternetDoctor Ramón Brena

Invasores en la redIngeniera Claudia Ordaz

7

10

12

23

25

31

37

39

44

La Web semántica para humanos y para máquinas es el tema que desarrolla el M. C. Héctor G. Ceballos, página 12, y la doctora Patricia Liliana Cerda reflexiona sobre el reto que constituye la democratización de la Web, página 15. El maestro Rodrigo Soto, a su vez, narra, en forma sintética, algunos de los negocios que se han desarrollado en el ámbito de las tecnologías Web, página 17.

72y1.indd 1 26/02/2008 17:26:30

La Universidad Autónoma de Nuevo León, en el marco del septuagésimo quinto aniversario de su fundación, presentará el libro

el día 3 de marzo del presente, a las 19:00 horas,en el Patio Ala Sur, del Colegio Civil Centro Cultural Universitario

La presentación estará a cargo de:

Ing. José Antonio González TreviñoRector de la Universidad Autónoma de Nuevo León

Dr. Juan Ramón de la Fuente RamírezEx rector de la Universidad Nacional Autónoma de México

Lic. Emiliano Salinas OccelliPosgraduado en Cuestionamiento Racional

Se contará con la presencia del Lic. José Natividad González Parás,Gobernador Constitucional del Estado de Nuevo León

Al término de la presentación, la Pinacoteca de Nuevo León, (ubicada en el Colegio Civil Centro Cultural Universitario) inaugurará una muestra de obras de

arte relativas al tema de adicciones, del artista regiomontano Juan Caballero (1959-1998)

Entrada libre

AdiccionesEnfermedades del siglo XXI

del doctor Luis Eugenio Todd

invita a la:

Presentación de las 37 Investigaciones Educativas realizadas por elCentro de Altos Estudios e Investigación Pedagógica – CAEIP

publicadas del 2004 al 2007

Miércoles 5 de Marzo, 2008 / 19:00 horasPatio de Esculturas Planta Baja / Pinacoteca de Nuevo León

Presentadores:

Dr. Reyes S. Tamez GuerraSecretario de Educación en el Estado de Nuevo León

Dr. Luis Eugenio ToddDirector General del Colegio de Estudios Científicos y Tecnológicos

del Estado de Nuevo León – CECYTE, NL

Dr. Carlos OrnelasInvestigador

Mtro. Ismael Vidales DelgadoDirector del Centro de Altos Estudios e Investigación Pedagógica – CAEIP

PINACOTECA DE NUEVO LEÓNJUÁREZ Y WASHINGTON S/N CENTRO DE MONTERREY | TEL 13404358

(ESTACIONAMIENTO SUBTERRÁNEO POR CALLE 5 DE MAYO)

EL COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS

DEL ESTADO DE NUEVO LEÓN

FORROS.indd 1 26/02/2008 17:12:08

Page 76: Revista Conocimiento 72

portada.indd 1 26/02/2008 17:45:53